euro-pravda.org.ua

Створено нейромережі для виявлення згенерованих вставок у текстах.

Команда дослідників на чолі з Олександром Ширніним з НДУ ВШЕ розробила дві моделі для виявлення в наукових текстах частин, сгенерованих штучним інтелектом. У системі AIpom поєднані два типи моделей — декодер і енкодер, що дозволяє їй ефективніше знаходити сгенеровані вставки. Система Papilusion призначена для розпізнавання виправлень за допомогою синонімів і коротких переказів, створених нейромережею, і використовує моделі одного типу — енкодери. У перспективі такі моделі сприятимуть перевірці оригінальності та достовірності наукових публікацій.
Разработаны нейросети для выявления вставок, созданных с помощью генеративных технологий, в текстах.

Статті про системи Papilusion та AIpom опубліковані в цифровому архіві ACL Anthology. Чим популярнішими стають мовні моделі, такі як ChatGPT або GigaChat, і чим більше їх використовують, тим складніше відрізнити оригінальний текст, написаний людиною, від згенерованого. Наукові публікації та випускні роботи вже пишуться з використанням штучного інтелекту. Тому важливо розробляти інструменти, які допоможуть виявляти в текстах вставки ІІ. Команда дослідників за участю НІУ ВШЕ запропонувала свої рішення цієї задачі на міжнародних наукових змаганнях SemEval 2024 та DAGPap24.

Модель AIpom використовували для визначення меж між оригінальними та згенерованими фрагментами в наукових статтях. У кожній роботі співвідношення машинного та авторського тексту було різним. Для навчання моделей організатори надавали тексти на одну тематику, але на етапі перевірки теми змінювались, що ускладнювало завдання.

«Моделі непогано справляються зі знайомими темами, але якщо дати нову тематику, то результат стає гіршим, — вважає один з авторів статті, стажер-дослідник Науково-учбової лабораторії моделей і методів обчислювальної прагматики факультету комп'ютерних наук НІУ ВШЕ Олександр Ширнін. — Це як студент, який, навчившись вирішувати один тип задач, не зможе так само легко і правильно вирішити задачу на незнайому тему або з іншого предмета».

Для підвищення ефективності системи дослідники вирішили комбінувати дві моделі — декодер і енкодер. На першому етапі використовувався декодер — нейромережа, на вхід якої подавали інструкцію плюс вихідний текст, а на виході отримували фрагмент тексту, ймовірно, згенерований ІІ. Потім в оригінальному тексті за допомогою мітки <BREAK> виділявся ділянка, де, за прогнозом моделі, починався згенерований фрагмент. Енкодер працював з текстом, розміченим на першому етапі, і уточнював прогнози декодера. Для цього він класифікував кожен токен — мінімальну одиницю тексту у вигляді слова або частини слова — і вказував, написаний він людиною чи ІІ. Такий підхід дозволив покращити точність у порівнянні з системами, де використовувався лише один тип моделей: AIpom зайняла 2-е місце на науковому змаганні SemEval-2024.

Модель Papilusion також відрізняла написаний текст від згенерованого. З її допомогою ділянки тексту поділяли на чотири категорії: написаний людиною, виправлений за допомогою синонімів, згенерований моделлю та коротко переказаний. Завдання полягало в правильному визначенні кожної з категорій. Кількість категорій та довжина вставок у текстах різнилися.

У даному випадку розробники використовували три моделі, але вже одного типу — енкодери. Їх навчали передбачати одну з чотирьох категорій для кожного токена з тексту, усі моделі навчали незалежно одна від одної. Коли модель помилялася, її штрафували та донавчали, при цьому заморожуючи нижні шари моделі.

«У кожній моделі в залежності від архітектури передбачено різну кількість шарів. Коли ми навчаємо модель, можна не чіпати, наприклад, перші десять шарів і змінювати числа тільки в двох останніх. Так роблять, щоб під час навчання не втратити частину важливих даних, закладених в перших шарах, — пояснює Олександр Ширнін. — Можна порівняти це зі спортсменом, який помиляється в русі рукою. Ми повинні пояснити йому тільки це, а не обнулити його знання і навчати заново, тому що тоді він може розучитися правильно рухатися в цілому. Тут це працює за тією ж логікою. Метод не універсальний і на деяких моделях може бути неефективним, але в нашому випадку це спрацювало».

Три енкодери незалежно один від одного визначали категорію для кожного токена (слова). Остаточний вибір системи ґрунтувався на тому, яка з категорій набрала більшість голосів. На змаганні система Papilusion зайняла 6-е місце з 30.

Як зазначають дослідники, зараз моделі для виявлення ІІ працюють добре, але все ще мають обмеження, перш за все погано обробляють дані, що виходять за межі навчальних, і в цілому не вистачає різноманітних даних для навчання моделей.

«Щоб отримувати більше даних, потрібно зосередитися на їх зборі. Цим займаються як компанії, так і лабораторії. Конкретно для такого типу задач потрібно збирати датасети, де в текстах використовуються кілька ІІ-моделей і методів виправлення, — коментує дослідник. — Тобто не просто продовжити текст за допомогою однієї моделі, а створювати більш реалістичні ситуації: десь попросити модель доповнити текст, переписати початок, щоб воно краще підходило, щось видалити з нього, спробувати частину згенерувати в новому стилі за допомогою іншого промпта (інструкції) для моделі. Також, звичайно, важливо збирати дані і на інших мовах, на різні тематики».