ArXiv блокує AI-генеровані оглядові статті після 'потопу' сміттєвих подань

Коротко

  • ArXiv змінив свою політику після того, як інструменти ШІ спростили масове генерування оглядових статей.
  • Тепер у категорії Комп'ютерні науки будуть прийматися тільки рецензовані оглядові або позиційні статті.
  • Дослідники поділені, деякі попереджають, що це правило шкодить авторам на початку кар'єри, в той час як інші вважають його необхідним для зупинки спаму від ШІ.

Центр мистецтв, моди та розваг Decrypt.


Відкрийте SCENE

<br>

ArXiv, безкоштовний репозиторій, заснований в Університеті Корнела, який став основним центром для тисяч вчених та технологів у всьому світі для публікації ранніх дослідницьких праць, більше не прийматиме оглядові статті чи позиційні документи в своїй категорії Комп'ютерних наук, якщо вони вже не пройшли рецензування в журналі або на конференції.

Зміна політики, оголошена 31 жовтня, відбулася після “потоку” опублікованих досліджень на основі штучного інтелекту, які модератори описують як “лише анотовані бібліографії”. Зараз репозиторій отримує сотні таких подань щомісяця, в порівнянні з невеликою кількістю якісних оглядів, які історично писали старші дослідники.

“За останні кілька років arXiv заповнився статтями,” - пояснювалося в офіційній заяві на сайті. “Генеративний ШІ/великі мовні моделі додали до цього потоку, зробивши написання статей - особливо статей, які не представляють нових дослідницьких результатів - швидким і легким.”

Розділ комп'ютерних наук @arxiv тепер вимагає попереднього рецензування для літературних оглядів та позиційних документів. Деталі в новому блозі

— Томас Г. Дітеріх (@tdietterich) 31 жовтня 2025 року

<br>

“Ця рішення було викликане великим зростанням кількості статей з оглядами, що підтримуються LLM,” додав Томас Г. Діттеріх, модератор arXiv та колишній президент Асоціації сприяння штучному інтелекту, у X. “У нас немає ресурсів модераторів, щоб перевірити ці подання та виділити хороші огляди від поганих.”

Дослідження, опубліковане в Nature Human Behaviour, виявило, що майже чверть усіх абстрактів комп'ютерних наук демонстрували ознаки модифікації великими мовними моделями до вересня 2024 року. Окреме дослідження в Science Advances показало, що використання ШІ в наукових статтях, опублікованих у 2024 році, різко зросло з моменту запуску ChatGPT. Джерело: ArXiv

Волонтерські модератори ArXiv завжди фільтрували подання за науковою цінністю та тематичною релевантністю, але вони не проводять рецензування. Оглядові статті та позиційні папери ніколи офіційно не приймалися як типи контенту, хоча модератори робили винятки для робіт від визнаних дослідників або наукових товариств. Ця дискреційна система зламалася під вагою подань, згенерованих штучним інтелектом.

Платформа тепер обробляє обсяги подачі, які в кілька разів збільшилися в останні роки, оскільки генеративний ШІ спростив процес створення поверхневих опитувальних статей.

Відповідь дослідницької спільноти була змішаною. Стівен Каспер, дослідник з безпеки штучного інтелекту, висловив занепокоєння, що політика може непропорційно вплинути на молодих дослідників та тих, хто працює над етикою і темами управління.

“Огляди/позиційні документи непропорційно пишуть молоді люди, люди, які не мають доступу до великої обчислювальної потужності, та люди, які не працюють в установах з великим досвідом публікацій,” написав він у критиці.

Інші просто розкритикували позицію ArXiv як неправильну ( і навіть дурну ), при цьому інші навіть підтримали використання ШІ для виявлення статей, створених ШІ.

Томас, існує значний опір проти того, щоб arxiv став воротарем, схиляючись до рецензування, і ігноруючи проблему, поки вона не погіршиться. Чи розглядали ви які-небудь конструктивні пропозиції, зроблені спільнотою AI/ML?

  1. Мати немодеровану секцію ArXiv ( з…

— Джастін Енджел (@JustinAngel) 2 листопада 2025

<br>

Одна з проблем полягає в тому, що інструменти виявлення ШІ виявилися ненадійними, з високими показниками хибнопозитивних результатів, які можуть несправедливо відзначати легітимну роботу. З іншого боку, нещодавнє дослідження показало, що дослідники не змогли виявити третину медичних анотацій, створених ChatGPT, як написаних машиною. Американська асоціація досліджень раку повідомила, що менше 25% авторів розкрили використання ШІ, незважаючи на обов'язкові політики розкриття.

Нова вимога означає, що автори повинні подати документи про успішний рецензування колегами, включаючи посилання на журнали та DOI. Огляди з семінарів не відповідатимуть стандарту. ArXiv підкреслив, що зміна стосується лише категорії комп'ютерних наук на даний момент, хоча інші розділи можуть прийняти подібні політики, якщо вони зіштовхнуться з подібними сплесками подань, згенерованих ІІ.

Цей крок відображає ширше усвідомлення в академічному видавництві. Великі конференції, такі як CVPR 2025, впровадили політику відхилення статей від рецензентів, які були помічені за безвідповідальною поведінкою. Видавці стикаються з статтями, що містять очевидні ознаки штучного інтелекту, як, наприклад, та, що починалася словами: “Звичайно, ось можливе введення для вашої теми.”

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Популярні активності Gate FunДізнатися більше
  • Рин. кап.:$3.93KХолдери:2
    0.01%
  • Рин. кап.:$3.67KХолдери:1
    0.00%
  • Рин. кап.:$3.83KХолдери:1
    0.00%
  • Рин. кап.:$3.97KХолдери:2
    0.01%
  • Рин. кап.:$4.11KХолдери:3
    0.18%
  • Закріпити