Разкритията повдигат сериозни етични въпроси за доверието и бъдещето на научното оценяване
В света на изкуствения интелект (ИИ), където новаторските изследвания могат да променят цели отрасли от икономиката и множество работни места до неузнаваемост, наскоро се разви шумен скандал. Той се случи по време на ICLR 2026 - много важна международна конференция, която се провежда всяка година. На нея се представят едни от най-новите проучвания в областта на мислещите машини.
Оказва се, че всяка пета научна рецензия на подадените материали е била генерирана с помощта на ИИ. Говорим за цели 21% от прегледите на научните разработки, които не са били направени от реални проверяващи, а от чатботове и други “умни” инструменти. Това разкритие, подробно описано в научното издание Nature, предизвика шок в академичната общност и повдигна дълбоки въпроси относно доверието, интегритета и бъдещето на научната оценка.
Инцидентът се разрази през ноември, когато редица изследователи, сред които и ученият Греъм Нойбиг от американския университет “Карнеги Мелън”, заподозряха нещо нередно в отзивите за подадените от тях статии и проекти.
“Подозирам, че рецензията на моята статия е написана от изкуствен интелект. Ще предложа награда на всеки, който анализира всички рецензии на материали, участващи в ICLR, за да се види дали те са писани от реални хора, или машини”, заяви той.
Според Нойбиг рецензиите
звучели прекалено общо и били изпълнени с повтарящи се фрази и неестествено звучащи изрази
Въобще всичко това, което подсказва, че някъде има намеса на алгоритъм. В отговор на молбата на учения представители на компанията Pangram Labs, която специализира в откриването на текстове, създадени с ИИ, решили да прегледат всички материали и техните рецензии, подадени до ICLR. Така през ръцете им преминали 19 490 статии и 75 800 рецензии. Накрая те стигнали до заключението, че 21% от рецензиите са били изцяло създадени с изкуствен интелект. Други 61% пък показали признаци на съвместна работа между човек и ИИ, докато приблизително 9% са били частично написани с помощта на ИИ.
“Рецензиите, генерирани от изкуствен интелект, са склонни да дават по-високи оценки, вероятно защото той има склонност да ласкае своите потребители”, обяснява един от анализаторите в Pangram Labs - ученият Брадли Еми.
Броят на подобни случаи се увеличава. По-ранни проучвания, показват, че до 17% от рецензиите на водещи конференции за изкуствен интелект през 2023-2024 г. са били написани с помощта на мислещите машини. Но случаят с ICLR e
повратна точка, при която изцяло написани от ИИ материали остават незабелязани
и потенциално могат да повлияят върху решенията кои статии да бъдат приети и кои да бъдат отхвърлени от академичната общност.
Организаторите на ICLR също се заели да прегледат качеството и автентичността на подадените до конференцията проекти и рецензии. За целта използвали сложни детектори, които са обучени да откриват характерни белези като прекалено формален език или статистически аномалии в текстовете. Източници, запознати с процеса, отбелязват, че организаторите стигнали до заключението, че скандалът се е случил, защото рецензентите може да са били прекалено натоварени. Те били използвали инструменти като ChatGPT или други мислещи машини, за да спестяват време и по-бързо да преодоляват задачите си.
Това не е изолиран случай. Документ с позиция на специалисти от университета “Корнел” подчертава увеличаващия се обем на подаваните материали за участие в други големи конференции като NeurIPS и ICML. В него се твърди, че до края на 2025 г. трябва поне 10 хил. научни труда да преминат през преглед и обратно мнение. Рецензентите, които често просто са претоварени академици, са подложени на натиск да оценяват десетки подадени статии с различен обем, докато в същото време са и преподаватели, които трябва да обръщат внимание на собствените си студенти и докторанти. Това напрежение може да накара някои от тях да се насочат към ИИ, за да могат да се справят със задачите си.
Множество публикации в Екс потвърждават този възглед. В тях изследователи в областта на ИИ, споделят своето недоволство от големия брой статии, които трябва да оценят, което показва, че използването на чатботове и алгоритми за подпомагане на работата им е станало нещо нормално в някои среди.
Тук обаче възниква един голям етичен въпрос, тъй като рецензирането в академичната среда се основава на човешката експертиза и преценка, а ИИ може сериозно да повлияе на обективността на този процес. Така например по-рано тази година един потребител отново в Екс възторжено заяви, че негова рецензия, създадена с помощта на ИИ, е била приета от организаторите на научната конференция ACL 2025. Той описа това като страхотен напредък в мислещите технологии, но други потребители отбелязаха в коментарите под публикацията му, че
случилото се подкопава достоверността на прегледания от него академичен труд
След скандала с генерираните от ИИ рецензии организаторите на ICLR планират да въведат по-строги правила за оценяване. Сред тях са задължението да се подписват декларации, ако при създаването на текстовете е използвана мислеща машина и приемането на подобрени процеси за проверка на достоверността на материалите.
“Рецензентите носят отговорност за публикуваното от тях съдържание. Следователно, ако използват ИИ, те ще са виновни за всички проблеми в публикуваните от тях рецензии. Текстове с много лошо качество, които съдържат неверни твърдения, неточности или измислени препратки, също представляват нарушение на етичния ни кодекс. Рецензентите, които си позволяват да предават оценки, които са били изцяло направени от ИИ, ще бъдат санкционирани с отхвърляне на подадения от тях текст”, се казва в изявление от ръководството на конференцията.