ИИ скоро сможет проверять все опубликованные исследования — что это будет означать для доверия общественности к науке?

Самокоррекция — основополагающий принцип науки. Одной из важнейших её форм является рецензирование , когда анонимные эксперты тщательно изучают исследование перед его публикацией. Это помогает гарантировать точность письменных материалов. Однако проблемы всё же возникают. Целый ряд инициатив, как низовых, так и институциональных, направлен на выявление проблемных статей, укрепление процесса рецензирования и очистку научной базы путём отзыва статей или закрытия журналов. Однако эти усилия несовершенны и требуют значительных ресурсов.

Вскоре искусственный интеллект (ИИ) сможет вывести эти усилия на новый уровень. Что это может означать для доверия общества к науке?

Экспертная оценка не охватывает все

За последние десятилетия цифровая эпоха и диверсификация дисциплин привели к взрывному росту числа публикуемых научных статей, числа существующих журналов и влияния коммерческих издательств .

Это открыло двери для злоупотреблений. Конъюнктурные « бумажные фабрики » продают учёным, отчаянно нуждающимся в дипломах, быстрые публикации с минимальным рецензированием, в то время как издатели получают значительную прибыль за счёт огромных комиссий за обработку статей . Корпорации также воспользовались возможностью финансировать низкокачественные исследования и статьи, написанные неавторами, с целью исказить факты, повлиять на государственную политику и изменить общественное мнение в пользу своей продукции. Эти сохраняющиеся проблемы подчеркивают неэффективность рецензирования как главного гаранта научной достоверности. В ответ на это были предприняты усилия по укреплению добросовестности научной деятельности.

Retraction Watch активно отслеживает отозванные статьи и другие нарушения академической этики. Академические детективы и инициативы, такие как Data Collada, выявляют манипуляции с данными и цифрами.

Журналисты-расследователи разоблачают влияние корпораций. Новая область метанауки (наука о науке) пытается измерять научные процессы и выявлять предвзятость и недостатки. Не вся плохая наука имеет серьёзное влияние, но некоторые, безусловно, имеют. Она не ограничивается академическими кругами; она часто проникает в общественное сознание и политику.

В недавнем расследовании мы изучили широко цитируемый обзор безопасности гербицида глифосата, который, казалось, был независимым и всеобъемлющим. На самом деле, документы, представленные в ходе судебного разбирательства против Monsanto,  показали, что статья была написана сотрудниками Monsanto и опубликована в журнале, связанном с табачной промышленностью. Даже после того, как это было раскрыто, статья продолжала формировать цитаты, политические документы и страницы в Википедии по всему миру.

Когда подобные проблемы обнаруживаются, они могут стать предметом публичных дискуссий, где они не обязательно воспринимаются как торжествующие акты самоисправления . Скорее, они могут быть восприняты как доказательство того, что в науке что-то не так. Этот нарратив о « науке неисправимой » подрывает общественное доверие .

Нейронная сеть вырастает из башни из слоновой кости, над головами толпы. Некоторые из них тянутся вверх, чтобы попытаться взять ситуацию под контроль и натянуть сеть на себя. Акварельная иллюстрация.
Учёные знают, что многие научные работы не имеют существенного значения, но общественность может интерпретировать это по-разному. Джамилла Ноулз и Мы и ИИ , CC BY-SA

ИИ уже помогает контролировать литературу

До недавнего времени технологическая помощь в самостоятельной коррекции ограничивалась в основном детекторами плагиата. Но ситуация меняется. Сервисы машинного обучения, такие как ImageTwin и Proofig, теперь сканируют миллионы рисунков на предмет дублирования, манипуляций и генерации ИИ.

Инструменты обработки естественного языка распознают « искажённые фразы » — характерную для бумажных фабрик словесную смесь. Библиометрические панели, такие как панель Semantic Scholar, отслеживают, цитируются ли статьи в поддержку или в противоречие. Искусственный интеллект (особенно агентные, способные к рассуждениям модели, которые все лучше разбираются в математике и логике) вскоре выявит более тонкие недостатки.

Например, проект «Чёрная лопатка» исследует способность новейших моделей ИИ проверять опубликованные математические доказательства в больших масштабах, автоматически выявляя алгебраические несоответствия, которые не могли заметить рецензенты-люди. Наша собственная работа, упомянутая выше, также в значительной степени опирается на большие языковые модели для обработки больших объёмов текста. При наличии доступа к полным текстам и достаточной вычислительной мощности эти системы вскоре смогут обеспечить глобальный аудит научных записей. Комплексный аудит, вероятно, выявит как откровенное мошенничество, так и гораздо большее количество рутинной, ручной работы с незначительными ошибками.

Мы пока не знаем, насколько распространено мошенничество, но нам известно, что огромное количество научных работ не имеет никакого значения. Учёные это знают; часто обсуждается, что многие опубликованные работы вообще не цитируются или цитируются крайне редко . Для посторонних это открытие может оказаться столь же шокирующим, как и раскрытие мошенничества, поскольку оно противоречит образу драматичного, героического научного открытия, который наполняет университетские пресс-релизы и отраслевые издания.

Дополнительный вес этому аудиту может придать его автор — искусственный интеллект, который может рассматриваться (и может на самом деле быть) как беспристрастный и компетентный, а следовательно, надежный.

В результате эти результаты будут уязвимы для использования в кампаниях по дезинформации, особенно с учетом того, что ИИ уже используется в этих целях .

Переосмысление научного идеала

Для сохранения общественного доверия необходимо переосмыслить роль учёного, сделав её более прозрачной и реалистичной. Значительная часть современных исследований — это постепенная, карьерная работа, основанная на образовании, наставничестве и взаимодействии с общественностью. Если мы хотим быть честными с собой и с общественностью, мы должны отказаться от стимулов, которые заставляют университеты, научные издательства и самих учёных преувеличивать значимость своих работ . По-настоящему новаторские работы встречаются редко. Но это не делает всю остальную научную работу бесполезной. Более скромное и честное изображение ученого как участника коллективного, развивающегося понимания будет более устойчивым к проверке со стороны искусственного интеллекта, чем миф о науке как о параде индивидуальных прорывов.

На горизонте маячит масштабная междисциплинарная проверка. Её может провести государственный надзорный орган, аналитический центр, антинаучная группа или корпорация, стремящаяся подорвать общественное доверие к науке.

Учёные уже предвидят, что он откроет. Если научное сообщество подготовится к результатам – или, что ещё лучше, возьмёт на себя инициативу – аудит может вдохновить на дисциплинированное обновление. Но если мы задержимся, выявленные им трещины могут быть ошибочно истолкованы как разломы в самой научной сфере. Сила науки никогда не основывалась на непогрешимости. Её авторитетность кроется в готовности исправлять и исправлять ошибки. Теперь мы должны продемонстрировать эту готовность публично, прежде чем доверие будет подорвано.

источник: https://theconversation.com/ai-will-soon-be-able-to-audit-all-published-research-what-will-that-mean-for-public-trust-in-science-261363?ref=refind