Эксперты не считают, что ИИ готов стать «соавтором учёных»

В прошлом месяце Google анонсировала «AI co-scientist», который, по словам компании, был разработан, чтобы помогать учёным в создании гипотез и планов исследований. Google представил его как способ получения новых знаний, но эксперты считают, что он — и подобные ему инструменты — не оправдывают ожиданий.

«Этот предварительный инструмент, хотя и интересный, скорее всего не будет использоваться серьезно», — сказала Сара Бири, исследователь в области компьютерного зрения в MIT, в интервью TechCrunch.

Google — последний технологический гигант, продвигающий идею о том, что ИИ когда-нибудь значительно ускорит научные исследования, особенно в таких насыщенных литературой областях, как биомедицина. В эссе, опубликованном в начале этого года, генеральный директор OpenAI Сэм Альтман сказал, что «сверхразумные» инструменты ИИ могут «значительно ускорить научные открытия и инновации». Аналогичным образом, генеральный директор Anthropic Дарио Амодей смело предсказал, что ИИ может помочь в разработке лекарств от большинства видов рака.

Но многие исследователи сегодня не считают ИИ особенно полезным для руководства научным процессом. Такие приложения, как Google AI co-scientist, по их словам, являются скорее рекламой, чем что-то еще, не подкрепленным эмпирическими данными.

Например, в своём блоге Google заявил, что этот инструмент уже продемонстрировал потенциал в таких областях, как перепрофилирование лекарств для лечения острого миелоидного лейкоза — разновидности рака крови, поражающего костный мозг. Однако результаты настолько расплывчаты, что «ни один серьёзный учёный не воспринял бы их всерьёз», — сказала Фавия Дубик, патологоанатом из Северо-Западного медицинского центра в Тусоне, штат Аризона.

Это не первый случай, когда научное сообщество критикует Google за то, что компания объявила о предполагаемом прорыве в области ИИ, не предоставив возможности воспроизвести результаты.

В 2020 году Google заявил, что одна из систем искусственного интеллекта, обученная обнаруживать опухоли молочной железы, добилась лучших результатов, чем люди-рентгенологи. Исследователи из Гарварда и Стэнфорда опубликовали опровержение в журнале Nature, заявив, что отсутствие подробных методов и кода в исследованиях Google «подрывает их научную ценность».

Ученые также раскритиковали Google за то, что компания замалчивает ограничения своих инструментов ИИ, предназначенных для научных дисциплин, таких как материаловедение. В 2023 году компания заявила, что около 40 «новых материалов» были синтезированы с помощью одной из ее систем ИИ под названием GNoME. Однако независимый анализ показал, что ни один из этих материалов не является абсолютно новым.

«Мы не сможем по-настоящему понять сильные и слабые стороны таких инструментов, как «AI co-scientist» от Google, пока они не пройдут тщательную независимую оценку в различных научных дисциплинах, — сказал Ашик Кудабухш, доцент кафедры разработки программного обеспечения в Рочестерском технологическом институте. — ИИ часто хорошо работает в контролируемых средах, но может потерпеть неудачу при масштабном применении».

Одна из проблем, связанных с разработкой инструментов ИИ для научных исследований, заключается в том, чтобы предвидеть бесчисленное множество искажающих факторов. ИИ может пригодиться в областях, где требуется обширное исследование, например, для сужения огромного списка возможных вариантов. Но неясно, способен ли ИИ на нестандартное решение проблем, которое приводит к научным прорывам.

«На протяжении всей истории мы видели, что некоторые из самых важных научных достижений, такие как разработка мРНК-вакцин, были обусловлены человеческой интуицией и упорством перед лицом скептицизма, — сказал Худабухш. — ИИ в его нынешнем виде, возможно, не сможет повторить это».

Лана Синапайен, исследователь ИИ в Лабораториях компьютерных наук Sony в Японии, считает, что такие инструменты, как «AI co-scientist» от Google, ориентированы на неверное направление научной деятельности.

«Для многих учёных, в том числе и для меня, генерация гипотез — самая интересная часть работы, — сказал Синапайен в интервью TechCrunch. — Зачем мне отдавать своё любимое занятие на аутсорсинг компьютеру, чтобы самому заниматься только тяжёлой работой? В целом, многие исследователи генеративного ИИ, похоже, не понимают, почему люди делают то, что делают, и в итоге мы получаем предложения по продуктам, которые автоматизируют именно ту часть работы, которая приносит нам радость».

Технические недостатки и риски, связанные с ИИ, такие как его склонность к галлюцинациям, также заставляют учёных с осторожностью относиться к его использованию в серьёзной работе.

Худабухш опасается, что инструменты ИИ могут просто создавать шум в научной литературе, а не способствовать прогрессу.

Это уже становится проблемой. Недавно проведённое исследование выявило, что в Google Scholar, бесплатном поисковике научной литературы от Google, появилось большое количество «научной ерунды», созданной с помощью искусственного интеллекта.

Даже хорошо спланированные исследования могут быть испорчены некорректной работой ИИ, сказала Синапайен. Хотя ей нравится идея инструмента, который мог бы помочь в обзоре и синтезе литературы, Синапайен отметила, что сегодня она не стала бы доверять ИИ в выполнении этой работы.

«Это то, что, по заявлениям разработчиков, могут делать различные существующие инструменты, но я бы не стала доверять этим задачам нынешнему ИИ», — сказала Синапайен, добавив, что она не согласна с тем, как многие системы ИИ обучаются, а также с количеством энергии, которое они потребляют. «Даже если бы все этические проблемы […] были решены, нынешний ИИ недостаточно надёжен, чтобы я могла так или иначе полагаться на его результаты в своей работе».

Источник

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии