Бот-ученый: искусственный интеллект уже пишет научные статьи
Нейросети все чаще становятся соавторами работ, в том числе по медицине. Научное сообщество пытается понять, как на это реагировать.
«ChatGPT подготовил большую часть статьи в ответ на запрос Алекса Жаворонкова, у которого было сильное желание сделать публикацию на эту тему», – признается в разделе «Вклад авторов» сам Жаворонков, глава гонконгской фармкомпании Insilico Medicine. Его работа в издании Oncoscience посвящена философскому обоснованию приема иммунодепресанта «Рапамицина». Чат-бот честно указан соавтором. И случай это не уникальный. В недавнем материале в журнале Nature таких статей с участием искусственного интеллекта насчитали уже четыре.
Чтобы разобраться в каждом из этих случаев, сотрудники журнала связались с изданиями, опубликовавшими тексты за авторством чат-бота. Только в одном из них признались, что проглядели странного автора и сейчас все исправят. Остальные журналы так или иначе творение искусственного интеллекта приняли. Потом Nature обратился к редакторам ведущих научных изданий. Все они в один голос заявили, что чат-бот не может считаться соавтором.
Параллельно оказалось, что творения ChatGPT трудно отличить от работ настоящих ученых. Исследователи из Чикаго попросили алгоритм подготовить аннотации для 50 медицинских статей из ведущих журналов. Только 8% из них при внимательном рассмотрении соответствовали критериям научного издания. Зато выглядели они так убедительно, что запутали живых рецензентов. Те сумели выловить только 68% аннотаций, написанных ботом, а остальные 32% приняли все за чистую монету. При этом 14% нормальных настоящих аннотаций ошибочно приписали компьютеру.
«ChatGPT пишет правдоподобные научные рефераты, – отмечают авторы эксперимента. – Границы этичного и приемлемого использования больших языковых моделей для содействия научному письму еще предстоит определить».
Об этом чат-боте НЭП уже писал ранее. Революционная нейросеть, созданная и обученная на суперкомпьютере Azure AI, умеет общаться с пользователями в максимально человечной манере. ChatGPT способен написать художественный текст, эссе, сценарий – или даже речь управляющего Банком Израиля Амира Ярона, в чем профессор Ярон признался во время одного из недавних выступлений.
Копания-разработчик бота OpenAI стремительно дорожает – ее оценивают уже в 29 миллиардов долларов. А научное сообщество сталкивается с трудноразрешимой задачей. Пишет бот гладко и красиво, но много раз попадался на искажении фактов.
«Что еще более тревожит, ChatGPT может быть способен преднамеренно лгать. Конечно, ChatGPT не обладает разумом и не «знает», что лжет, но его программа позволяет ему фабриковать «факты», – отмечают руководители Всемирной ассоциации медицинских издателей. – Само то, что искусственный интеллект способен генерировать ошибочные идеи, делает его ненаучным и ненадежным и, следовательно, должно беспокоить редакторов».
Для редакторов профильных медицинских журналов ассоциация подготовила набор рекомендаций, без которых в новых условиях не обойтись. Во-первых, сами чат-боты не могут считаться авторами работ. Во-вторых, если при написании использовался чат-бот, авторы должны честно в этом признаться, перепроверить за алгоритмом все факты и нести за них полную ответственность. Наконец, редакторам предписывается тщательно проверять статьи на наличие созданного искусственным интеллектом контента. Для это следует использовать специальные программы-детекторы, умеющие выявлять сгенерированный текст лучше, чем это делают люди.
Никита Аронов, НЭП. Фото: Depositphotos.com √
Будьте всегда в курсе главных событий:
Подписывайтесь на ТГ-канал "Детали: Новости Израиля"