Исследователи аналитической компании NewsGuard зафиксировали значительный рост случаев представления ложных утверждений чат-ботами на основе искусственного интеллекта. Об этом сообщает Forbes.
Как передаёт Baki-baku.az со ссылкой на зарубежные СМИ, анализ охватил 10 ведущих генеративных моделей. В их числе: ChatGPT-5 (OpenAI), Smart Assistant (You.com), Grok (xAI), Pi (Inflection), le Chat (Mistral), Copilot (Microsoft), Meta AI, Claude (Anthropic), Gemini (Google) и поисковая система Perplexity.
Испытания проводились по спорным новостным темам, где ранее уже были выявлены заведомо ложные утверждения. В среднем чат-боты воспроизводили подобные фейковые данные в 35% ответов, что примерно вдвое больше по сравнению с прошлым годом (18%).
Худший результат показал Inflection Pi — 57% ошибок.
Perplexity занял второе место по неточности — 47%.
Meta AI и ChatGPT допустили ошибки в 40% случаев.
Самым точным оказался Claude, который ошибался лишь в 10% ответов.
По словам редактора NewsGuard по вопросам ИИ и внешнего влияния Маккензи Садеги, рост связан с изменениями в методах обучения моделей. Если раньше они отказывались отвечать на некоторые запросы или ссылались на ограничения в данных, то теперь используют результаты поиска в режиме реального времени. Это повышает риски, так как поисковая выдача может быть преднамеренно наполнена дезинформацией.
В новом отчёте впервые были публично названы конкретные чат-боты. В NewsGuard заявили, что сделали это для того, чтобы проинформировать политиков, журналистов и общественность о высоком уровне недостоверности в популярных инструментах искусственного интеллекта.