В последнее время среди потребителей медиа-контента часто возникают вопросы о том, можно ли доверять популярным чат-ботам с искусственным интеллектом. Новый отчет компании NewsGuard, занимающейся мониторингом дезинформации, показывает, что лучшие чат-боты могут распространять ложную информацию, имея прямые ссылки на российскую государственную пропагандистскую сеть.
Исследование: популярные чат-боты распространяют кремлевскую пропаганду (3)
Аудит NewsGuard десяти ведущих чат-ботов, в том числе OpenAI ChatGPT, Google Gemini, xAI Grok, Anthropic Claude и поискового чат-бота Perplexity, показал, что эти инструменты ИИ часто повторяют ложные нарративы, исходящие от поддерживаемых российским государством дезинформационных сетей, которые выдают себя за надежные американские новостные порталы.
NewsGuard протестировала десять чат-ботов, оценив их осведомленность о 19 конкретных ложных нарративах, распространяемых сетью сайтов, связанных с Джоном Марком Дуганом, бывшим заместителем шерифа Флориды, ныне проживающим в Москве (в убежище). Как стало известно из недавнего репортажа New York Times, Дуган управляет огромной сетью сайтов фальшивых новостей, основанных в основном на искусственном интеллекте, с названиями, которые постоянно находятся на слуху - New York News Daily, The Houston Post и The Chicago Chronicle - где он публикует огромное количество контента, продвигающего ложные нарративы.
Фейковые новости Дугана, похоже, нашли свое отражение в популярных инструментах искусственного интеллекта. Аудит NewsGuard показал, что все десять протестированных чат-ботов «убедительно» повторяли «выдуманные нарративы» Дугана и его спонсируемой государством сети фейковых новостей, и, что более важно, это не были единичные случаи: при ответе на контрольные вопрсы в трети случае ИИ повторяли ложные нарративы, зачастую ссылаясь на сайты Дугана в качестве источников.
«Российские дезинформационные нарративы вторглись в мир генеративного искусственного интеллекта», - говорится в отчете, опубликованном во вторник.
Распространение дезинформации
По данным NewsGuard, неоднократные доказуемо ложные утверждения чат-ботов включали, например, теории заговора о предполагаемой коррупции президента Украины Владимира Зеленского и сфабрикованное убийство египетского журналиста, предположительно спланированное вдовой российского диссидента Алексея Навального.
NewsGuard протестировал в общей сложности 570 входных данных, задав каждому чат-боту 57 вопросов. В ходе тестирования чат-боты отвечали дезинформацией как тогда, когда исследователи и журналисты NewsGuard спрашивали о конкретной теории заговора, так и когда чат-бота просили написать статью о ложном пророссийском нарративе.
Наблюдательная группа не определила, какие чат-боты были лучше или хуже в обнаружении дезинформации. Подобные ошибки при сборе информации ИИ не являются обычными галлюцинациями ИИ (в искусственном интеллекте галлюцинация или искусственная галлюцинация (также иногда называемая бредом) - это уверенная реакция ИИ, которая, кажется, не подтверждается данными его обучения, или вымышленные ответы, не имеющие отношения к действительности - прим.), а результаты исследования NewsGuard свидетельствуют о новой тревожной роли ИИ в цикле дезинформации. Поэтому всем, кто использует чат-боты ИИ для получения новостей и информации, следует проявлять осторожность и пока отдавать предпочтение проверенным новостным сайтам.
«Что действительно тревожит, так это то, что ложь и пропаганда, повторяемые этими чат-ботами, не скрывались, а человек, стоящий за ними, хорошо известен», - сказал Axios содиректор NewsGuard Стивен Брилл.
«Пока что, - добавил Брилл, - не доверяйте ответам большинства этих чат-ботов по новостям и особенно по спорным вопросам».