:format(webp)/nginx/o/2025/05/08/16827742t1hdf88.jpg)
Чат-боты на основе ИИ становятся все более популярным и удобным инструментом для получения информации, однако их массовое использование несет серьезные риски. Юлия Дукач пишет о том, как этой ситуацией пользуются государства, заинтересованные в контроле над интерпретацией фактов.
Данный материал подготовлен в сотрудничестве Института Шютте Тартуского университета и портала Rus.Postimees.
Чат-боты на основе искусственного интеллекта (ИИ) не только упрощают нашу повседневную работу, но и постепенно меняют саму суть того, как мы ищем и воспринимаем информацию. А вместе с этим - и формируют новые, порой совсем неочевидные риски. Во-первых, потому что чат-боты ошибаются. Во-вторых - потому что их намеренно заставляют ошибаться. И особенно активны в этом те, кто больше всех заинтересован в контроле над интерпретацией фактов. Например, Россия.
Согласно данным Deloitte Ukraine, 36% украинцев активно используют чат-боты в быту. И я - среди них. Помощь с кодом языка программирования Python, задачи перевода, идеи для заголовков текстов или рабочих проектов - вот неполный список того, с чем я почти каждый день обращаюсь к решениям на основе ИИ.
Вместе с влиянием на рабочий процесс, изменяется и наш подход к поиску информации. И сегодня, после трех лет активного развития языковых моделей, мы все чаще отказываемся «гуглить» и вместо самостоятельного поиска ответа среди множества ссылок и сайтов из выдачи поисковой системы, переходим к более удобному формату - получая готовый адаптированный под нас ответ. А при желании - еще и с индивидуальной подачей: от делового до саркастичного тона.
Пока мировой рынок чат-ботов стабильно растет (по прогнозам, в 2027 году он превысит 454 млн долларов), маркетологи всего мира лихорадочно ищут ответ на вопрос How to get your brand mentioned in ChatGPT answers?, а у медиа, похоже, появился еще один вызов. А точнее, несколько.
Черный ящик «в квадрате»
Во-первых, алгоритмы ИИ - это черный ящик «в квадрате». В отличие от традиционного SEO (search engine optimisation, поисковая оптимизация), здесь почти невозможно повлиять на то, как именно контент будет использован. Более того, если в случае с поисковыми системами у медиа есть шанс привлечь трафик на сайт (а значит, показать рекламу и частично окупить зарплаты независимых журналистов), то с чат-ботами все сложнее. Даже если они добавляют ссылки на источники, аудитория туда почти не переходит.
Исследование TollBit это подтверждает: ИИ-инструменты приносят новостным сайтам и блогам на 96% меньше трафика, чем классический поиск Google. При этом и сам Google активно двигается в сторону «ответов без перехода» - вспомните, когда вы в последний раз заходили на IMDb, чтобы узнать рейтинг фильма или сериала?
Сами журналисты тоже пытаются влиять на среду. Например, создают списки аккредитованных медиа, которые придерживаются стандартов качества. Один из таких примеров - The Journalism Trust Initiative (JTI) от Reporters Without Borders. Создав список надежных медиа, которым можно доверять, они, в том числе, хотят помочь с его помощью ИИ лучше оценивать источники и опираться преимущественно на достоверный контент. Но насколько реалистично ожидать от ИИ чат-ботов надежности или точности?
И тут - вторая проблема. Даже при наличии надежных источников, большие языковые модели часто ошибаются.
Центр цифровой журналистики Columbia Journalism Review совместно с Tow Center for Digital Journalism протестировали восемь популярных ИИ-моделей. Задание - по цитате из медиа определить ее первоисточник. Результат: более 60% ответов были неверными. Платные версии справлялись лучше, но даже они часто путались.
Похожий эксперимент провела BBC (British Broadcasting Corporation) в декабре: месяц чат-ботам был открыт доступ к их материалам, а затем боты должны были ответить на 100 вопросов, по возможности используя BBC как источник. И, согласно оценке аналитиков BBC, 51% ответов чат-ботов имели «существенные проблемы», а в 91% случаев присутствовали хотя бы какие-то искажения.
Переписывание истории
А теперь вспомним, что в мире есть страны и политические силы, которые мотивированы переписывать историю и реальность в свою пользу. Продвигая, например, «референдум» вместо аннексии Крыма, «постановку» вместо военных преступлений в Буче, и НАТО как «виновника» вторжения России в Украину.
С целью распространения российской пропаганды Кремль регулярно создает сеть из сотни псевдоновостных сайтов. Эти сайты с «правильной» версией мира попадают в обучающие выборки ИИ. В итоге - чат-бот, ссылаясь на якобы нейтральные источники, продвигает их интерпретацию событий.
Характерный пример - Pravda network. Более сотни сайтов с похожими доменами, которые на разных языках транслируют пророссийскую повестку. Их контент активно индексируется и легко подхватывается ботами.
Тактика даже получила свое название - LLM grooming. Термин, который использовали аналитики из American Sunlight Project, одними из первых обратив внимание: задача Pravda network не только достичь аудитории напрямую через репосты в соцсетях, но и заразить ИИ, который с помощью автоматизированных ботов активно собирает тексты с российских доменов.
Инфицированность чат-ботов
И, судя по всему, наибольшие чат-боты уже инфицированы. По данным NewsGuard, 10 популярных генеративных ИИ-инструментов повторяли ложные утверждения, продвигаемые сетью Pravda, в 33% случаев. Из 450 ответов, сгенерированных чат-ботами, 56 содержали прямые ссылки на материалы с дезинформацией, опубликованные сайтами из сети Pravda.
Суммируя: чат-боты на основе ИИ становятся все более популярным и удобным инструментом для получения информации, однако их массовое использование несёт серьезные риски: от случайных ошибок до намеренной дезинформации, особенно со стороны авторитарных режимов, таких как Россия. ИИ-модели часто не могут точно определить источники информации и склонны воспроизводить ложные или искаженные данные, включая пропаганду, если она попадает в их обучающие выборки.
При этом традиционные СМИ теряют трафик и контроль над распространением своего контента, а попытки создать механизмы доверия пока не дают стабильных результатов. Чтобы противостоять этим рискам, необходимо развивать инициативы по аккредитации надежных источников, повышать прозрачность обучения ИИ и внедрять более строгие фильтры качества данных, а также усиливать осведомленность и бдительность нас как пользователей.