Cообщи

Банк предупреждает: не делитесь с ИИ слишком большим количеством личной информации

Copy
Искусственный интеллект.
Искусственный интеллект. Фото: Kirill Kudryavtsev

Не делитесь с искусственным интеллектом слишком большим количеством личной информации, призывают эксперты по кибербезопасности.

Как сообщила в четверг пресс-служба банка Citadele, Искусственный интеллект (ИИ), например популярный ChatGPT, предлагает пользователям множество возможностей, позволяя быстро искать информацию, анализировать и систематизировать большие объемы данных. Однако, хотя ИИ используют очень активно, в тени остается тема кибербезопасности.

«Многим ИИ помогает быстрее выполнять рабочие задачи или просто эффективнее искать информацию. В то же время ИИ является большим подспорьем для киберпреступников, которые могут использовать его для перевода фальшивых писем, создания сайтов, сбора информации о жертвах и кражи личных данных. Однако редко обсуждается тот факт, что люди сами бывают склонны передавать ИИ слишком много личных данных», - отметил руководитель отдела по борьбе с отмыванием денег банка Citadele Виктор Ткаченко. По мере развития технологий становится очень сложно контролировать, куда и к кому в итоге попадает наша информация.

Он пояснил, что многие ИИ-системы разработаны для обработки огромного объема данных, чтобы иметь возможность предлагать пользователю наилучшие ответы. Для того чтобы ИИ понял, о чем именно его спрашивают, он также может собирать и анализировать представленную пользователями информацию.

«Даже если некоторые модели ИИ, такие как ChatGPT, работают на защищенных серверах OpenAI, пользователю не всегда понятно, где именно хранятся данные и как долго они там будут находиться. Возможно, данные хранятся в облаке, откуда со временем могут стать доступными злоумышленникам благодаря новым технологиям, программам или утечкам», - добавил Ткаченко.

На данный момент оценка рисков использования ИИ затруднена, поскольку это крайне быстро развивающаяся и меняющаяся сфера, однако в будущем, по мере развития технологий, может стать проще получать и анализировать данные для различных целей.

Это означает, что информация, которой мы делимся сегодня, через несколько лет может оказаться ценным источником данных, который, попав в чужие руки, может быть использован, например, с целью кражи личности. Данные, которые мы сегодня передаем ИИ, могут быть слишком личными с точки зрения кибербезопасности и в какой-то момент стать опасными.

«На самом деле при использовании ИИ действуют те же правила, что и при обычном поведении и общении в интернете», - сказал Ткаченко.

Виктор Ткаченко дает ряд рекомендаций по обеспечению кибербезопасности при общении с ИИ :

  • избегайте передачи личной информации, не указывайте личные коды, полные имена, адреса, номера телефонов, финансовые и другие конфиденциальные данные;
  • задавайте вопросы в обобщенной форме, используйте более общие вопросы, не требующие для ответа точной информации о вашей личности - например, спрашивайте у ИИ о финансовых или туристических рекомендациях в общем, а не о собственных банковских данных или советах по управлению финансами;
  • предпочитайте анонимность, убедитесь, что используемые ИИ-системы не связаны с другими личными аккаунтами, где могут собираться и храниться ваши личные данные, а дополнительную безопасность может обеспечить создание отдельного электронного адреса - исключительно для регистрации в ИИ-системах;
  • ознакомьтесь со своими правами и политиками конкретной ИИ-платформы. Чтобы избежать неприятных сюрпризов в будущем важно знать свои права в том, что касается удаления и передачи данных.

«Используйте только официальные системы. Мошенники пользуются популярностью ИИ, создавая собственные чат-боты, чтобы получить личные данные людей. Обращайтесь за советом только к тем системам и чат-ботам, в надежности владельцев и разработчиков которых вы уверены»,- советует эксперт.

Наверх