RIA призывает повысить внимание к связанной с искусственным интеллектом кибербезопасности

Copy
Искусственный интеллект. Фото иллюстративное.
Искусственный интеллект. Фото иллюстративное. Фото: PATRICK T. FALLON

В связи со все более широким распространением систем искусственного интеллекта Департамент государственных информационных систем (RIA) считает, что необходимо уделять особое внимание связанной с ИИ кибербезопасности.

Для поддержки планов развития эстонских компаний и учреждений департамент RIA и компания Cybernetica AS представили анализ рисков технологии ИИ и возможностей снижения этих рисков. Ознакомиться с этим анализам стоит всем, кто намерен внедрить ИИ.

«Использование ИИ - это не просто просить у чат-бота совета о том, как писать код или создавать милые видеоролики о щенках. Компании по всему миру изучают способы применения решений искусственного интеллекта и машинного обучения в промышленности и цифровых разработках, чтобы сделать производство и услуги более персонализированными и быстрыми», - указал руководитель отдела исследований и разработок Центра кибербезопасности RIA Лаури Танклер.

«Наш интерес в RIA заключается в том, чтобы внедрение новых технологий не влекло за собой ненужных рисков для данных, денег или, того хуже, жизни и здоровья людей», - добавил он.

Анализ Cybernetica AS описывает текущее состояние и модели распространения систем искусственного интеллекта, а также сопутствующие киберриски и меры по их снижению. Помимо прочего, он также предоставляет компаниям обзор правового пространства в области искусственного интеллекта в 2024 году, включая инициативы и предложения Европейского союза.

«Безопасность систем искусственного интеллекта означает, с одной стороны, технические меры - например, чтобы посторонний человек или конкурирующая компания не получили доступ к данным - но также и то, что разработчик думает о социальных эффектах, таких как предотвращение дискриминации или экологический след вычислительной мощности ИИ», - пояснил один из авторов исследования, научный сотрудник, член Академии наук, директор Института информационной безопасности Cybernetica AS Дэн Богданов.

Он также добавил, что исследования и разработка политики должны стремиться к тому, чтобы использование систем искусственного интеллекта способствовало общему благополучию, инклюзивности и устойчивому развитию общества.

Одна часть анализа представляет собой краткое руководство для внедряющего систему искусственного интеллекта, которое поможет компаниям продумать, на каком этапе системы им следует задуматься о том или ином риске.

«Каждой компании нет необходимости самостоятельно заказывать такой анализ, чтобы сохранить в безопасности данные своих клиентов или свою коммерческую тайну, - пояснил Лаури Танклер. - Если мы сможем с помощью RIA предложить эстонским предпринимателям рекомендации и инструкции на их родном языке, которые помогут обеспечить кибербезопасность в обществе, то мы с радостью будем способствовать таким центральным решениям».

Полный анализ доступен на сайте RIA. Исследование финансировалось совместно Европейским Союзом и Европейским центром киберкомпетентности.

Наверх