:format(webp)/nginx/o/2024/07/12/16217689t1h9f27.jpg)
Искусственный интеллект (ИИ) стремительно трансформирует мир - от медицинских прорывов и умных городов до персонализированного образования и климатических решений. Однако, пишет аналитик Олена Денисенко, как стремительно эти технологии развиваются, так же растут и риски, которые они несут.
Данный материал подготовлен в сотрудничестве Института Шютте Тартуского университета и Rus.Postimees.
Без четких и исполнимых правил ИИ может так же легко углубить неравенство, подорвать конфиденциальность и нарушить основные права. По мере того, как ИИ становится все более интегрированным в повседневную жизнь, правительства сталкиваются с трудной задачей: как эффективно регулировать его, не подавляя инновации, которые он обещает.
AI Act: первый в мире закон об ИИ
На фоне бурного развития технологий правительства по всему миру пытаются найти баланс между инновациями и защитой общественных интересов. Европейский союз решил сделать этот баланс юридической реальностью, приняв первый в мире комплексный нормативно-правовой акт, регулирующий сферу искусственного интеллекта, - Закон ЕС об ИИ (AI Act).
Его цель - разработать общий подход к регулированию ИИ на основе уровня риска, который несут различные технологии и сценарии их применения.
Согласно структуре Закона, ИИ-системы делятся на четыре категории риска: минимальный, ограниченный, высокий и неприемлемый. Системы, попадающие в последнюю категорию, такие как эксплуатационные или манипулятивные ИИ, системы социального рейтинга и некоторые виды биометрической идентификации, запрещены. Остальные подлежат различным уровням регулирования: от требований прозрачности до обязательной сертификации и постоянного мониторинга.
Особое внимание в AI Act уделяется так называемым высокорисковым ИИ-системам, применяемым, например, в сфере здравоохранения, образования, занятости, миграции и правосудия.
Именно в этих сферах автоматизированные решения могут прямо влиять на судьбы людей: от возможности получить работу до доступа к социальной поддержке. Такие системы должны будут проходить предварительную оценку соответствия, обеспечивать прозрачность и объяснимость алгоритмов, учитывать права человека и быть зарегистрированы в едином реестре ЕС.
AI Act официально вступил в силу 1 августа 2024 года. Однако его положения будут внедряться поэтапно. Уже с февраля 2025 года начали действовать запреты на неприемлемые ИИ-системы. Требования к генеративным моделям, таким как ChatGPT, начнут применяться с августа 2025 года.
Некоторые положения, связанные с сертификацией и государственным надзором, продлеваются до 2027 года. Такой поэтапный подход дает бизнесу и государствам-членам время для адаптации и подготовки инфраструктуры.
Не менее важным направлением регулирования стал генеративный ИИ (Generative AI) - модели, способные создавать текст, изображения, звук и видео, к примеру ChatGPT, Gemini, DALL-E и другие. Закон устанавливает особые обязательства для таких систем: прозрачность в отношении использования обучающих данных, раскрытие информации об использовании авторских материалов, маркировка сгенерированного контента и внедрение технических мер против распространения дезинформации.
В случае более продвинутых моделей, обладающих так называемым «системным риском» из-за масштабов и влияния, требования еще строже: обязательства по оценке воздействия, кибербезопасности, аудиту и регистрационному контролю.
Основная часть обязательств ложится на поставщиков (разработчиков) высокорисковых систем ИИ, независимо от того, находятся ли они в ЕС или за его пределами, при условии, что их системы используются в ЕС. Таким образом, Закон ЕС об ИИ фактически имеет экстерриториальное действие: он влияет на правила игры не только внутри Европейского союза, но и за его пределами.
Это означает, что множество разработчиков ИИ по всему миру, стремящихся вывести свои продукты на европейский рынок и получить прибыль в ЕС, должны адаптировать свои технологии и процессы к новым нормативным требованиям. Тем самым ЕС задает глобальные стандарты, превращаясь в регулятора с мировым влиянием.
На глобальной арене: сопротивление индустрии
Однако процесс принятия AI Act сопровождается ожесточенными дебатами. Технологические компании и лоббисты, возглавляемые Google и Meta, в последние месяцы активно выступают против ряда положений, особенно в отношении генеративных моделей ИИ. Они утверждают, что чрезмерное регулирование может затруднить разработку и внедрение ИИ в Европе, сделать регион менее привлекательным для инвестиций и затормозить инновации.
В то же время мнения о масштабе регулирования разделились и внутри ЕС. Одни настаивают на более жестком контроле за ИИ, особенно в сфере государственного надзора и алгоритмической дискриминации. Другие опасаются, что чрезмерное регулирование подорвет конкурентоспособность европейского технологического сектора, особенно по сравнению с более либеральными подходами в США и Китае.
Опасения по поводу того, что Европа отстанет от глобальных конкурентов - в первую очередь, США и Китая - привели к тому, что сам ЕС готов ослабить свои начальные позиции. Председатель Европейской комиссии Урсула фон дер Ляйен ранее заявляла, что рассматривает ИИ как ключевой способ восстановления конкурентоспособности и технологической независимости Европы от США и других стран.
Она неоднократно подчеркивала, что стратегическая цель ЕС - сохранить технологический суверенитет. Речь идет не только о создании собственных ИИ-систем, но и о способности задавать глобальные стандарты этичного и устойчивого технологического развития.
Европейский подход отличается тем, что он изначально включает права человека в архитектуру регулирования. В отличие от США, где регулирование ИИ во многом остается фрагментированным и частично в фокусе на интересах технократов (особенно сейчас, во время второго президенства Дональда Трампа), и Китая, где акцент делается на государственном контроле, ЕС стремится быть технологическим регулятором с человеческим лицом.
Однако этот подход несет и риски. Европейские компании уже сталкиваются с бóльшими трудностями при обучении моделей из-за ограничений, связанных с Общим регламентом по защите данных (GDPR), нежели их американские конкуренты.
В США отсутствие всеобъемлющего федерального закона о защите данных позволило таким компаниям, как OpenAI и Meta, накапливать огромные наборы данных с относительно меньшими барьерами, что дало им значительное преимущество в масштабировании технологий ИИ.
В отличие от этого, европейские компании в области ИИ вынуждены работать в более строго регулируемой среде, которая придает приоритет конфиденциальности и защите данных, что зачастую усложняет стремительные технологические прорывы. Хотя эти ограничения защищают основные права, они также требуют от европейских разработчиков навигации в более сложной правовой среде.
Кроме того, многоуровневая бюрократия и национальные особенности имплементации могут еще больше усложнить работу разработчиков. Это особенно критично для малых и средних предприятий, не обладающих ресурсами транснациональных корпораций.
Этика как конкурентное преимущество?
Тем не менее, по мере роста глобального спроса на надежный и этический ИИ, препятствия, с которыми сталкиваются европейские разработчики, могут стать долгосрочным конкурентным преимуществом. В условиях растущего недоверия к ИИ и усиления требований к прозрачности и подотчетности, европейские компании могут получить уникальное преимущество: возможность экспортировать не только технологии, но и доверие.
Разработчики, которые научились работать в более строгих условиях регулирования, могут предложить рынку более этичные, безопасные и устойчивые решения.
Чтобы новая нормативная среда не стала барьером, а наоборот - стимулом к развитию, в ЕС постепенно формируется инфраструктура поддержки ответственного ИИ. На уровне отдельных проектов и исследовательских консорциумов разрабатываются инструменты, помогающие организациям понять и адаптироваться к новым требованиям.
Один из таких примеров - проект CERTAIN (Certification for Ethical and Regulatory Transparency in Artificial Intelligence), направленный на предоставление организациям возможности ориентироваться в сложных нормативных ландшафтах, внедрять передовые технологии и обеспечивать устойчивый рост на рынке данных и в секторе ИИ.
CERTAIN объединяет экспертов из разных стран и сфер, от юристов до инженеров и социологов, подчеркивая, что доверие к ИИ нельзя навязать сверху: его нужно заслужить. Это требует не только соблюдения формальных требований, но и глубокого переосмысления целей и последствий технологий.
Ведь регулирование ИИ - это не только юридический акт, но и этическая трансформация подходов к технологиям. ИИ - это не просто технология, это вопрос общественного выбора. Какие ценности будут встроены в алгоритмы? Кто несет ответственность за их последствия? Как защитить уязвимые группы и при этом не затормозить прогресс?
Ответы на эти вопросы не имеют окончательного ответа. Они требуют постоянных диалогов между государством, бизнесом, академическим сообществом и гражданами.
Принятый AI Act - это только начало. Впереди имплементация на национальном уровне, развитие надзорных механизмов, международные переговоры о совместимости правил и адаптация к новым технологическим вызовам. Важно, чтобы ЕС не только устанавливал стандарты, но и создавал условия для их соблюдения через инвестиции в исследования, поддержку стартапов и цифровое образование.
Мир внимательно следит за европейским опытом. Ранние попытки Европы регулировать ИИ, возможно, не идеальны, но они представляют собой важный шаг к будущему, где технологический прогресс идет рука об руку с защитой человеческого достоинства и демократических ценностей. И если ЕС сумеет доказать, что ИИ можно регулировать эффективно, справедливо и в интересах общества, это станет примером для всего мира.