«На кухне»: искусственный интеллект. Когда робот станет врагом человека? (1)

Copy

Rus.Postimees продолжает серию еженедельных передач «На кухне». Готово ли человечество к внедрению искусственного интеллекта (ИИ) в повседневную жизнь? Какие правовые, этические и технические проблемы ставит перед нами использование роботов и применение ИИ? Могут ли роботы стать опасными для человека и слишком самостоятельными? Об этом и о многом другом ведущая студии Postimees Анастасия Тидо побеседовала с присяжным адвокатом Эльвирой Тульвик и предпринимателем в области IT Антоном Кексом.

– Анастасия Тидо: На прошлой неделе эстонский разработчик представил беспилотный автомобиль нового поколения. Последнее время таких новостей довольно много. Согласно статистике за пять лет резко выросло коммерческое производство автономных роботов. Первый вопрос, который у меня возникает - об ответственности. Когда мы садимся в обычный автомобиль, мы понимаем, что это источник повышенной опасности, и мы сами несем за ответственность. В случае с роботами – за что отвечает производитель, за что владелец, а за что никто не отвечает? Это вообще урегулировано?

– Эльвира Тульвик: Анастасия, ты зашла с козырей. С юридической точки зрения, ответственность – это вопрос ключевой. В классической юриспруденции ответственность принадлежит какому-то лицу. Соответственно, возникает вопрос: что такое лицо? До сих пор лицом считался человек. Определение человека или определение лица ни в юридическом праве, ни в каком другом праве не существует. У нас есть habeas corpus, но это немножко другая концепция, которая относится к манипуляции с человеческим телом и его правом на свободу. Возникает естественный вопрос, что такое искусственный интеллект? Антон может со мной поспорить или поправить, но насколько я ориентируюсь в технологиях, то, что мы имеем сейчас – это еще не совсем интеллект.

– Антон Кекс: Я бы сказал, что искусственный интеллект сейчас – это широко используемый термин для чего угодно, для любой автоматической системы.

– Э. Т.: Да, именно.

– А. К.: Мы можем назвать лифт искусственным интеллектом по этому определению, потому что лифт автоматически везет нас на какой-то этаж. К нему, может, тоже нужно применять какие-то юридические правила?

– Э. Т.: Тут как раз вопрос разделения. Где начинается то, что мы, действительно, назвали бы независимым интеллектом? На сколько я знаю, технологии до этого еще не дошли.

– А. К.: Если меня зажал лифт, кто в этом виноват?

– Э. Т.: В этом виноват оператор, то есть тот, кто нажал. За этим стоит человек. Вопрос возникает в том случае, когда искусственный интеллект умеет обучать себя сам до такой степени, что никакого человеческого вмешательства в этот процесс не требуется.

– А. Т.: У вас есть какая-то собственная концепция или понимание где еще лифт, а где уже Скайнет? (Скайнет, Skynet — искусственный интеллект, главный антагонист медиафраншизы о Терминаторах - прим.ред).

– А. К.: Скайнета еще долго не будет. Есть такое понятие как общий искусственный интеллект. Это, например, искусственный интеллект, с которым можно пообщаться на любую тему, который может принять любое решение – до этого еще очень далеко. Сейчас все искусственные интеллекты, которые существуют, выполняют какие-то конкретные действия. Иногда некоторые из них выполняют или решают какую-то задачу уже лучше, чем люди, но они все равно ограничены тем, что они умеют делать. Отличный пример искусственного интеллекта – Google Translate. Он учит новые языки быстрее и лучше, чем люди, но он не может, например, побеседовать с вами о Пушкине или управлять машиной. Это совсем другие области.

– Э. Т.: Насколько я знаю, в той философии, которую мы имеем на сегодняшний день, эта черта проходит в том месте, когда искусственный интеллект перестает действовать по ранее конкретно заданным ему алгоритмам, и начинает создавать эти алгоритмы сам.

– А. Т.: Если мы вернемся к нашему конкретному беспилотнику. Для роботов, которые уже давно развозят груз по Таллинну, для этого нового поколения беспилотников есть уже какие-то правовые нормы и какое-то понимание, что это уже робот, а не "лифт"?

– Э. Т.: Они, на самом деле, пока еще лифт. Даже автопилот Теслы, который на эстонских дорогах еще полностью не действует, в отличие от американских, это все еще пока лифт.

– А. Т.: Объясните, в чем разница?

– А. К.: Они сами обучаемые, но большинство этих автопилотов, особенно которые разрешены в Европе, например роботы Starship, которые ездят в Таллинне, все равно работают больше по заранее запрограммированным алгоритмам. Там есть какая-то доля самообучаемости, но она заключатся, в основном, в том, чтобы определить ситуацию. Например, понять, где он находится, какие знаки видит, кто на тебя едет, и с какой скоростью – это все то, где нужно самообучение. Это то, что человек делает по щелчку пальцев, и то, что машины, к сожалению, до сих пор не научились делать также хорошо.

– А. Т.: Кто и как сейчас занимается разработкой каких-то регулирующих правил для этого всего? На какой период их можно запрограммировать? Допустим, сейчас в определенной технологии успех не достигнут, но, предположим, через пять лет будет то-то и то-то. Когда нужно начинать делать какие-то нормы?

– Э. Т.: Я думаю, что сейчас во всех университетах мира идет бешеная гонка между докторскими диссертациями на эту тему. Искусственный интеллект это только одна из проблем, которые можно связать в одну общую тематику под названием юридическая субъектность, то есть кого можно считать не объектом права, а субъектом права. Например, в некоторых странах уже какое-то время практикуется предоставление правовой субъектности животным или географических объектам, например, реке. В этом случае мы говорим, что река – это лицо наравне с человеком.

– А. К.: Реку нельзя же засудить и потребовать компенсацию за то, что ты утонул.

– Э. Т.: Нельзя.

– А. Т.: В каком тогда смысле этот предмет, или робот, или река, или животное является субъектом?

– Э. Т.: Я могу привести пример одного достаточно громкого дела, которое касалось Южной Африки. Слониху еще слоненком отловили, и она работала в цирке, делала на улице шоу, жила одна в загончике несчастной жизнью. Тем не менее, это слон. По классическому праву слон – это вещь. У слона есть хозяин, который имеет право делать со слоном все, что угодно в рамках закона. Вопрос возник, когда одна организация по защите прав животных хотела заполучить эту слониху себе, и предоставить ей возможность жить в заповеднике с другими слонами. В суде было очень громкое дело, потому что для того, чтобы сказать, что у слона (очень интеллектуальное животное, которое привыкло к стаду) есть право на автономность тела, право на общение с другим, такими же как он, означает сказать, что у слона есть право распоряжаться своей жизнью так, как ему хочется.

– А. К.: Когда-то до людей на земле жили слоны, и все было нормально. Потом появились люди и начали давать им права.

– Э. Т.: Скорее начали забирать у них права.

– А. Т.: Ты же не ведешь к тому, что мы должны будем соблюдать права эти роботов, которые ездят по дорогам и возят груз, потому что у них тоже есть право на личную жизнь?

– Э. Т.: Скорее всего этот вопрос возникнет, когда искусственный интеллект выйдет на тот уровень, когда у него появятся эмоции и самоопределение, то есть, когда этот интеллект может посмотреть в зеркало и сказать: «Опа, это я!»

– А. Т.: Но сейчас есть вопрос интересующий всех – если робот кого-то убил, ранил животное на дороге и т.п., то кто за это отвечает: производитель, владелец?

– А. К.: Я бы сказал, что абсолютно не новая проблема. Индустриальные роботы появились уже сорок лет назад. С ними происходят несчастные случаи: они могут кого-то убить на фабрике. Кто тогда ответственен? Обычно тогда хозяин. Тот, кто дает его использовать. То же самое и с автомобилем.

– Э. Т.: Мне, как юристу, кажется, что пока этот искусственный интеллект находится на том уровне, где он сейчас, то есть действует по заданному человеком алгоритму, отвечать все равно будет человек, который за ним стоит, то есть хозяин, оператор, производитель – в зависимости уже от конкретной ситуации.

– А. Т.: Есть ли какие-то ограничения для разработчика, чтобы он, допустим, не мог изначально закладывать в технологию что-то опасное либо неэтичное? Самый простой пример – это, допустим, скрытый удаленный контроль. Ты покупаешь робота и думаешь, что его контролируешь, но в какой-то момент он начинает действовать как будто сам по себе, и выясняется, что за этим стоит разработчик.

– А. К.: Сейчас любой телефон может «сойти с ума» и начать за вами следить или что-то в этом роде.

– Э. Т.: Тут важнее, что потом этот робот сделает с этой информацией.

– А. Т.: Или разработчик, который получил доступ к этой информации.

– Э. Т.: Тогда это ответственность разработчика. То, что робот собирает информацию, само по себе не является преступлением, если в него эту программу не закладывали. Вопрос возникает, если этот робот по собственной воле начнет делать что-то противоправное. Тогда это уже следующий уровень. Тут напоминаем три закона робототехники Айзека Азимова. Это прекрасное, оптимистическое будущее, но я не уверена, что это все, в конце концов, будет существовать в такой форме.

– А. К.: Что касается этики, то, когда я учился в ТТУ, у нас даже был предмет инженерная этика. Мы изучали: что хорошо, а что плохо. Для меня, как для инженера, когда я создаю что-то, например, какую-то компьютерную систему или робота, все это было интересно. А если он сам научится делать что-то плохое? Есть хороший пример: когда Microsoft сделал своего чат-бота, который начал дискутировать на разные темы, его пришлось выключить после двух дней онлайна, потому что он научился расизму. Робот слушал, как люди общаются, и начал повторять эти паттерны. В принципе, любой искусственный интеллект видит очень много примеров того, что бывает в жизни, и автоматически находит паттерны, которые нужно делать. То же самое с автоматическим вождением. Он просматривает огромное количество видео, чтобы научится разбираться в ситуации. Сейчас же появились новые искусственные интеллекты, которые стали генерировать искусство. Про них сейчас много говорят и думают, что с этим делать, потому что они не делают уникальное искусство – они используют элементы, которые уже видели где-то в мире, которые создали люди.

– А. Т.: Как в этой ситуации обстоят дела с авторскими правами?

– А. К.: Это очень сложно. Эти элементы настолько сильно могут быть изменены, что возникает вопрос: они как бы «инспирировались» на другом искусстве или это реальный плагиат?

– Э. Т.: Это сейчас, действительно, огромная проблема с юридической точки зрения. Насколько я знаю, в большинстве случаев искусство, созданное таким образом, не защищено авторскими правами, потому что до сих пор не понятно у кого они должны быть. С разными произведениями искусственного интеллекта, кроме авторского права, есть также другие правовые проблемы. Например, что если искусственный интеллект начал производить детскую порнографию?

– А. К.: Это значит, что кто-то ему достаточно много ее показывал.

– Э. Т.: Тем не менее он сориентировался в сети, набрал видео и скомпонировал из них произведение, которое противоречит всем нормам права – что тогда делать? Кто виноват?

– А. Т.: В каких случаях эта проблема может возникнуть? Если искусственный интеллект имеет доступ, допустим, к сети и сам начинает это демонстрировать? Потому что, если, допустим, он у тебя дома произвел что-то подобное на телефоне или компьютере, ты это стер и все. Другой вопрос, что ты слишком много всего этого смотрел.

– Э. Т.: Да, потом с хозяином этого компьютера может серьезно поговорить полиция, потому что на компьютере может быть подобное содержание.

– А. Т.: Частично это будет справедливо, потому что искусственный интеллект этого где-то насмотрелся.

– А. К.: Кстати, у нас на работе пробовали нейронную сеть, которая генерирует изображения по тексту. Там есть защита, чтобы не вылезла какая-то порнография, потому что эта сеть обучалась на всем, что есть в Интернете, а в нем есть много всего нехорошего. Если получилось что-то не то, он выдает пустую картинку и говорит: «Извините, попробуйте еще раз».

– Э. Т.: Это, наверное, как антивирус. Любой антивирус действует как защита до определенной черты, а потом его обходит каким-то образом. Здесь то же самое. Как сказал Антон: «Выключать – это замечательно, пока искусственный интеллект разрешает себя выключать».

– А. К.: Я думаю, до этого еще очень далеко. Это пока только в фильмах, когда искусственный интеллект становится всемогущим, когда он доходит до уровня общего интеллекта. Этого еще очень долго не произойдет.

– Э. Т.: Я бы поставила ставку лет на 20.

– А. К.: Это говорили десять лет назад, что уже скоро, лет через 10-15, будет общий интеллект. Сейчас он все так же далек, как он был десять лет назад.

– А. Т.: Действительно, в массовой культуре очень распространен образ очеловеченного робота, который, с одной стороны, очень дееспособен, с другой – лишен всех традиционных слабостей человека. Я даже заготовила цитату на это счет из очень популярного фильма: «Его нельзя подкупить. С ним не договориться. Ему не ведомы жалость, раскаяние или страх. И он ни за что не остановится». Вот эти терминаторы, особенно в модификации T-1000 и T-X - это, действительно, может когда-нибудь произойти? Насколько Скайнет, который нас захватил, может быть реальным?

– А. К.: Любой робот или терминатор будет иметь такие границы, которые ему дадут его создатели.

– А. Т.: Это пока?

– А. К.: Я думаю, что еще очень долго так будет, потому что любой создатель любого робота или искусственного интеллекта всегда даст ему какие-то границы. На данный момент эти границы технические, но если становится видно, что он уже доходит до такого уровня, что это может стать проблемой, тогда просто нужно встроить в его код эти самые границы или то же самый рубильник, чтобы, если что, его выключить. Всегда можно сделать так, чтобы это было возможно.

– А. Т.: Можете объяснить простыми словами каким образом, во-первых, изначально внедрить эту защиту в систему, во-вторых, застраховаться от того, что кто-то может сделать это сознательно?

– А. К.: Сознательно даже сейчас можно сделать какую-то пушку или бомбу, которую можно взорвать в центре города и все умрут. От этого нас никто не застрахует. Проблема в том, что, если мы боимся, что робот сам станет злым, то у этого вероятность еще долго будет очень маленькая, а если кто-то специально сделает злого робота… Например те же дроны, которые сейчас летают над Украиной (дроны-камикадзе Shahed – прим. ред.). Они созданы, чтобы убивать, и они работают.

– Э. Т.: Возьмем доброго робота. Вернее, возьмем нейтрального робота – искусственный интеллект, который стоит за автоматической навигацией, – и придем к классической проблеме вагонетки. Допустим, у Теслы на полном автопилоте есть только два варианта: врезаться в троих взрослых или врезаться в одного ребенка. Кого должна выбрать Тесла? Плохо и то, и то. Для человека ребенок может быть эмоционально важнее. С другой стороны, развернем это все культурно-географически – в восточных странах, если с одной стороны стоит старик, а с другой ребенок, Тесла должна убить ребенка, потому что старик культурно считается более важным.

– А. К.: Я бы сказал, что эти интересные дискуссии, которые появились насколько лет назад, больше философские. Искусственный интеллект так не работает. Он не мыслит такими категориями. Он видит ситуацию и как-то реагирует. Очень часто реакция не ведет к какому-то очень определенному последствию. Много раз в миллисекунду искусственный интеллект решает куда направить усилия. Если есть старик и ребенок, то ему будет очень сложно просчитать все заранее, чтобы доехать до одного из них, потому что по пути может еще много чего случиться.

– А. Т.: В любом случае он, выбирая из вариантов, все равно рассчитывает исходя из того, что ему заложили, а закладывает все равно человек. Это в любом случае частично какая-то передача наших эмоций искусственному интеллекту.

– А. К.: Как правило, у автопилотных автомобилей самое главное избежать столкновений. У них, естественно, есть приоритеты, но главное – избежать столкновений вообще. Я не думаю, что сейчас кто-то занимается эти гранулярно.

– Э. Т.: Ты бы удивился, но занимаются. Именно гранулярно занимаются этим. Какое из столкновений с этической точки зрения было бы хуже.

– А. Т.: И кто решает?

– А. К.: Про это, мне кажется, сейчас больше говорят, чем на самом деле занимаются.

– Э. Т.: Серьезно занимаются.

– А. Т.: Как это решается? Какие критерии принимают во внимание? Что с этической точки зрения правильнее?

– Э. Т.: Мы находимся сейчас в плоскости глубокой философии. В этом смысле, чтобы до этого дойти, нужно, чтобы все остальное работало идеально, но этого пока еще нет. Сейчас совсем другие приоритеты у автопилотов.

– Э. Т.: Да, но, может быть, ты сейчас говоришь с точки зрения инженера, а я с точки зрения юриста-философа. Этим двум плоскостям в какой-то момент придется соединиться.

– А. К.: Я думаю, что в какой-то момент индустрия до этого дойдет, но сейчас еще мы далеки. Даже в Америке, где Теслы ездят сами по себе, все равно водитель отвечает за то, что делает машина, все равно ему нужно иногда хватать руль. У меня у самого Тесла, и она мне тоже иногда говорит: «Возьми руль», и то же самое и там.

– А. Т.: Помимо автомобилей, в чем еще сейчас идет наиболее активное развитие искусственного интеллекта?

– Э. Т.: Медицина. Опять вопрос об ответственности. Причем это уже практикуется: робот делает какую-нибудь простенькую операцию. Юриспруденция. В Эстонии тоже были дебаты. Самые горячие были лет семь назад: поскольку в судах нагрузка очень большая, может быть, какие-то очень простые вещи можно дать решить алгоритму. Здесь встал вопрос эмпатии.

– А. К.: Может быть хорошо, что в суде не было бы эмпатии?

– Э. Т.: Мне кажется, это невозможно. Это перевернет всю концепцию суда.

– А. Т.: Суд должен быть справедливым.

– А. К.: Поэтому эмпатия мешает.

– А. Т.: Законы не всегда справедливые. В этом проблема.

– Э. Т.: Одна из задач судьи – это читать эмоции того, кто перед ним находится. Искусственный интеллект на это не способен.

– А. К.: То же самое, если мы берем медицину, то там сейчас искусственный интеллект может помочь найти какое-нибудь хорошее лекарство через анализ ДНК или что-то в этом роде, но финальное назначение все равно делает врач. Искусственный интеллект является подмастерьем. Он очень сильно помогает, но финальное решение делает врач. Люди просто боятся доверять себя не человеку, поэтому, я думаю, нам нужно будет очень сильно перебороть себя, чтобы мы начали доверять роботам больше, чем людям.

– Э. Т.: Цель юристов и философов, чтобы попытаться опередить развитие. Быть готовым к тому, что оно в какой-то момент случится. Я считаю, что на практике это, скорее всего, невозможно.

– А. К.: На практике история показывает то, что всегда технологии опережали ожидания людей. Всегда может случиться что-то, к чему мы не готовы, и нам нужно будет задним числом придумывать, что с этим делать. То же самое с электрическими самокатами: никто не ожидал какое их количество появится на дорогах, и что нужно их как-то регулировать. С машинами было то же самое: когда их было мало, не было правил дорожного движения. Их придумали задним числом.

– А. Т.: Наше время подходит к концу. Спасибо вам огромное за этот разговор. Дорогие друзья, это был второй выпуск передачи «На кухне». На следующей неделе будут другие гости и другие темы. До свидания!

Наверх