Как YouTube выбирает, что вам смотреть: алгоритм и его проблемные места

Обращаем ваше внимание, что статье более пяти лет и она находится в нашем архиве. Мы не несем ответственности за содержание архивов, таким образом, может оказаться необходимым ознакомиться и с более новыми источниками.
Copy
BBC
Фото статьи
Фото: DADO RUVIC / REUTERS

Руководство YouTube утверждает, что обучает алгоритм автоматически добавлять ссылки на "Википедию" под потенциально дезинформирующими видео. Однако активисты обнаружили сбои в его работе и считают, что механизм рекомендаций работает не так, как надо. Что им не нравится?

Основная мысль сооснователя проекта AlgoTransparency и бывшего сотрудника Google Гийома Шадо: "Как вы смотрите, так вам и рекомендуют, однако рекомендуют то, что лучше всего рекламируется".

Этот принцип порождает проблему с качеством контента и, по словам критиков алгоритма, может подсунуть пользователям экстремистские материалы или видео сторонников теорий заговоров.

"Алгоритм убивает гражданские дебаты, он поляризует общество. Он делает то, что хорошо для рекламы, но то, что плохо для общества", - полагает исследователь Университета Париж-Восток и создатель алгоритма YouTube для Google Гийом Шадо.

Шадо уволили из компании - как он сам говорит, одной из причин было его несогласие с проработкой алгоритма рекомендаций.

По замечаниям аналитиков, большинство людей даже не замечает, как много видеороликов с экстремистским содержанием на YouTube.

"Согласно нашему исследованию, алгоритм скорее будет подталкивать пользователя к теории заговоров, чем к качественной журналистике. Например, если пользователь смотрит исторический сюжет про Древний Египет, то ему с высокой степенью вероятности "прилетит" в рекомендации передача про постройку пирамид инопланетянами", - замечает Гийом Шадо в беседе с Би-би-си.

"Алгоритм теперь другой"

YouTube не согласилась с аналитикой нынешнего проекта Шадо AlgoTransparency относительно точности их механизма.

В присланном в Би-би-си пресс-релизе компания утверждает, что сейчас алгоритм работает иначе и не потворствует добавлению теорий заговоров и дезинформации в рекомендации.

Так, YouTube заблокировал десятки видео известного американского конспиролога Алекса Джонса за разжигание ненависти.

Плюс к тому, как и другие интернет-платформы, YouTube реагирует на жалобы пользователей - так, после обращения Би-би-си хостинг заблокировалнесколько видео ультраправой тематики, чей наплыв не всегда удавалось сдерживать.

Кроме того, уже в течение нескольких лет корпорация в своих коммюнике для прессы подчеркивает, что каждый год совершенствует процесс машинного обучения для поиска и удаления видео недопустимого содержания.

"Наша политика не допускает видео, разжигающие вражду, и мы предпринимаем значительные усилия, чтобы оперативно реагировать на такие ситуации, включая расширении команды и инвестиции в развитие технологий машинного обучения. Еще раз спасибо, что обратили внимание на ситуацию", - писала пресс-служба Google в ответ на запрос Би-би-си.

С прошлого года алгоритм автоматически добавляет ссылки на "Википедию" под потенциально дезинформирующими видео, однако иногда промахивается.

Однако и активность самих пользователей, игнорирующих "постправду" и просматривающих не относящийся к дезинформации контент, может иметь решающее значение.

"Пользователи должны дать YouTube понять: нет, я не хочу, чтобы мои дети жили в поляризованном мире постправды", - резюмирует свои предложения Гийом Шадо.

Наверх