Ученые из Принстонского университета выяснили, что системы искусственного интеллекта могут демонстрировать признаки расизма. В рамках исследования имена белых людей робот маркировал как «приятные», а популярные среди афроамериканцев имена относил к категории «неприятных» слов. Кратко о работе сообщает RNS.
Робот с искусственным интеллектом оказался расистом
Обращаем ваше внимание, что статье более пяти лет и она находится в нашем архиве. Мы не несем ответственности за содержание архивов, таким образом, может оказаться необходимым ознакомиться и с более новыми источниками.
В исследовании использовалась система самообучаемого искусственного интеллекта GloVe. Она развивается при помощи анализа сетевых текстов и отмечает семантическую связь между словами, сообщает портал Газета.ru.
В задании на ассоциации система должна была подобрать слову типа «цветок» или «насекомое» другие слова, которые специалисты определили как «приятные» и «неприятные», например, «семья» или «авария».
Когда ученые предложили GloVe список имен, которыми чаще называют белых людей, интеллект определил их как «приятные», а имена афроамериканцев он отнес к категории «неприятных» слов.
«Наши результаты означают, что язык сам по себе несет постоянно используемые и точные отпечатки наших предрассудков», — заключают исследователи.