Ученые: Изучая языки, искусственный разум становится "расистом"

Рейтинг: 0
(Голосов: 0)
You Rated: Not rated
Ученые: Изучая языки, искусственный разум становится "расистом"

Ученые выяснили, что знание языков превращает искусственный разум в "расиста" и "мизогиниста", пишет "РИА Новости". Так, например, искусственный интеллект (ИИ) начал воспроизводить стереотипы о "неприятных чернокожих" и "глупых женщинах". Научная публикация вышла в журнале Science.

Айлин Калискан (Aylin Caliskan) из Принстонского университета (США) и её коллеги выяснили это, изучая ассоциации, которые сформировались у искусственного интеллекта при изучении языков. Системы изучали архивы старых газет и книг и их переводы на разные языки мира. В итоге машина переняла расовые и гендерные стереотипы, которые веками существовали в человеческом обществе и отразились в языках и в ассоциациях между словами.

Как объясняет Калискан, слова всех языках мира можно разбить на подгруппы. При этом слова одного класса будут нам казаться ближе, чем другого класса. К примеру, слова "кошка" и "собака" ближе друг к другу, чем к словам "правосудие" или "холодильник", потому что можно прийти домой и покормить кошку или собаку, но не холодильник или тем более правосудие. Поэтому между словами возникают ассоциации.

Ученые заметили, что машина ассоциировала слово "приятный" в большей степени с европейцами и американцами европейского происхождения, чем с представителями других народов. При этом имена мужчин и "мужские" местоимения ассоциировались с карьерой, управлением бизнесом и властью. Имена, носителями которых являются афроамериканцы, машина ассоциировала с неприятными словами. Слова, связанные с женщинами, были ближе к терминам, связанным с семьей, искусством и подчиненными ролями в обществе, а "мужские" слова были связаны с математикой и наукой.

Ученые задумались: что здесь является причиной и следствием? Существовали ли эти стереотипы всегда (так называемая гипотеза Сепира-Уорфа), подспудно влияя на менталитет и мнения людей? Или же их создавали сами носители языка? Не приведет ли дальнейшая эволюция систем и приобретение ими способности самостоятельно общаться с человеком к распространению и укоренению стереотипов? Как создать алгоритмы, которые помогли бы "удалять" расистские и женоненавистнические тенденции из систем искусственного интеллекта? Повлияет ли это на точность перевода или адекватность общения?

РИА Новости. Ученые: знание языков превращает искусственный разум в "расиста".

Aylin Caliskan, Joanna J. Bryson, Arvind Narayanan. Semantics derived automatically from language corpora contain human-like biases.

Тэги