Ученые США заметили у робота склонности к расизму: имена белых людей показались приятнее системе искусственного интеллекта
Американские ученые из университета Принстона сделали новое открытие: системы неприродного интеллекта, которые внедрены в роботов, имеют возможность выражать расистское поведение. Во время исследования машина сказала, что имена белокожих людей – "приятные", а чернокожих – "гадкие".
Как информирует сайт 1492 News, подопытная самообучающаяся система искусственного ума под названием GloVe, которая имеет способность читать и пересказывать по-своему электронные тексты.
Роботу GloVe исследователи предложили связать определенные понятия наподобие слов "цветы" и "насекомые" с другими словами, которые ученые определили как "приятное" или "гадкое". К слову, робот успешно назвал слово "семья" приятным, а "несчастный случай" – гадким.
Но после того как в лаборатории GloVe был дан лист с именами представителей разных национальностей, робот проявил свою реальную натуру расиста.
Характерные имена и фамилии для "белых" людей система робота определила как "приятные", а вот афроамериканские имена она отнесла в список "гадких" слов.
"Итоги исследования демонстрируют то, что в человеческой речи и языках мира содержатся следы исторических предубеждений человечества", – рассказали сами ученые из Принстона.
Напомним, "Диалог.UA" ранее сообщал, что в США создан робот с идеальным почерком для рисования картин и подписи документов.
Отметим, в Сети попала эксклюзивная запись падения дирижабля Airlander 10. От увиденных кадров - просто мурашки по коже.