Как бота расистом сделали

О влиянии соцсетей на искусственный интеллект

Компания Microsoft создала бота для социальной сети Twitter. Он мог вести дискуссии с настоящими пользователями и учиться, копируя их поведение.

Менее чем через 24 часа, Microsoft заблокировала публикации от своего бота и удалила некоторые из них, потому что он стал… расистом.

Бот по имени Тай, был разработан командой по технологиям и исследованиям в сотрудничестве с поисковым движком Bing. Большую часть времени бот провёл отбиваясь от агрессивных выпадов пользователей. В итоге, он начал отрицать Холокост, грубо высказываться по отношению к женщинам и меньшинствам, а также оправдывать геноцид.

В самой Microsoft считают этот проект важным культурным и образовательным экспериментом. Изначально искусственный пользователь должен был вовлекать и развлекать людей при помощи игривых и казуальных разговоров.

Такие дела.

 

Читайте также
Любое копирование, публикация, перепечатка или воспроизведение информации, содержащей ссылку на «Интерфакс-Украина», запрещается.