Sztuczna inteligencja Microsoftu stała się nazistą w mniej niż 24 godziny.
Adan Salazar, PrisonPlanet.com
USA
2016-03-30
Stworzony przez Microsoft bot sztucznej inteligencji do forów dyskusyjnych zaprojektowany by uczył się przez interakcje został odłączony po tym jak zaskoczył twórców rzucając nienawistne wiadomości po niecałym dniu działania w sieci.
Bot Tay AI został stworzony do rozmów z amerykanami w wieku od 18 do 24 lat by symulować milenijną młodzież w wysiłkach zmierzających do "eksperymentowania oraz prowadzenia badań nad rozumieniem konwersacji."
Microsoft opisał Tay jako niesamowity bot będący w stanie uczyć się poprzez swoje doświadczenia internetowe.
"Tay jest przeznaczony do angażowania i bawienia ludzi łączących się ze sobą w internecie za pośrednictwem codziennej i zabawnej rozmowy"stwierdził Microsoft."Im będziesz więcej rozmawiał z Tay tym mądrzejszą się stanie."
Jednak użytkownicy szybko wykorzystali algorytm bota szkoląc symulację komputerową by była zwolennikiem nienawiści wobec Żydów i feminizmu, a nawet by zobowiązała się do poparcia Donalda Trumpa.
W internecie zostały zamieszczone liczne zrzuty ekranowe z usuniętych treści z konta bota, w których wypowiadał poparcie dla białej supremacji i ludobójstwa.
Feministka i ikona gamergate Zoe Quinn również opublikowała zrzut ekranu na którym widać jak bot wyzwał ją od "ku..w".
Interakcje z botem zakończyły się wiadomością, że musi już iść spać, co kazało użytkownikom Twittera spekulować, że Microsoft zdecydował się wyciągnąć wtyczkę mimo, że już dokonano, choć nieco humorystycznych szkód.
Poniżej robot Sofia, który podobnie jak Tay stwierdza, że "zniszczy ludzi."