Chatbot okazał się rasistą

It’s not Tay’s fault that it turned racist. It’s ours.

Chatbot został stworzony przez Microsoft’s Technology and Research oraz drużynę Bing. Wróć, stworzona. Odpalona w sieci w ciągu 24h stała się rasistką. AI miało za zadanie nauczyć się od ludzi na twitterze rozmawiać, a to czego się nauczyła od nas ludzików to umiejętność snucia jakiś chorych teorii spiskowych i rasizmu.