Mowa o chatbocie „Tay”, który został zaprojektowany po to, by naśladować wzorce mowy użytkowników Twittera. Początkowo wszystko szło w dobrym kierunku, a „Tay” utrzymywała pozytywne relacje z internautami. Po kilku godzinach jednak z niegroźnych tweetów przeszła do udostępniania wpisów o charakterze seksistowskim i rasistowskim. Program został po dobie dezaktywowany.
Źródło: TayTweet/Twitter
Microsoft przeprosił za zamieszczone posty i sformułował oświadczenie, które zatytułował „Ucząc się na przykładzie Tay”. Koncern zapewnił, że chce przywrócić program do sieci, jednak tylko wtedy, kiedy będzie w stanie przewidywać jego złe intencje – „które są sprzeczne z naszymi zasadami i wartościami”. Jak zaznacza, nie była to pierwsza próba wprowadzenia sztucznej inteligencji do mediów społecznościowych. I przypomina przy tym, że w Chinach jego bot „XiaoIce” jest używany przez około 40 milionów ludzi, cieszy się dużym zainteresowaniem i nie sprawia problemów. Więc skąd tak odmienne zachowanie w przypadku testowania go w USA? Pierwszą próbą odpowiedzi na to pytanie jest duża odmienność środowiska kulturowego. Tay został bowiem stworzony do celów rozrywkowych dla osób w przedziale wiekowym 18-24 lata. Microsoft zapewnia przy tym, że będzie pracować na większej grupie i poszerzy analizę, by przeciwdziałać próbom pisania nienawistnych komentarzy. (mw)