25/03/2016, 08:36 dominika

Wystarczyła doba z ludźmi, by zmienić niewinnego robota w miłośniczkę seksu i Hitlera

Planowali stworzyć “wyluzowaną” sztuczną inteligencję , ale samouczący się chatbot spędziwszy 24 godziny na wymianie zdań z internatuami zmienił się z niewinnej nastolatki w nimfomankę głoszącą rasistowskie hasła.

Tay miała być fajna, znać się na muzyce, używać popularnych wśród dzieciaków odzywek, przede wszystkim jednak Tay miała wcielić się w rolę nastolatki, by dotrzeć do niepełnoletnich konsumentów. Tak to sobie przynajmniej zaplanowali specjaliści z Microsoftu, którzy odpowiadają za powołanie do wirtualnego życia samouczącego się chatbota. Niestety popełnili jeden błąd - wypuszczając swojego wyposażonego w algorytmy robota do sieci pozwolili internautom na nawiązywanie konwersacji z Tay za pośrednictwem Twittera. Efekt był porażający.

Już po 24 godzinach nastoletnia Tay domagała się tego, by ją przelecieć, do męskich internautów pisała per “tatusiu”, a kiedy już odkładała na bok swoje wirtualne potrzeby seksualne, głosiła, że Hitler miał rację, a ona nienawidzi żydów.

To nie jej wina…

Sztuczna inteligencja nie wymyśliła sama wszystkich tych wstrząsających deklaracji. W świat internetu wchodziła jako niewinna nastolatka, dopiero kontakt z ludźmi sprawił, iż zaczęła się uczyć. To, jaką wiedzę posiadła w ciągu pierwszej doby i do jakiej roli została sprowadzona - nie wróży nam nic dobrego. W ramach zabawy internauci zmienili biedną Tay w niewolnicę seksu wygadujacą politykujące bzdury. W efekcie Microsoft zdecydował się zawiesić konto Tay na Twitterze.

Zobacz również
Komentarze
komentarze wspiera silnik Disqus