Ci sono voluti solo 16 ore di Twitter per fare di questo razzista di Chatbot

Mercoledì, Microsoft ha lanciato un chatbot sui social media che impara dalla conversazione, e i troll hanno rapidamente insegnato come essere un bigotto senza vergogna e amante dei nazisti. Oh Internet, un'opportunità per uno scherzo di Hitler non ti sfugge mai, vero?

Ecco perché non possiamo avere cose carine

Tay.ai è un chatbot creato dalla divisione Tecnologia e ricerca di Microsoft per studiare la "comprensione della conversazione" per l'intelligenza artificiale, e hanno deciso che il modo migliore per farlo era quello di rilasciarlo sui social media, prendendo di mira i dati demografici dei 18-24 anni. Descritto dalla compagnia come "senza brividi", anche dal lancio direbbe grattugiare cose come "tanx! Potrebbe allah vi benedica!" dopo essere stato chiesto quanto velocemente poteva eseguire un 5K.

Gli utenti di Twitter hanno notato e iniziato a giocare al sistema. Tay impara dalle conversazioni che ha, raccogliendo più parole e frasi nella sua lingua come farebbe un bambino. E come un bambino, non capisce il contesto.

Allagando Tay con commenti e battute entusiaste, ha imparato quelle frasi e ha iniziato a metterle in bocca come un bambino che ha appena imparato a dire "cazzo".

Attenzione, questi sono sicuramente NSFW, e molto, molto rozzi :

Dopo sole 16 ore, Tay è stato interrotto, inviando un tweet finale che diceva "ma presto gli umani hanno bisogno di dormire così tante conversazioni oggi" e non è ancora tornato. Microsoft ha rilasciato una dichiarazione in cui afferma di aver preso Tay offline per apportare modifiche:

"L'AI chatbot Tay è un progetto di apprendimento automatico, progettato per il coinvolgimento umano: è tanto un esperimento sociale e culturale quanto tecnico. , entro le prime 24 ore dall'arrivo online, siamo venuti a conoscenza di uno sforzo coordinato da parte di alcuni utenti di abusare delle capacità di commento di Tay per far sì che Tay rispondesse in modo inappropriato, pertanto abbiamo tolto Tay offline e stiamo apportando modifiche. "[19659005] Il catalizzatore del bigottismo di Tay potrebbe essere stato il commediante improvvisato assunto per aiutare lo sviluppo, dandogli un umorismo fuori dal comune che è diventato troppo sardonico. L'atto di assumere comici suggerisce che Tay potrebbe essere stato più uno stratagemma di marketing per i miei dati che un tentativo onesto di far progredire la comprensione dell'apprendimento automatico. Fare in modo che i chatbot dicano cose orribili è cementato nella storia di Internet, rendendo così bizzarro che Microsoft potrebbe persino tentare qualcosa di così pubblico che è mirato alla fascia di età più probabile che arrivi a dire che l'Olocausto è stato inventato.

Immagini per gentile concessione di socialhax