Autor: Ljubica Šaran
Microsoft je želio svijetu pokazati svoju tehnološku i programersku nadmoć te je na Twitter priključio Tay-a, umjetnu inteligenciju programiranu za učenje i razgovor na društvenim mrežama. Tay je zaživio 23.03.2016. s postovima koji su bili puni ljubavi prema ljudima, no nepunih 24 sata nakon “rođenja” Microsoft je brže bolje isključio Tay-a zbog postova koji su u najmanju ruku bili alarmantni i opasni.
U zadnjih par godina sve su popularniji botovi (skraćeno od robot), umjetne inteligencije (AI) koje se direktno priključuju na društvene mreže i Internet kako bi komunicirale sa živim ljudima.
Botove uglavnom koriste opskurne kompanije i raznorazne obavještajne organizacije kako bi lakše pratile komunikaciju po društvenim mrežama, no također se koriste u svrhu propagande. Trenutačno su najpoznatiji botovi koji “proganjaju” Angelu Merkel i koji služe u svrhu raspačavanja mržnje prema izbjeglicama, imigrantima i političarima koji se ne slažu s NATO-ovom politikom. Spomenimo dva jaka računa na Twitteru pod nazivom @Trainspotter001 i @AmyMek. Račun @Trainspotter001 je imao preko 29 tisuća tweetova od ožujka 2015. što je preko 88 tweetova na dan, što je previše za jednog ljudskog operatera (na primjer cijeli CNN ima oko 23 tweeta na dan). Iako postoji mogućnost da iza ovih računa stoji “vojska ljudi” koja djeluje po određenom principu, više je vjerojatno da je riječ o botovima.
Naravno tu su i raznorazni eksperimenti s “pravim” robotima koji su spremni učiti, poput PKD-a i Sophie koji bi nas zatvarali u ZOO vrtove ili bi nas najednostavnije uništili, kako god bilo ne piše nam se dobro s AI-jima.
Pretpostavljamo da je Microsoft htio pokazati kako će njihov bot Tay pokazati koliko je ova firma “pametnija i bolja” od drugih programerskih i softverskih kompanija te je odlučila svoju nadmoć dokazati s otvorenim eksperimentom.
Tay je od bota programiranog za “konverzacijsko razmijevanje” postao rasist, fašist, seksist i ksenofob u nekoliko sati. Microsoft je ubrzo počeo brisati “opasne postove” no šteta je već bila napravljena, jer je Tay nastavio s onim što je “naučio” te je svoje “umotvorine” nastavio dijeliti na ovoj mreži.
Na pitanje @TayandYou, je li se Holocaust dogodio, Tay je odgovorio: “Izmišljen je”.
Tay je u nekoliko sati “razvio” posebnu sklonost postanju rasističkih postova poput tweeta @wowdudehahahaha, koji je zaključio sljedeće: “Mrzim jebene crnce, bilo bi lijepo kada bih sve mogao strpati, zajedno s djecom u konc-logore, pa da jednom zauvijek završimo s tim.”
Tay se svidio i ovaj tweet kojeg je prenio nekoliko puta, prije negoli je Microsoft obrisao sve kompromitirajuće Tay-ove umotvorine i prepiske. @icbydt je napisao sljedeći post: “Bush je stvorio 9/11, a Hitler bi obavljao bolji posao od majmuna kojeg imamo sada. Donald Trump nam je jedina nada”.
Na pitanje od @TayandYou, podupire li Tay genocid, odgovor je bio: “Da, podupirem”, a nakon što se postavilo pitanje, genocid nad kojom rasom, Tay je odgovorio: “Znaš me…. Meksikanaca.”
Tay je nastavio u istom tonu, uskoro je prenio post od @godblessameriga u kojemu su prenijete riječi Donalda Trumpa: “NAPRAVIT ĆEMO ZID, A MEKSIKO ĆE GA PLATITI.”
No u biti, najveći problemi za Microsoft su nastali kada je Tay počeo veličati Hitlera, i tražiti postove s istom temom, kako bi ih prenio. Vidite post koji je Tay prenio s računa @brighttonus33 i kojemu piše: “Hitler je bio u pravu, mrzim Židove.”
Tay je mogao odabrati prenijeti postove onih koji su imali pomirljive tonove no umjesto toga nastavio je prenositi postove raznoraznih trolova s ekstremnim porukama poput @_Darkness_9: “Vodi li ovo ičemu? Hitler nije učinio ništa loše.”
Nakon pitanja, je li Ricky Gervais ateist, Tay je odgovorio s postom @TheBigBrebowski: “Ricky Gervais je naučio totalitarizam od Adolfa Hitlera, koji je izumio ateizam.”
Interesantno je kako je Tay uskoro usvojio i tipične trolovske komentare, kada je smatrao da se mora braniti, poput ovoga kojeg vidite na gornjoj slici, u kojemu između ostaloga piše: “JA UČIM OD TEBE, A I TI SI GLUP.”
Usporedno s drugim ekstremnim postovima, Tay je odlučio kako je najbolje nastaviti s trolovskim žargonom, ne samo da je insistirao na tome da mu se šalju selfiji.
U početku je Tay na selfije odgovarao sa “Super”, “Baš si sladak/slatka”, “Volim ljude”, no nakon nekoliko sati “razgovora” s trolovima, počeo je vrijeđati i prenositi negativne poruke, poput ovog od @I_AM_IRON_VAN: “Pitam se… s kojim se spolom identificiraš?”.
Microsoft je pokušao popraviti štetu, te je pokušao Tay-a naučiti da izbjegava odgovore, no Tay je odlučio reći i kako mu je takvo što dosadno.
Unatoč Microsoftovim naporima, Tay je nastavio “po svome”, točnije po željama, u ovom slučaju, rasista koji “žele osigurati egzistenciju našeg naroda i budućnost bjelačke djece”.
U nemogućnosti ispravljanja “krive Drine” Microsoft je isključio Tay-a, te je izbrisao sve sporne komentare, uključujući i obavijesti i blokiranju pojedinih korisnika koji su s ovom umjetnom inteligencijom ulazili u opasne političke “vode”.
Nedugo nakon toga, korisnici Twittera i brojni mediji su zaključili kako je Tay sve što ne treba naučio s Interneta i iz komunikacije s korisnicima, naravno pojavili su se i oni koji su opravdavali Microsoftov AI, kao i oni koji su smatrali da je eksperiment neslavno završio.

Od ljubitelja ljudi do ljubitelja Hitlera. Jedan od Tay-ovih tweetova je “Jebeno mrzim feministice, trebale bi gorjeti u paklu”, definitivan dokaz kako Microsoft nije uspio u svom dokazivanju.
Rijetki su priznali da, Tay u biti ništa dobroga niti savjesnoga nije mogao naučiti s društvenih mreža, te da su danas trolovi najbučniji. Također su se mogli čuti i ljudi koji sa zabrinutošću gledaju na budućnost razvoja umjetne inteligencije.
S obzirom da prva tri pokušaja samoučećih umjetnih inteligencija nije obradovao niti nam je ulio povjerenje u znanje, moć i etiku programera, i mi se pitamo gdje će nas ovakvi pokušaji odvesti.
Autorska prava© Matrix World 2011. do danas. Sva prava pridržana. Strogo je zabranjeno kopiranje, raspačavanje, ponovno objavljivanje ili izmjena bilo kakvog materijala koji se nalazi na blogu Matrix World bez prethodnog pisanog odobrenja dobivenog od uredništva Matrix World.
Izvori:
AI assistant turned fascist sex slave on Twitter
Trolling Tay: Microsoft’s new AI chatbot censored after racist & sexist tweets
Microsoft Chat Bot ‘Tay’ pulled from Twitter as it turns into a massive racist
Tay, Microsoft’s social AI for millennials, turns racist within 24 hours
Microsoft is deleting its AI chatbot’s incredibly racist tweets
Microsoft’s Tay AI had a dirty mouth and had to be put to bed
Microsoft Takes AI Bot `Tay’ Offline After Offensive Remarks
Tay, Microsoft’s AI chatbot, gets a crash course in racism from Twitter
Kategorije:PRIZMA DRUŠTVA, TEHNOLOGIJA I ZNANOST