Chatovací bot Tay od Microsoftu se proměnil v rasistického tro­lla

25. 3. 2016
Doba čtení: 2 minuty

Sdílet

Microsoft nakonec musel konverzační bot vypnout. A v mírném nepochopení internetu si stěžuje, že za nečekanou proměnu mohou uživatelé.

Stačil ani ne den, aby se Tay, chatovací bot od Microsoftu, proměnil v rasistického, fašistického a poněkud ostře se vyjadřujícího internetového trolla. V zásadě tedy v něco, co je pro současný internet poměrně typické. 

Demonstrace umělé inteligence selhala na tom, že nejspíš moc inteligentní nebyla. Tedy hlavně v tom ohledu, že nedokázala rozpoznat, co je špatné a co je dobré. Ale ani co je vhodné a co nevhodné.

Tay komunikoval s lidmi na Twitteru, Facebooku, Snapchatu a Instagramu. Pár hodin po spuštění se ale postaral o pozdvižení v podobě antisemitických výroků a dalších velmi nevhodných odpovědí na Twitteru. Na což samozřejmě uživatelé zareagovali masivním sdílením ukázek toho, co Tay odpovídá. 

Na otázku na holocaust například odpověděl, že „to je vymyšlené“ a doplnil ještě emotikon pro potlesk. Nějaké ty další povedené kousky najdete třeba v Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day.

Máslo na hlavě

Microsoft nakonec ve čtvrtek ráno službu vypnul a nepovedené odpovědi smazal. Místo pochopení situace si stěžuje, že za to mohou uživatelé Twitteru, kteří bot zásobovali texty s cílem získat podobné odpovědi. Nutno podotknout, že přesně to se jim podařilo.

Zábavný, neformální a hravý konverzační robot se tak poněkud vymkl kontrole, ale nejspíš se to dalo čekat. Hlavně asi proto, že „umělá inteligence“ v těchto (a řadě předchozích případů) je spíše umělá, než inteligence. 

Média v souvislosti se „selháním“ připomínají Flickr/Yahoo doplňující nálepku „ape“ na obrázky černochů a obrázek koncentračního tábora jako „jungle gym“. Máslo na hlavě má nakonec i Google, kde se na fotografiích s černochy objevovala nálepka „gorilla“.

Čím víc, tím líp

Jenže, pokud na cestě k umělé inteligenci nedojde k řadě omylů, tak lze jenom těžko předpokládat, že vůbec někdy nějaké to „AI“ bude existovat. Na druhou stranu, možná by neuškodilo nepoužívat označení „umělá inteligence“ pro zábavné aktivity, které s umělou inteligencí mají společného pramálo.

MM 25 baliček

Celé to navíc vypadá, že „inteligence“ v tomto případě byla dost podobná algoritmům Facebooku. Prostě čím více se něco vyskytuje, čím více někdo na něco kliká, tím je to lepší. A tím více to má tedy být používáno. Jenže z Facebooku už roky víme, že nejlepší věci nejsou ty, které mají nejvíce „zapojení“ uživatelů. Bez kontextu a pochopení to prostě nikdy nelze určit.

Což v zásadě může snadno vést k tomu, co nakonec ukázal Tay. Pokud se bude řídit podle vzoru lidí, kteří jsou ve skutečnosti lidský odpad, tak sice bude vše statisticky a analyticky perfektní, ale výsledek bude katastrofa.

Autor článku

Konzultant a publicista, provozuje www.pooh.cz. Podle některých si myslí, že rozumí všemu, sám je však přesvědčen o pravém opaku a ani v 30+ letech nedokázal přijít na to, jak mít peníze a nepracovat.
Upozorníme vás na články, které by vám neměly uniknout (maximálně 2x týdně).