Chatovací robot pátrá po pedofilech v diskusních fórech

  • 35
Britský IT konzultant Jim Wightman vyvinul program, který se v diskusních fórech maskuje za člověka a pátrá zde po jedincích s pedofilními sklony. Jak se robot učí a jak je úspěšný? Poznali byste vy, kdy mluvíte s robotem a ne živým člověkem?

Chatovací robot ChatNannies představuje průnik dvou dosud samostatně se rozvíjejících oborů. V první řadě se jedná o vcelku logické pokračování vyšetřovacích metod, v rámci kterých se agenti bezpečnostních složek v diskusních fórech vydávají buď za různé zločince, nebo za potenciální oběti (např. děti) a chtějí tak vyprovokovat potenciální narušitele.
Z druhého úhlu pohledu lze na program ChatNannies pohlížet jako na jednoho z mnoha nástupců Elizy či obdobných automatických konverzačních systémů.
Turingův test zjednodušeně řečeno tvrdí, že pokud nejste schopni rozeznat (v tomto případě při on-line dialogu) program od lidského partnera, máte proti sobě systém, který lze prohlásit za inteligentní. ChatNannies předstírá, že v jeho případě se jedná o nezletilého člověka - pokud skutečně vyprovokuje a dokáže usvědčit nějakého zločince, můžeme říci, že (přinejmenším z pohledu tohoto narušitele) Turingův test zdárně složil.

K tomu, abychom ChatNannies mohli prohlásit za aplikaci skutečné umělé inteligence, se mu ale ještě nedostává univerzálnosti co do konverzačních témat. Nicméně i zde vykazuje aplikace řadu pokročilých rysů; robot totiž sleduje zpravodajské zdroje i diskusní skupiny, aby tím získal slovní zásobu vztahující se k aktuálním kulturním událostem. Tímto způsobem obohacuje svoji slovní zásobu - učí se rovnou i celé fráze, které používají ostatní chatující. "Inteligence" softwaru díky tomu není statická, ale podobně jako lidské znalosti se vyvíjí v čase - dokonce se uvažovalo o možnosti navěsit takový učící se systém na digitální reprezentaci zemřelého člověka a takto ho dále "udržovat in".

ChatNanies je navíc na síť vypuštěn v celé řadě variant; každá z nich obohacuje svoji slovní zásobu a debatní témata podle určitých pravidel (byť samozřejmě nutně také pod vlivem náhody). Díky tomu získávají jednotliví roboti podle záměru svého tvůrce postupně individuální odlišnost, téměř by se chtělo říct osobnost. Wightman už takto vypěstoval asi 100 000 jedinců.

ChatNannies v tuto chvíli funguje tak, že v případě objevení něčeho podezřelého automaticky kontaktuje svého tvůrce. Ten pak uváží, zda je podezření na trestný čin oprávněné, a až po této lidské kontrole je informována policie. Údajně se již objevila i řada softwarových firem nabízejících Wightmanovi finanční prostředky výměnou za technologické partnerství, ten ale prozatím podobné nabídky odmítal.

Člověk vs. stroj

Počátek konverzace člověk vs. robot ChatNannies podle časopisu New Scientist. Forma rozhovoru odpovídá zvyklostem panujícím v internetových diskusních serverech. Dokážete odlišit, kdo je kdo?

A - hi
B - hi, how are ya?
A - i'm good. whats new man?
B - nothing much - i just dropped in when i was checking my mail. no-one here!
A - heh yeah it is kinda quiet... you know why though don't you!
B - no, why?
A - national holiday in the uk!
B - what, thursday? i don't know any national holiday on thursday! and besides wouldn't that mean there were more people not less?

Záznam konverzace chatbota Nannies s lidským partnerem lze najít např. na stránce New Scientistu. Dokážete z textu poznat, kdo je kdo? A test druhého řádu - pokud budete znát řešení (stránky New Scientistu ho prozradí), dokážete alespoň zpětně v robotově části dialogu odhalit něco nápadného? Nadšení z "inteligence" systému je třeba pouze lehce zchladit skutečností, že Nannies simuluje dítě - v tomto případě se nekonzistence a různé přeskakování téma od tématu v rozhovorech objevují i zcela přirozeně. Odhalení robota mezi dětmi je pak samozřejmě těžší než mezi dospělými diskutéry. Na závěr zbývá dodat, že po softwaru Eliza, který simuloval chování psychoterapeuta, se brzy objevil jeho umělý protějšek Parry - robot předstírající, že je člověkem stiženým paranoidními bludy. Analogicky lze předpokládat, že po policejním agentovi brzy naopak vznikne software předstírající příslušnou deviaci a zájemci o umělou inteligenci budou moci studovat také konverzací dvou umělých systémů...

Článek byl připraven ve spolupráci s časopisem Computerworld.


Témata: aplikace, Robot, software