A modern média csodálatos kreatúra. Egyetlen pici hírmorzsa vagy információ-szeletke alapján olyan álhírek és túlzások tudnak végigsöpörni az egész világon, amiket az eredeti történésekhez végül már az égvilágon semmi sem köti. Az elmúlt napokban a világsajtó például arról kezdett cikkezni, hogy a Facebook mesterséges intelligenciája önálló életre kelt, szóval jön az apokalipszis, meg a sikítozás és rohangálás.
A BGR nevű üzleti-tech oldal szerint például "a Facebook mérnökei pánikolnak, mivel a mesterséges intelligencia saját nyelvet fejlesztett". A DailyDot rápakolt egy lapáttal, miszerint "a Facebooknak le kellett állítania a mesterséges intelligenciáját, mivel az egy hátborzongató saját nyelvet kezdett használni". Az International Business Times már rá is kérdezett amúgy költőien, hogy "Az emberek megalkották Frankensteint?", a brit bulvárlap, a The Sun pedig arról értekezett, milyen veszélyes a mesterséges intelligenciától függeni, és akár halálos is lehet, ha ezt a technológiát harcra is képes robotokba táplálják.
Na, szóval itt a világvége, az utolsó kapcsolja le a villanyt, de ha valakinek volna egy fölös időgépe, gyorsan pottyanjon vissza a nyolcvanas évek legelejére, hogy likvidálja Mark Zuckerberg anyukáját? Természetesen szó sincs ilyesmiről.
Butácska beszélgetések
A mostani pánik egyik szikrája akkor pattant ki, amikor a Facebook fejlesztői blogján nyilvánosságra hoztak egy chat-részletet. Ebben két mesterséges intelligencia beszélget egymással, a társalgás pedig így hangzik:
Bob: én tudom én én minden mást
Alice: labdák van nulla nekem nekem nekem nekem nekem nekem nekem nekem
Bob: neked én minden mást
Alice: labdák szerezz egy labdát nekem nekem nekem nekem nekem nekem nekem
Oké, ez elsőre tényleg elég húzósan hangzik, de az égvilágon semmi köze holmi titkos kódnyelvhez, itt két chatbot beszélget, és tényleg labdákról van szó, ráadásul jól láthatóan nagyon kiforratlan módon.
Ez a "beszélgetés" egy olyan, fejlesztés közbeni pillanatkép, amikor egymásnak eresztettek két "tanácsadó chatbotot", hogy ezzel még jobban megértsék a rendszer hibáit. És jól láthatóan van még belőlük egy rakás.
A Facebook mesterséges intelligenciával foglalkozó szakemberei többek között azon dolgoznak, hogy a chatbotok (amelyek ugyebár már most is jelen vannak a Facebook csevegőszolgáltatásában) képesek legyenek emberi szövegforrásokkal megoldásokat találni bizonyos problémákra. A fenti labdás példa alapja egy olyan helyzet volt, amelyben a fejlesztők két chatbotot "eresztettek össze" azzal a feladattal, hogy igazságosan osszanak el egymás között három labdát, két könyvet és egy kalapot.
A cél nem is az, hogy két chatbot tudjon beszélgetni, hanem az, hogy ha a közeljövőben például egy webáruházban keresgél egy vevő, de nem tudja pontosan,mit szeretne, vagy valamilyen más eldöntendő problémával kerül szembe, a chatbot úgy tudjon neki segíteni, hogy a vásárló ne is törődjön azzal, emberrel beszél vagy egy gépi intelligenciával.
Még dadog a Terminá-torok
A fejlesztők persze elismerték, hogy az ilyen kísérletek járhatnak a későbbiekben azzal, hogy gépi intelligenciák egymással is szóba elegyedhetnek éles helyzetekben, de attól még nagyon messze vagyunk, hogy az ilyen helyzetek konkrét problémákat és veszélyeket okozhassanak.
Az természetesen mindig ott lebeg a fejünk fölött, hogy egy rosszakaró majd egy harci gépbe, vagy más veszélyes eszközbe próbál ilyen technológiákat beleerőltetni, de ez mindig az emberi faktor kérdése. Már most is kismillió olyan technológiai eszköz és megoldás létezik, ami potenciális veszélyt jelenthet az emberiségre a nukleáris fegyverektől a biohadviselés eszközein át a kártékony számítógépes kódokig, de ezek minden esetben csak akkor veszélyesek, ha az emberek szánt szándékkal megnyomkodják a megfelelő piros gombokat. Ezt pedig egyelőre senki sem teszi meg, szóval ha lehet, ne féljünk attól, hogy egy vérgőzös chatbotot egy gyilkos robot testébe injektál egy őrült tudós, aztán szabadon engedi Budapest utcáin. Különben is, még jó ideig csak annyit tudna mondani támadás helyett, hogy labda én nincs nekem labda nekem nekem nekem nekem.