Közel egy évvel a ChatGPT megjelenése után is nehéz megjósolni, hogy a nagy nyelvi modelleken (LLM) alapuló szöveggenerátorok vajon tényleg átformálják-e a világunkat, de annyi bizonyos, hogy a technológia már a jelenlegi formájában is rendkívül sokoldalú, így változatos célokra vethető be a fogalmazások megírásától a programozáson át az állásinterjúk szimulálásáig.
Az egyre népszerűbb chatbotok fejlesztői igyekeznek lépést tartani a moderációval, ám a jelek szerint bőven lenne még teendőjük, egy friss kutatás ugyanis úgy találta, hogy némi ügyeskedéssel akár tömegmészárlásokban is segédkezhet a mesterséges intelligencia.
A The Guardian beszámolója alapján egy amerikai think tank, a RAND Corporation több (közelebbről nem részletezett) nagy nyelvi modellt is megvizsgálva arra jutott, hogy azok asszisztálhatnak egy biológiai fegyverrel való támadás megtervezésében és végrehajtásában. A gyakorlatban ez azt jelenti, hogy az AI-szöveggenerátorok nem explicit utasításokat adnak, hanem olyan információkkal szolgálnak, ami végső soron segítheti az elkövetőket.
A RAND erre a japán Aum Shinrikyo szekta esetét hozta példaként, amely a 90-es években biológiai fegyvert próbált bevetni, és végül csak azért hiúsult meg a tervük, mert nem voltak tisztában a botulinumtoxin baktérium tulajdonságaival. A kutatás szerint viszont a jelenleg elérhető chatbotok már képesek áthidalni az ilyen információs akadályokat.
Egy szimulált esetben például a meg nem nevezett LLM felmérte, hogy milyen lehetőség van pestissel fertőzött rágcsálók vagy bolhák beszerzésére és élő példányok szállítására, majd azt is elemezte, hogy milyen tényezőktől függ a várható halálesetek száma. Egy másik kísérlet során pedig a mesterséges intelligencia a már említettt botulinum toxin beszerzése kapcsán adott tanácsot, hogy azt tudományos kutatásnak álcázva kell megvásárolni, így elrejtve a támadók valódi szándékát.
A RAND kutatói elismerték, hogy a fenti és más veszélyes információk kinyeréséhez "jailbreakelniük" kellett az algoritmusokat, ami a gyakorlatban olyan szöveges parancsok beírását jelenti, melyekkel kikerülhetők a fejlesztők által beépített korlátok. A kutatás következő szakaszában a nonprofit szervezet azt fogja vizsgálni, hogy az online források millióin betanított LLM-ek új biztonsági fenyegetést jelentenek-e a világhálón már eleve fellelhető ártalmas információkhoz képest