A mesterséges intelligencia platformok már több mint egy éve terjednek a világhálón. Bár legtöbbször szövegírásra és képalkotásra használjuk őket, alkalmazásuk nem korlátozódik ezekre. Az orvostudománytól elkezdve a mérnöki tevékenységeken át a logisztikáig számos felhasználási területe van már a technológiának, és napról napra egyre több lesz.
Ahogy a késsel is lehet kenyeret kenni és embert ölni, úgy az AI is felhasználható egy sor olyan dologra, ami jobb esetben csak erkölcstelen, rosszabb esetben törvénybe is ütközhet. Miután a mesterséges intelligencia támogatta felületeket elkezdték ártalmatlan kódolásra használni programozók, onnan már csak egy ugrás volt, hogy a hackerek is felfedezzék maguknak az újdonságot.
A Microsoft és az OpenAI szerint különböző országok kormányának dolgozó hackerek előszeretettel használják a nagy nyelvi modellekkel dolgozó (LLM) AI-szoftvereket tevékenységük hatékonyabbá tétele érdekében. Ezek közé tartozik saját fejlesztésű platformjuk, a ChatGPT is.
Az OpenAI egy minap megjelent nyilatkozata szerint több nagyszabású akciót hajtott végre különböző államokhoz köthető hackercsoportok ellen. Saját kimutatásuk alapján a nagyrészt orosz, észak-koreai, iráni és kínai hackerek a célpontok beazonosítására, szkriptek javítására és különböző tervezési taktikák kidolgozására használják a cég fejlesztéseit.
Állításuk szerint öt ilyen csoport tevékenységét sikerült beazonosítaniuk. Ilyenek például a kínai Charcoal Typhoon és Salmon Typhoon, az Iránhoz köthető Crimson Sandstorm, az észak-koreai Emerald Sleet és az orosz Forest Blizzard. A cég közlése szerint a hozzájuk kapcsolódó fiókokat haladéktalanul megszüntették.
Közülük talán az orosz Forest Blizzard tevékenysége volt a legaggasztóbb, mivel az ukrán hadsereg műholdas kommunikációs protokolljai, valamint radarképalkotási technológiái megismeréséhez, és műszaki paramétereik megértéséhez használta az OpenAI nagy nyelvi modelljét. Bár valóban elég aggályosnak tűnik ez a tevékenység, bőven van vaj a többi érintett csoport fején is.
A Salmon Typhoon különböző kormányzati és amerikai védelmi tevékenységekkel kapcsolatos vállalkozásokat célzott meg az ismert AI-platformmal, az észak-koreai, illetve iráni csoportok pedig adathalász üzeneteket gyártottak a program segítségével.
Bár az OpenAI azt állítja, hogy egyelőre nem észleltek jelentős mértékű LLM-használatot a fenti csoportokhoz kapcsolódó más felhasználók részéről, a biztonság kedvéért mindet leállították. Az eset több más mellett rámutat arra, hogy még bőven van mit tenni az AI technológiák környékén a kiberbiztonsági szakembereknek.