A mesterséges intelligencia bevetésével járó kockázatok nemcsak a hollywoodi forgatókönyvírókat foglalkoztatják, hanem a törvényhozókat is, így például az Európai Unió már 2021 óta dolgozik a terület átfogó szabályozásán, míg az Egyesült Államok elnöke, Joe Biden tavaly ősszel adott ki egy rendeletet, utasítva a kormányzati szerveket a szükséges regulák meghozatalára.
Az utóbbi értelmében pedig rövidesen szorosabbra fűzhetik a gyeplőt az új technológiákkal kísérletező vállalatokon, méghozzá nemzetbiztonsági okokra hivatkozva.
A Mashable a Wired és a Reuters hírügynökség beszámolói alapján nemrég arról írt, hogy az Egyesült Államok kereskedelmi miniszteri posztját betöltő Gina Raimondo a Stanford Egyetem rendezvényén jelentette be, hogy szigorú ellenőrzés alá vonják a privát szektor AI alapmodellekre vonatkozó kutatásait.
"A Defense Production Act törvényt arra használjuk [...], hogy felmérést végezzünk, amely megköveteli a vállalatoktól, hogy minden alkalommal, amikor egy új nagy nyelvi modellt képeznek ki, osszák meg velünk az eredményeket - a biztonsági adatokat -, hogy átnézhessük azokat."
- mondta Raimondo. Az említett törvényt még 2021-ben léptették életbe, és eredetileg arra szolgált, hogy növelje a koronavírus elleni védekezéshez szükséges termékek és felszerelések termelését. Az amerikai kormány által előkészített változtatás a gyakorlatban azt jelenti, hogy a tech cégeknek részletesen be kell majd számolniuk az új nagy nyelvi modellekkel kapcsolatos fejlesztésekről és azok biztonsági tesztelésének eredményeiről, s így a politika még idejében kiszűrheti a nemzetbiztonsági, nemzetgazdasági, társadalmi vagy akár egészségügyi kockázatokat.
Ezzel pedig még nincs vége, a kereskedelmi miniszter ugyanis hozzátette, hogy a jövőben az olyan nagy felhőszolgáltatók, mint az Amazon, a Google vagy a Microsoft is kötelesek lesznek beszámolni róla, ha egy külföldi szereplő nyelvi modellek betanítására használja a cloud computing infrastruktúrájukat. E sorok írásakor még nem tudni, hogy mikor lépnek életbe a tervezett szigorítások.