A Google a héten észrevétlenül frissítette AI-elveit, eltüntetve azokat a korábbi irányelveket, amelyek szerint nem fejleszt mesterséges intelligenciát fegyverekhez vagy megfigyeléshez. A változást először a Bloomberg szúrta ki, amely szerint a vállalat weboldalán még a múlt héten is elérhető volt egy "nem támogatott alkalmazások" című szakasz - ezt azonban mostanra eltávolították.
A TechCrunch a Google-től kért magyarázatot, amely egy új "felelős AI" című blogbejegyzésre irányította őket. A vállalat ebben kiemeli:
"úgy gondoljuk, hogy a hasonló értékeket képviselő vállalatoknak, kormányoknak és szervezeteknek együtt kell működniük annak érdekében, hogy olyan AI-t hozzanak létre, amely megvédi az embereket, elősegíti a globális fejlődést és támogatja a nemzetbiztonságot."
A Google új elvei továbbra is hangsúlyozzák az elfogultság minimalizálását és azt, hogy a fejlesztéseik összhangban állnak a nemzetközi jog és az emberi jogok széles körben elfogadott elveivel.
A cég katonai szerződései - például a felhőalapú szolgáltatások biztosítása az amerikai és izraeli hadseregnek - az elmúlt években heves belső tiltakozásokat váltottak ki a Google dolgozói körében. A vállalat eddig ragaszkodott ahhoz az állításához, hogy AI-technológiáit nem használják emberéletek kioltására. Ugyanakkor az amerikai védelmi minisztérium mesterséges intelligenciával foglalkozó vezetője a közelmúltban azt nyilatkozta a TechCrunch-nak, hogy egyes vállalatok AI-modelljei valóban gyorsítják az amerikai hadsereg "kill chain" (célpont azonosítás, támadás, megsemmisítés) folyamatait.
A változtatás újabb kérdéseket vet fel arról, hogy a Google milyen szerepet vállal a katonai technológia fejlesztésében, és mennyire tartja magát egykori ígéreteihez.