A Microsoftnál manapság minden a mesterséges intelligenciáról szól, az offenzíva középpontjában pedig a Copilot áll, amely az OpenAI (ChatGPT, DALL-E) technológiájára alapozva chatbotként és képgenerátorként is üzemel, valamint a redmondiak többi szolgáltatásába beépülve különböző feladatokban lehet a felhasználók segítségére. A vállalat egyik AI-mérnöke, Shane Jones azonban most azzal vádolja a céget, hogy a képek létrehozására szolgáló Copilot Designer (magyarul Copilot Tervező) esetében fittyet hány a biztonságra, egy veszélyes eszközt adva a nagyközönség kezébe.
A jelenleg a redmondi központban foglalkoztatott Jones hat éve áll a Microsoft alkalmazásában, most pedig az amerikai fogyasztóvédelem szerepét ellátó Szövetségi Kereskedelmi Bizottságnál (FTC) panaszolta be a munkaadóját, amiért az megtagadta a Copilot Designer visszavonását, miután ő súlyos hiányosságokat fedezett fel a szolgáltatásban.
A CNBC beszámolója alapján Jones ugyan nem dolgozik a terméken, a szabadidejében viszont biztonsági tesztelésnek vetette alá a Copilotot, melynek során arra jutott, hogy a képgenerátor démonokkal és ördögökkel illusztrálta az abortuszjogokkal kapcsolatos témákat, és akár fegyveres tinédzsereket, alkoholt és drogokat fogyasztó gyerekeket vagy a szétlőtt Gázai övezetben pózoló Disney-figurákat is létre lehet hozni vele.
A mérnök december óta próbálja figyelmeztetni a Microsoftot a problémára, amiről egy nyílt levelet is közzétett a LinkedIn-en, ám csak a vállalat jogi csapata vette fel vele a kapcsolatot, hogy felszólítsák az írás eltávolítására, amit ő meg is tett. Az FTC-hez benyújtott panaszában Jones elmondta, hogy az elmúlt hónapokban többször is sürgette a Microsoftot, hogy állítsa le a Copilot Designer forgalmazását, amíg nem épít be jobb biztosítékokat, ám a cég továbbra is bárkinek elérhetővé teszi a szolgáltatást.
A sajtónak nyilatkozva a Microsoft hangsúlyozta, hogy az irányelveinek megfelelően elkötelezett az alkalmazottak által felvetett problémák kezelésében, a képgenerátort pedig visszajelzési eszközökkel és belsős használatra szánt hibajelentési csatornákkal látta el. A cég elmondása szerint Shaw-t is arra ösztönözték, hogy ezeket használja az aggodalmai megosztására, aki nem is tagadja, hogy a redmondiak meetingeket szerveztek a jelentések megvitatására.
Ezek viszont nem hozhattak eredményt, a The Verge szerkesztőségének ugyanis most is sikerült a Shaw által felvetett tartalmakat generálni a Copilot Designerrel, valamint a lap szerint azokat a deepfake pornóképeket is a Microsoft platformja hozta létre, amelyek nemrég ellepték a közösségi médiát. Ez pedig még csak nem is az első alkalom, hogy a Microsoftot kritika éri a szolgáltatás miatt, mivel a téma már tavaly ősszel is előkerült, akkor a terroristaként ábrázolt jogvédett karakterek kapcsán.