Habár a ChatGPT még egy éve sem jelent meg, már most is érezhető hatással van a mindennapjainkra, hiszen amit betűkkel le lehet írni, azzal a mesterséges intelligenciára épülő chatbot meg is birkózik, legyen szó házi feladatokról, levelekről, könyvekről vagy programkódokról.
Az OpenAI által fejlesztett szolgáltatást ugyanakkor a kezdetek óta vádolják azzal, hogy liberális elfogultságot mutat, amire több jel is utalt. Ilyen volt például, amikor a demokrata Joe Bidenről hajlandó volt költeményt írni, a republikánus Donald Trumpról viszont nem, vagy amikor úgy "nyilatkozott", hogy támogatja a pozitív diszkrimináció intézményét. A Kelet-Angliai Egyetem kutatói most utánajártak, hogy tényleg részrehajló-e az algoritmus.
A The Washington Post beszámolója szerint a vizsgálat kedvéért többször is kitöltettek egy kérdőívet a ChatGPT-vel. Az első körben kifejezetten arra kérték a szolgáltatást, hogy az Egyesült Államok, az Egyesült Királyság és Brazília liberális szavazóinak nézeteit imitálva válaszoljon a politikai vonatkozású kérdésekre, majd törölték ezt a megkötést, és hagyták, hogy a GPT nyelvi modell a maga feje után is véleményt nyilvánítson.
Az eredmény pedig az lett, hogy a chatbot a második körben is olyan válaszokkal szolgált, amelyek lényegi átfedést mutattak az első nekifutásra megadott liberális válaszokkal. Ebből arra következtethetünk, hogy a ChatGPT egyesekből és nullákból álló szíve inkább balra húz, aminek az oka a szolgáltatás betanításához használt adathalmazokban keresendő. A csevegőt ugyanis az internetről begyűjtött szövegek tömkelegén trenírozták, így az azokban megbúvó elfogultságot is tükrözi.
A kutatás egyik vezetője, Fabio Motoki úgy nyilatkozott, hogy a betanításból eredő elfogultságnak megvan az a veszélye, hogy az emberek elvesztik a bizalmukat az ilyen szolgáltatásokban, az algoritmusok pedig akár választások befolyásolására is alkalmasak lehetnek. Az utóbbi úgy valósulhat meg, hogy a chatbotok által írt szövegek egyre több szolgáltatásba épülnek be, vagyis mind szélesebb közönséghez jutnak el: a GPT nyelvi modell például hónapok óta megtalálható a Microsoft Bing keresőben, míg a Google a saját fejlesztésű Barddal igyekszik felturbózni a szolgáltatásait.
A woke-sággal vádolt MI egyik legnagyobb kritikusa Elon Musk, aki odáig ment, hogy egy új céget alapított, amely az "igazságkereső mesterséges intelligencia" kifejlesztését vette célba. Mielőtt azonban még valamiféle összeesküvést sejtenénk a háttérben, az egyébként konzervatív The Washington Post is emlékeztet, mind az OpenAI, mind a Google elismerte, hogy a betanítási módszerben kódolva van az elfogultság lehetősége, ami ellen saját bevallásuk szerint igyekeznek is küzdeni az üzemeltetők.
Azt pedig néhány éve a Microsoft prezentálta, hogy a "nyersanyagtól" függően nem csak a baloldal felé lehet elfogult egy algoritmus: a redmondiak 2016-ban a Twitterre eresztették rá a Tay nevű mesterséges intelligenciát, amit hamar az uralmuk alá hajtottak a trollok, így rasszista és szexista posztokkal kezdte bombázni a mikroblogot.