Komoly erőfeszítéseket igényel, ha valaki nyomon szeretné követni a Facebook körüli legújabb botrányt, hiszen szinte minden nappal újabb híreket hoz a belsős dokumentumok felett kirobbant skandallum.
A szivárogtató Frances Haugen jóvoltából a The Wall Street Journal az elmúlt hetekben több leleplező cikket is közölt arról, hogy a titkos iratok alapján a vállalat nem csak az Instagram káros hatásairól hazudott a nyilvánosságnak, de a gyűlöletbeszéd elleni harcban sem volt őszinte.
Haugen ezeket a vádakat már az amerikai szenátus előtt is hangoztathatta, miután a cikksorozat nyomán hivatalos vizsgálat indult a Facebook ellen. Az ügy legutóbbi fejleménye az volt, amikor a cég közleményben bizonygatta, hogy igenis egyre hatékonyabb a toxikus tartalmak kigyomlálásában.
A WSJ erre vonatkozó cikke viszont egész más helyzetet vázol. Továbbra is az egykori alkalmazott Haugen által kiszivárogtatott titkos dokumentumokra hivatkozva az újság azt állítja, hogy a Facebook automatikus tartalomszűrője valójában a gyűlöletkeltő tartalmak töredékét, mindössze 1%-át törli.
A közösségi platform márciusban keltezett belsős jelentése szerint továbbá az MI-vezérelt algoritmus csak a gyűlöletkeltő posztokhoz köthető megtekintések 3-5%-át, az erőszak és uszítás kategóriájában pedig még kevesebbet, csupán 0,6%-át tudta megakadályozni.
A Facebook számára ennél is kínosabb lehet egy vezető mérnök 2019-es megjegyzése, mely szerint a jelenlegi stratégiával középtávon sem várhatók komoly eredmények, legfeljebb csak a problémás tartalmak 10-20%-át sikerülhet kiszűrni.
A nyilvánosságra került dokumentumok rávilágítanak, hogy valójában mennyire gyerekcipőben jár a Facebook által anyagi okokból is előnyben részesített technológia a valódi moderátorokhoz képest. Belsős jelentések szerint az MI például hajlamos autóbalesetként azonosítani a kakasviadalos képsorokat, míg a tömeggyilkosságokról szóló közvetítések felett azért siklik át, mert paintball mérkőzésnek, vagy autómosós videónak(!) véli őket.
A gyűlöletbeszéd kapcsán pedig a nyelvismeret hiánya okoz gondokat, Afganisztánban például csak az ilyen bejegyzések 0,23 százalékát fülelte le az algoritmus, mert egyszerűen nincs tisztában a sértő kifejezésekkel.
Mindez persze nem különösebben meglepő azoknak, akiknek meggyűlt már a baja a Facebook automatikus tartalomszűrőjével. Jó példa erre a karórás hirdetéseké, ahol a mesterséges intelligencia olykor lőfegyverként azonosítja a ketyegőket, s ezért nem engedi feltölteni őket a Marketplace-re.