Mindenki örül, ha fizikai orvoslátogatás nélkül úszhatja meg egy panasz kezelését, ha pedig a gyereknek akad egészségügyi problémája, különösen hálás tud lenni a gyors és szakszerű távbeavatkozás. Egy kaliforniai apának mégis a poklot kellett megjárnia, miután tavaly egy duzzanatot észlelt a totyogó korú gyermeke nemi szervén, ami orvosi kérésre az androidos mobilját használva fotókkal is dokumentált a videós konzultáció előtt.
Magát a duzzanatot szerencsére egy egyszerű antibiotikumos kúrával sikerült kezelni, az apa viszont néhány nap múlva értesítést kapott a Google-től, hogy a mesterséges intelligencia-alapú szűrő gyermekek szexuális zaklatásával kapcsolatos anyagot (Child Sexual Abuse Material, CSAM) észlelt a Google Fotók-tárhelyén, ezért egy emberi moderátor felülvizsgálatát követően letiltották a fiókját - számolt be róla a The New York Times. A férfi próbált fellebbezni, ám a Google csuklóból elutasította a kérelmét.
Ez még csak a kisebb gond lett volna, az érvényes protokollt követve azonban a vállalat ilyenkor értesíti az ügyről az Eltűnt és Kizsákmányolt Gyermekek Nemzeti Központja (NCME) nevű szervezetet, akik meg is tették a feljelentést a rendőrségnél. A NYT cikke szerint hónapokba telt, mire a San Franciscó-i nyomozók lezárták az eljárást, és tisztázták az apa nevét, aki persze eközben nem férhetett hozzá a Google-fiókjához és az azon tárolt adatokhoz sem.
Az eset ismét felveti a kérdést, hogy mennyire helyénvaló-e az a gyakorlat, hogy egy nagy cég az emberek magánjellegű fotói között szimatolva önhatalmúlag olyan lépéseket tesz, amelyek végül rendőrségi eljáráshoz vezethetnek. A történetet még rémisztőbbé teszi, ha belegondolunk, hogy közel sem lehetetlen visszaélni egy ember telefonjával, akár a készülék ellopásával, akár a távoli feltörésével.
A The Verge kérdésére válaszolva a Google azzal védekezett, hogy az automatikus ellenőrzésre csak a felhasználó "igenlő" magatartásával kerülhet sor, a gyakorlatban viszont már az is ennek minősül, ha az illető beleegyezik a galériája Google Fotókba történő biztonsági mentésébe, ahol aztán megtörténik maga a szűrési folyamat.
A keresőóriás korábbi jelentése szerint tavaly 621 583 esetet jelentettek az NCME-nek, amelyek alapján a gyermekvédelmi szervezet végül 4260 potenciális áldozatról értesítette a hatóságokat. Nem a Google azonban az egyetlen, aki így igyekszik kiszűrni a pedofil tartalmakat: az Apple tavaly megpróbált bevezetni egy hasonló rendszert, ám akkora felháborodás lett belőle, hogy végül visszatáncolt a vállalat.