Egyelőre nehéz megjósolni, hogy a ChatGPT és a hozzá hasonló szöveggenerátorok miként hatnak majd az oktatásra, hiszen a számonkérésben ma is nagy hangsúlyt kapnak a diákokkal íratott beadandó esszék, amelyeket akár a chatbotra is rá lehet bízni, s bizony nem könnyű lebuktatni azt, aki fordít egy kis extra időt az MI által összedobott szöveg finomítgatására.
A Texas A&M Egyetem kereskedelmi képzésén oktató Jared Mumm azonban úgy gondolta, hogy az ellenőrzéshez elég csupán rákérdezni a ChatGPT-nél, hogy tőle ered-e egy bizonyos a szöveg, az algoritmus pedig tökéletesen megbízható választ ad. Igazából viszont nem egészen így működik a dolog, a tévedéséért pedig a diákjainak kellett megfizetnie.
Elsőként egy Reddit-poszt hívta fel a figyelmet az egyetemen történtekre. A két napja megosztott bejegyzésben olvasható e-mail alapján az intézmény rodeóedzőjeként is aktív Mumm arról tájékoztatta egy végzős osztály tagjait, hogy többük esszéit sem fogja leosztályozni, mivel kétszer is bemásolta őket a ChatGPT-be, amely a kérdésére felelve azt állította, hogy ő maga írta a szövegeket
A bökkenő viszont az, hogy korábban maga a chatbot fejlesztője, az OpenAI is felhívta rá a figyelmet, hogy a generátor nem alkalmas az MI-vel írt anyagok felismerésére. Ugyan vannak olyan szolgáltatások, amelyek ezt állítják magukról, de még ezek sem működnek 100%-os megbízhatósággal, és az oktató egyébként sem ilyet használt.
Az első beszámolók még arról szóltak, hogy Mumm az egész osztály visszatartotta a diplomázástól, a PC Mag viszont kapcsolatba lépett a Texas A&M Egyetemmel, az intézmény pedig közölte, hogy egyetlen diákot sem buktattak meg, és hogy senkit sem tiltottak el a képzés befejezésétől.
"Jelenleg több hallgatót is felmentettek és megkapták a jegyüket, míg egy diák elismerte a Chat GTP [sic] használatát a kurzuson. Több más hallgató továbbá úgy döntött, hogy egy új, számukra elérhetővé tett írásbeli feladatot teljesít."
Magyarán a ChatGPT-nek hivatalosan csak egyetlen csalót sikerült "elkapnia", miközben többen is tisztázták magukat az ügyben. Az egyetem most azt ígéri, hogy új irányelveket dolgoz ki a mesterséges intelligencia használata kapcsán, és hogy a generatív modellekkel készült tartalmak felfedezésére szolgáló eszközöket is bevet majd a hasonló félreértések elkerülése érdekében.
A történet jó alkalom arra, hogy ismét emlékeztessük az olvasóinkat: a ChatGPT olykor teljesen légből kapott állításokat is hajlamos a legnagyobb magabiztossággal előadni, így sosem szabad készpénznek venni a chatbot válaszait.