Ennek a blogbejegyzésnek az indítója az SG.hu-n megjelent “A mesterséges intelligenciamodellek tökélyre fejlesztették a mellébeszélést” című cikk volt. Ezt elolvasva felmerült bennem néhány kérdés, amit véleményem szerint, érdemes körbejárni, mielőtt ítéletet hozunk.
A mesterséges intelligenciával kapcsolatos egyik legnagyobb félelem és zavar ma az, hogy vajon mennyire bízhatunk meg abban, amit egy gép mond – főleg, ha az a gép már úgy ír, beszél és érvel, mint egy ember. De vajon tényleg jogos elvárás, hogy egy AI mindig igazat mondjon? És egyáltalán: mi az igazság, és ki dönti el, hogy mi az?
Az AI és az igazság: statisztika, nem szándék
A nagy nyelvi modellek – mint a ChatGPT vagy a Gemini – nem azért “nem mondanak igazat”, mert hazudni akarnának, hanem mert fogalmuk sincs arról, mi az igazság. Ezek a modellek statisztikai mintázatok alapján generálnak szöveget: azt írják le, ami a tanító adathalmazban a legvalószínűbb válasz. Nem empirikus megfigyelés, nem tudatos döntés, hanem puszta valószínűség. Ezért lehet, hogy egy AI magabiztosan állít valamit, ami teljesen téves – vagy éppen “hallucinál” adatokat, neveket, eseményeket.
De vajon miben más, ha ugyanezt egy ember teszi? Harry Frankfurt filozófus szerint a mellébeszélés (bullshit) nem ugyanaz, mint a hazugság: a hazug legalább tudja, mi az igazság, és szándékosan mond mást, míg a “bullshitelő” egyszerűen nem törődik az igazsággal, csak meggyőzni akar. A generatív AI-k pont ilyenek: nem szándékosan hazudnak, csak a hihetőségre és a meggyőző erőre optimalizálnak, nem az igazságtartalomra.
Az emberi szövegekben ott van a személyes tapasztalat, az érzelmek, az egyedi nézőpontok, sőt, a szándékos ferdítés vagy a kreatív túlzás is. Egy AI viszont nem tud saját élményeket, véleményeket vagy szándékokat belevinni: amit ír, az mindig a tanult minták összegzése, személyes átélés nélkül.
Miért várjuk el az igazat az AI-tól?
Azért, mert emberként megszoktuk, hogy a beszélő felelősséget visel a szavaiért – még ha nem is mindig mond igazat. Egy újságírót, tudóst vagy tanárt számon lehet kérni, ha téved vagy szándékosan félrevezet. Egy AI-t viszont nem lehet “felelősségre vonni” – nincs szándéka, nincs erkölcsi érzéke, nincs tétje annak, hogy igazat mond-e vagy sem.
Ráadásul az AI-k egyre meggyőzőbben, emberi stílusban kommunikálnak, így könnyű elfelejteni, hogy nincs mögöttük valódi megértés vagy tapasztalat. Ezért veszélyes, ha automatikusan igazságforrásként kezeljük őket, miközben valójában “bullshit-gépek” is lehetnek.
Ki dönti el, mi az igazság?
Az igazság kérdése azonban nemcsak AI-nál, hanem embereknél is bonyolult. Az emberek is tévednek, ferdítenek, elfogultak lehetnek, vagy egyszerűen csak másképp látják a világot. A “mi az igazság?” kérdése gyakran nem egyértelmű – különösen komplex, vitatott vagy gyorsan változó témákban.
Az AI esetében a fejlesztők, a trénerek, sőt, a felhasználók is befolyásolják, hogy milyen minták, források és értékek alapján dönt a modell. Egyes kutatók szerint ezért nem is egyetlen “igazságot” kellene elvárni, hanem átlátható, ellenőrizhető, forrásokra hivatkozó válaszokat, amelyeket emberek validálnak és vitatnak meg.
Ezt egyébként már több modell is elkezdte használni, a ChatGPT vagy a Perplexity AI is megosztja, hogy milyen forrásokból dolgozott. Ezeket lehet ellenőrizni, és helyesbíteni a modellek által írt szövegen.
Post-truth, képernyőidő és a gépi szövegek kritikátlan elfogadása
Nem szabad figyelmen kívül hagyni azt sem, hogy a „post-truth” korszakban élünk, ahol az objektív tények jelentősége egyre inkább háttérbe szorul az érzelmek és a személyes meggyőződések javára. Ehhez társul a COVID-19 járvány hatása: a megnövekedett képernyőidő, a digitális információfogyasztás robbanásszerű növekedése és az online kommunikáció mindennapossá válása. Ezek együtt oda vezettek, hogy naponta óriási mennyiségű tartalommal találkozunk, de egyre kevesebb időt és energiát fordítunk azok kritikus feldolgozására.
Ebben a környezetben könnyebben elfogadjuk, amit a gép ír – főleg, ha az AI által generált szöveg meggyőző, gördülékeny és emberi stílusban íródott. A digitális túlterheltség és a folyamatos információáradat miatt hajlamosabbak vagyunk kritikátlanul átvenni az AI “véleményét” vagy “tudását”, anélkül, hogy alaposan utánajárnánk vagy ellenőriznénk a forrásokat. Ez a tendencia valós társadalmi kockázatot jelent: a gépi tartalmak kritikátlan befogadása tovább erősítheti a félretájékozottságot, a dezinformációt és a bizonytalanságot – épp akkor, amikor a hiteles, megbízható információra a legnagyobb szükség lenne.