close
Címlap4. Minőségi oktatásAI vagy nem AI? Ez itt a kérdés!

AI vagy nem AI? Ez itt a kérdés!

A jogalkotók általában csak szaladnak a technikai megoldások után. Nincs ez másként a mesterséges intelligencia esetében sem, ám közben a világ nem áll meg. Hogyan alkalmazzuk etikusan a mesterséges intelligenciát? Dr. Hohmann Balázst, a PTE jogi kar Technológiai Jogi és Energiajogi Tanszékének adjunktusát kérdeztük.

A mesterséges intelligencia korábban is exponenciálisan fejlődött - miért pont a Chat GPT és a hozzá hasonló rendszerek, amik kiverték az embereknél a biztosítékot?
Úgy gondolom, azért keltette fel a társadalom figyelmét, mert sokkal közelebb került hozzánk az alkalmazás, és a korábbinál kézzelfoghatóbb, plasztikusabb az eredmény, amit a mesterséges intelligencia generál. Az emberiség talán egyik legfontosabb készsége, a nyelviség jelenik meg benne, és átlagemberek is tudnak a maguk számára hasznos eredményeket felmutatni általa. A másik áttörés az angoltól eltérő nyelvek adekvát használata. Létezik egy úgynevezett Turing-teszt, ami szerint, ha egy ember öt percen át tud beszélgetni anélkül, hogy felismerné, hogy egy géppel kommunikál, akkor a számítógép átment a teszten. Ezt angolul nagyjából sikerült megugrani korábban is, de a nagy nyelvi modellek áttörést jelentettek, hiszen más nyelveken is sikerrel jártak.

Milyen alapon használják fel a szövegeket? Amikor olvasás nélkül elfogadom a a programok különböző feltételeit, abban rejtve benne van, hogy engedélyezem, hogy felhasználják?
Ez a legnagyobb aggály a Chat GPT-vel és a hasonló alkalmazásokkal kapcsolatban! Általában a beszerzett adatok forrása bizonytalan, sőt, vélhetően jogszerűtlen. Nem is beszélnek túl sokat róla a fejlesztők, de az látszik, hogy ahhoz, hogy ezt a szintet elérjék, élő kommunikáció – chatüzenetekre, hanghívásokra és kétirányú írásos kommunikációra – feldolgozásáravolt szükség. Valóban biztosítanak ezek a platformok némi lehetőséget arra, hogy a hátsóajtón kiszökjenek az információk, de lássuk be: mi magunk töltöttük meg ezt a rendszert adatokkal. Nem véletlenül ugrottak a kérdésben az európai adatvédelmi hatóságok, és tiltották be néhány tagállamban a használatát addig, míg erre nem kapnak adekvát válaszokat.

Ha nekem ez nem tetszik, és nem akarom, hogy kvázi ellopják, kihallgassák a dolgaimat, mit tudok tenni azon kívül, hogy örökre kikapcsolok mindent?
Ez valóban nem alternatíva. Annyit tudunk javasolni, hogy érdemes mélységében átnézni az adatvédelmi beállításokat, és eldönteni, miben kötünk kompromisszumot és miben nem. Ez sem véd minden ellen, de biztosan tisztába kerülünk azzal, hogy mire számíthatunk egy adott platformon, adott esetben ez ösztönözheti azt is, hogy platformot váltsunk. A fiatalok közül például sokan mellőzik egyes platformok használatát, és széttagoltabb, divergens képet mutat az, hová iratkoznak fel. Közülük sokan választanak olyan platformokat vagy alkalmazásokat, amelyek garantálják, hogy csak korlátozott ideig elérhetőek a megosztott tartalmaik, vagyis aktívan tesznek adataik védelméért. Sok tekintetben azért is, mert maguk is tapasztalják ennek fontosságát: a ma elsőéves egyetemista korosztály 10–20 százalékával történt már valamiféle visszaélés, adatlopás, kizárás a felhasználói fiókból, ismerősi lista megszerzése, stb. Nyilván emiatt is figyelik élesebb szemmel a különböző megoldásokat.
Az látszik, hogy az olyan államokban, melyekben a jogállami keretek nem teljesen tisztázottak/érvényesíthetők, kifejezetten ügyelnek arra, hogy milyen platformot engednek az adott fogyasztói piacon használni - vagy éppen saját platformokat alakítanak, mint ahogy azt Oroszország vagy Kína esetében látjuk. Ma a közösségi médiának van talán az egyik legnagyobb társadalomformáló ereje, a legfrissebb felmérések alapján, a fiatal korosztály 20 %-a folyamatosan online, vagyis teljes szabadidejét potenciálisan a világhálón tölti. Ez nyilván lehetőséget teremt a visszaélésekre is. A kérdés az, előnyös-e számunkra egy ilyen nyelvi modell annyira, hogy hátrányait és bizonytalanságait is elfogadjuk - érdemes ezt mérlegelni.

Mennyire hatékony betiltani a Chat GPT-t vagy egy adott közösségmédia-platformot? Mennyire jelent a felhasználónak védelmet a jog?
Európa és Amerika felvette a kesztyűt, igyekszik valamiféle jogszabályi hálót teríteni a felhasználók köré, hogy a védelmüket meg tudja oldani. Az Európai Unió élen jár ezen a területen, jól szabályozott környezetet akar kialakítani és ezzel fenntartani az európai gazdaságot, jólétet. Ugyanakkor sokszor látunk arra utaló jeleket, hogy a felhasználók trükköznek és kikerülik a tiltást, használva egyes platformokat, de ez nem csak az európai felhasználók sajátja, sokkal gyakoribb azokban az országokban, ahol hatalomgyakorlási szempontok alapján tiltanak platformokat. Meggyőződésem, hogy ezzel együtt is társadalmi szintű edukációra lenne szükség annak érdekében, hogy megértsük, miért értékesek az adataink, milyen problémákat szül az, ha illetéktelen kézbe kerülnek. Számos olyan adat is létezik (például biometrikus azonosítók, akár egy ujjlenyomat), melyek nem változtathatók meg olyan egyszerűen, mint egy jelszó, amiket visszaélésszerűen is fel tudnak használni. Ha egyszer eltulajdonították, nem tudjuk tovább használni azonosításra. Sajnos vannak, akik pont erre szakosodnak. Míg egy átlagembertől a bankkártya-adatokat, profilokat algoritmus lopja el rendszeresen, egy biztonsági szempontból feljebb sorolható személynél már növekszik a tét.

Hogyan lehet számonkérni egy ChatGPT-hez hasonló alkalmazáson azt, ha hazudik? Hogyan lehet elkerülni, hogy megvezessen?
Attól függ, hogy az a szolgáltatás, amit igénybe veszünk, mire vállalkozik, mi van az általános szerződési feltételekben. (nevet) A nyelvi modellek arra vállalkoznak, hogy emberi kommunikációt szimulálnak nagy hatékonysággal. Valójában nem az az eredeti rendeltetésük, hogy segítsék az információk előállítását vagy közvetítését, hanem hogy elhitessék az emberrel, hogy emberrel kommunikál. Aki nem így tekint rá, szerintem félreérti. Amikor forrásként használom, bizonytalan hitelességűnek kell tekintenem a nyelvi modellek által generált tartalmat, mert tisztában vagyok azzal, hogy az algoritmus azon dolgozik, hogy elhiggyem, amit állít, és fenntartsa a kommunikációt. Éppen ezért „hallucinál” a nyelvi modellek nagy része, vagyis a hiányzó adatokat egyszerűen kitölti valamivel. Ez kicsit hasonlít arra, mint amikor egy gyerek a szigetszerűen meglévő ismereteit a fantáziájával tölti fel. Amikor képeket próbálunk generáltatni a mesterséges intelligenciával, és szürreális képek készülnek, amin az embereknek fura helyen van a szemük, jól példázza ezt. Hogyha fontos az, hogy az információk hitelesek legyenek, akkor a mi felelősségünk lesz továbbra is az, hogy meggyőződjünk az információ hitelességéről, akár egy erre hivatott szoftveres megoldással. Utóbbira is vannak kezdeményezések, de az látszik, hogy az átlagfelhasználók nem jutnak el eddig a szintig, hanem elhiszik azt, amit maguk előtt látnak, és ez komoly kockázattal jár.

Mennyire jogszerű, ha mondjuk egy szakdolgozatot a Chat GPT-vel iratok meg? Vannak, akik szerint emiatt a mesterséges intelligencia az egyetemek végét jelenti.
Nem gondolom ezt. Az egyetem hitelesen, meghatározott tudományos mércék szerint rendezi a tudást, és továbbra is ez lesz a dolga. De magam is úgy látom, hogy ez a kérdés európai-amerikai viszonylatban fűti a felsőoktatási intézményeket. Többféle kiút létezik. Vannak olyan egyetemek, amelyek teljesen tiltják ezeknek az eszközöknek a használatát. Ezzel azért nem értek egyet, mert ez a hozzáállás alkalmatlan a helyzet kezelésére. Abban hiszek, – és örülök, hogy az eddig szerveződő, szakterületi munkacsoportokban tapasztaltak alapján a Pécsi Tudományegyetem is ebbe az irányba halad – hogy próbáljuk meg szabályozni azt, hogyan lehet felhasználni ezt a technológiát. Amikor egy könyvtár keresőszolgáltatását vesszük igénybe, előtte ott is megtanítjuk a felhasználóknak annak helyes és jogszerű használatát. Meg kell például határoznunk azt, hogyan tüntesse fel egy hallgató a dolgozataiban azt, ha annak egy-egy passzusának létrehozásához mesterséges intelligenciát használt. Nekem már volt olyan hallgatóm, aki feltüntette a Chat GPT-t hivatkozásként a használt promt (szerk: az alkalmazásnak feltett kérdés, amelyre választ kapott), és úgy gondolom, ez így már megállja a helyét. Meg kell mutatni a felhasználóknak – legyenek akár hallgatók, akár oktatók vagy kutatók – hogyan kell jól használni ezeket a platformokat, hiszen nagy szerepet játszanak a felsőoktatás fejlesztésében.
Szerintem nagyon fontos az, hogy tudatosítsuk, mi az etikus út, és ebben nagy szerepe van annak, hogy mennyire tudjuk megértetni ezeket a szabályokat. Úgy látom, a hallgatóknak is biztonságot ad, ha a tanórán is ösztönözzük ezeknek az eszközöknek a használatát, szövegeket generáltatunk, elemezzük és megfelelő forráskritikával kezeljük azokat.  Meggyőződésem, hogy így tudjuk legjobban felkészíteni a XXI. századi kihívásra a hallgatókat.
Óriási a teher az oktatókon és kutatókon - például el tudom képzelni azt, hogy a hallgatókkal való tömeges kommunikációs folyamatba beemeljük a mesterséges intelligenciát, akár chatbotok segítségével. Ez egyfajta digitális segéd szerep, ami megkönnyítheti az életünket. Ugyanez vonatkozik a források kutatására: a mesterséges intelligencia képes a megadott szempontok szerint nemzetközi adatbázisokat átkutatni, amit - a megfelelő forráskritikát követően - fel tudok használni. Az a problémás, ha elkezdünk szöveget generáltatni, majd ezt saját tudományos eredményeinként feltüntetni.

Ki lehet szűrni, ha valaki bármilyen szövegéhez Chat GPT-t használt?
A hallgatók általában meghatározott részeket íratnak meg a mesterséges intelligenciával, és gyakori, hogy nem hivatkozzák meg. A legtöbbször – és ugyanez a bevett módszer a plágiumnál is – észre lehet venni, hogy változik a fogalmazásmód a szövegzeten belül. Amint felmerül a gyanú, arra a szövegrészre szűrünk, plágiumkeresésnek vetjük alá. Sőt, akár megkérdezzük magát a ChatGPT-t, hogy ő alkotta-e a kérdéses szöveget – rendszerint hamar kiderül a turpisság.

Harka Éva

Harka Éva

A hozzászóláshoz be kell jelentkezni