A mesterséges intelligencia és kockázatai - 1. rész
A LIGA honlapján mesterséges intelligencia tematikával kapcsolatos cikksorozatot indítunk. Dr. Kéri Ádám ügyvéd, LIGA Szakszervezetek adatvédelmi tisztviselője bemutatja, miért is jó a mesterséges intelligencia (MI), mire használják és hogyan, melyek a kockázatai, valamint erre a jog miként reagál. Az alábbiakban a cikksorozat első elemeként a mesterséges intelligencia felhasználási területeit és a kapcsolódó problémákat mutatjuk be.
Ez maga a mesterséges intelligencia
Először nézzük a jogi definíciót, melyet a mesterséges intelligencia rendelet (EU AI Act.) fogalmaz meg: A mesterséges intelligencia egy gépalapú rendszer, amelyet úgy terveztek, hogy a változó szintű autonómiával működjön, és amely a bevetést követően adaptivitást mutathat, valamint amely az explicit vagy implicit célkitűzések érdekében a kapott bemenetek alapján következtetéseket von le arra vonatkozóan, hogyan generáljon olyan kimeneteket, mint például előrejelzések, tartalmak, ajánlások vagy döntések, amelyek befolyásolhatják a fizikai vagy virtuális környezetet.
Magyarul: az MI minden esetben egy számítógépes rendszer, amely nagyszámú adatot elemez és vizsgál (pl: 10 000 db rosszindulatú gerincáttétet bemutató MRI felvétel), majd következtetéseket von le. Ezek alapján döntéseket javasolhat (pl: műtét ajánlott, további vizsgálat javasolt stb.) vagy adott esetben dönthet (a beérkező ügyfélmegkeresést mint megalapozatlant elutasítja), s ezzel befolyásolhatja a környezetünket, életünket.
Ahhoz, hogy az MI rendszer működjön tehát nagyszámú adatra van szükség, erre szolgál az un. betanítási szakasz. Ennek kockázataival (pl: honnan szerzik be ezen adatokat) később fogunk foglalkozni.
Ezek a felhasználási területei
Mivel az MI alkalmazások egyre jobban terjednek, így ezek mindegyikünk életében feltűnnek. A legtöbbet az un. chatbot alkalmazásokkal találkozhatunk. Ezek az emberi ügyintéző magatartását „utánozzák” és így segítik az ügyfélszolgálati munkát. Ilyen a Telekom esetében a Vanda, az Amazon esetében az Alexa, a K & H esetében a Kate, az Erste Banknál pedig a George. Alapesetben ezek pusztán nagyszámú levelezésen betanított programok, melyek abban az esetben adnak választ, amennyiben az adott kérdés valamelyik betanítási anyagban már szerepelt. Minél összetettebb ugyanakkor a rendszer annál több képességgel is rendelkezik, így akár válaszokat is következtethet ki. Az MI a betanítási adatok alapján találgathat is, sőt működés közben a saját tudását is fejleszti.
MI kerül továbbá felhasználásra nagyvállalkozásoknál a csalások felderítésére (atipikus tranzakciók kiszúrása), az informatikai rendszer védelmére, a honlap tartalmának különböző nyelvekre lefordítására stb.
Szintén kiemelt felhasználási terület a HR, ahol például a pályázatok kiértékelésére használják vagy az egészségügy, ahol a klinikai vizsgálatok vagy a diagnosztizálás egyre fontosabb eszköze.
Míg az EU nyugati részén az MI egyértelműen a fejlesztések motorja, addig nálunk – egy tavalyi felmérés adatai szerint - a vállalkozások elsősorban a költségcsökkentés lehetőségét látják benne. Az MI segítségével ugyanis kevesebb munkaerővel is el lehet ugyanazt a feladatot látni.
Kockázatok, melyek az MI alkalmazás során felmerülnek
A kockázatok megértésénél onnan kell kiindulni, hogy az MI nagyszámú adat alapján dönt vagy javasol döntést. Azt azonban nem lehet pontosan megmondani, hogy a döntést pontosan mely szempontok alapján hozta. Ezt hívjuk un. black box hatásnak. Emellett az is probléma, hogy akár szándékos magatartás eredményeképpen (data poisoning), akár véletlenül, rossz adatok is bekerülhetnek a betanítási adatok közé. Ilyen esetben a kimenet sem lesz pontos. Ilyen esetben az MI rossz tanácsot ad vagy döntést hoz és ezzel jelentős kockázatot generál.
Az MI alkalmazás visszaélésekre is lehetőséget biztosít. Az előző amerikai választás idején például MI segítségével keresték meg a demokrata szavazókat Joe Biden elnök hangjával és arra szólították fel őket, hogy ne jelenlenek meg szavazni. Ezt hívjuk deepfake alkalmazásnak. Ez tehát megtévesztési hasonló, torzított képi és hanganyagokat jelent megtévesztő szándékkal.
Az MI felhasználások megtévesztőek lehetnek más szempontból is. Amikor például chatbottal beszélgetünk nem biztos, hogy tudjuk, hogy ő egy számítógép és nem egy ügyintéző. Azt sem biztosan tudjuk, hogy a válaszai között lehet valószínű válasz, azaz a rendszer találgathat is. Egyes elemzések szerint a rendszerválaszok legalább harmada ilyen találgatás.
Végezetül bizonyos felhasználások sérthetik az emberi jogokat is. Ilyenek lehetnek például a társadalmi pontozás (Kína) vagy az olyan MI alkalmazások, melyek az érintetteket szolgáltatásoktól vághatják el (jogosultság elutasítása). Konkrét jogterületet is sérthetnek, hiszen az MI képes arra, hogy meglévő művek alapján egy hasonló művet alkoson, így például annak a megítélése sem egyértelmű, hogy az MI által létrehozott szellemi alkotás egyáltalán levédhető-e, hiszen nem is saját alkotás. Itt egyébként a joggyakorlat abba az irányba megy, hogy nem. Erre példa az alábbi kép, melyet Leonardo da Vinci képe alapján a Meta MI alkalmazás hozott létre kubista stílusban:
![kubista.jpg [md-600]](/images/a12386/g/kubista_md.jpg)
A következő részben a jogi szabályozással kezdünk megismerkedni.
dr. Kéri Ádám
