Az AI már most ott van a te életedben is

Az utóbbi időben egyre növekvő figyelem irányul a mesterséges intelligencia alkalmazására, mely számos kérdést vet fel a könnyedebbtől a komoly témákig a saját és a fiatalabb generációk jövőjével kapcsolatban. 

Hollywoodban például tavasz óta sztrájkolnak a generatív szövegíró-programoktól munkájukat féltő forgatókönyvírók (ITT írt erről nemrégiben Dián Dóri), miközben olyan újfajta modern popkulturális tartalmak produkálnak sokmilliós nézettséget, mint a Harry Potter by Balenciaga videó, a pufikabátos pápa, vagy a hogyan néznél ki Barbie/Ken-babaként-alkalmazással készített profilképek.

Ha valakit nem érdekelnek különösebben a technológiai újdonságok, legfrissebb kütyüfejlesztések, akkor is fontos tudnia, milyen pozitív és negatív változásokat eredményez a különböző mesterséges intelligenciát használó szolgáltatások terjedése, azon túl, hogy olyan audiovizuális tartalmat hoznak segítségükkel létre, amelyek beleégnek az agyunkba, majd vírusszerűen terjednek. Az elmúlt évben nagy figyelmet kaptak a technológiát használó csetbotok, mint a ChatGPT, vagy a képgenerátorok, mint a Midjourney, gyorsan kulturális jelenséggé válva és segítve a mindennapokat.

Ezeket a programokat, „modelleket”, lehet hasznos, vicces vagy káros dolgokra egyaránt használni, és megítélésük sokszor kontextustól, vagy az adott szereplő nézőpontjától függ.

Sírból érkező üzenet

A mesterséges intelligencia segíthet a legoptimálisabb útvonal megtalálásában, a mellrák korai felismerésében, egészséges laktóz- vagy gluténmentes étrend összeállíŧásában. Kép- és videógenerátorokkal elképzelhetjük, várhatóan hogyan nézünk majd ki idősebb korunkban, vagy hogyan állna nekünk egy új frizura, smink, öltözködési stílus; esetleg manipulálhatjuk a CV-fotónkat attól függően, milyen állásra pályázunk. 

A vicces és hasznos lehetőségek mellett azonban megjelennek az olyan kérdéses, zavaró vagy elszomorító tartalmak, mint például a videó arról, ahogy egy deepfake Zelenszkij bejelenti: az ukrán hadsereg megadja magát. Egy másik, elkeserítő példa a mesterséges intelligencia felhasználásának árnyoldaláról az a TikTok-videó, amiben egy eltűnt vagy elhunyt gyerekekről szóló sorozat részeként egy 30 éve brutálisan megölt kisfiút „keltettek életre”, hogy „elmesélje” tragikus halálának történetét.

A gyermeküket élethűen létrehozó, mindenki számára hozzáférhető technológiával készült videót a szülők véletlenül találták meg, a kérésükre történő törlés előtt több tízezren látták.

A lehetőségek végtelenek, és sokszor nyomasztónak tűnhet, mire képes a generatív technológia. Ugyanakkor fontos felismerni, hogy a mesterséges intelligencia modelljei, ha nem is voltak ennyire ismertek vagy elterjedtek, de eddig is léteztek. A hatalmas mennyiségű adaton folyamatosan tréningelt programok már korábban is lehetővé tették a számítógépek számára, hogy olyan feladatokat hajtsanak végre, amelyekhez általában emberi intelligenciára volt szükség: hanganyagokat vágtak, műsort szerkesztettek, reklámszövegeket és termékértékeléseket gyártottak, fényképeket és videókat manipuláltak a felhasználók vágyaitól és „parancsaitól” függően. Észrevétlenül talán, de a mindennapjaink részei voltak: ha használtál már Alexát vagy Sirit, ha kategorizáltál már fotókat automatizálva a telefonodon helyszínek, megörökített emberek, napszakok vagy bármilyen más jellemző alapján, ha klikkeltél már személyedre szabott reklámra közösségimédia-felületen, akkor te is mesterséges intelligenciát alkalmaztál.

Ami új, az a gyorsaság és a változatosság, amivel szembe kell néznünk a felmerülő új problémák, etikai és szabályozási kihívások kapcsán. A generatív mesterséges intelligencia rohamos fejlődésével és széles körű elterjedésével párhuzamosan, egyre újabb kérdések merülnek fel azzal kapcsolatban, hogy a jövőben ez a technológia milyen veszélyeket jelenthet az emberek magánéletére, alapvető emberi jogaira, offline és online biztonságára nézve.

Ezek a változások fokozottan érintik a sérülékeny csoportokat, köztük a most felnövő és már ebbe az új világba beleszülető gyerekeket.

Biztosan tudod, mi történik a gyereked képével posztolás után?

Legyen szó akár aranyos babafotókról, a tegnapi ebédem dokumentálásáról vagy online kiélt családi drámáról, az internet nem felejt, a szép emlékekből pedig könnyen rémálom válhat. A gyerekekre leselkedő, szerencsére egyre szélesebb körben ismert online veszélyek, például az online behálózás vagy a szextortion (szexuális zsarolás) mellett a technológiai fejlődéssel a rosszindulatú emberek is újabb módokat találnak a digitálisan könnyen elérhető tartalmak kihasználására.

Az egyik egyre inkább előtérbe kerülő új online veszélyforrás, amikor arra használják a generatív mesterséges intelligencia által nyújtott lehetőségeket, hogy élethű, gyermekekkel szembeni szexuális visszaéléseket ábrázoló tartalmakat készítsenek és értékesítsenek. 

Bár leggyakrabban jó szándékkal dokumentáljuk gyermekeinket, a nem eléggé tudatos felnőttek milliói mégis nem kívánt módon gyarapítják gyermekeik digitális lábnyomát, és teszik ki őket növekvő kockázatoknak akaratlanul.

A generatív modellekben végtelen potenciál van arra, hogy tetszőleges felhasználó kívánságára gombnyomásra lehessen készíteni valós gyerekek fotói alapján ipari mennyiségben vizuális tartalmakat. Egyik nap még nevetve nézzük a mugli luxusmárkát hordó Dumbledore-t, másnap zavarodottan hallgatjuk egy élethű deepfake politikus bejelentéseit, de ki tudja, mikor találkozunk az általunk online nyilvánosan megosztott képek alapján a gyermekünkről készült divatbemutatós vagy egyéb videókkal? 

Ez a Deutsche Telekom által készített társadalmi célú ShareWithCare kampányvideó a nem tudatos megosztás veszélyeire hívja fel a figyelmet, bemutatva, hogyan okozhat a legnagyobb jóindulattal készült dokumentálás és posztolás is életre szóló, komoly hátrányokat a gyerekeknek. A videóban egy valós programmal, mesterséges intelligencia felhasználásával, egy darab fotó alapján készített, meggyőzően valósnak tűnő, felnőtté változtatott kislány beszél a szüleihez. Elmeséli nekik, milyen kockázatoknak teszik ki őt, miközben nekik kedves audiovizuális tartalmakat posztoltnak róla különböző közösségimédia-felületeken. A veszélyek között említi, hogy

a képmását bárki felhasználhatja, többek között arra, hogy online ellopja az identitását, és ezáltal hivatalos dokumentumokat hamisítson a fotójával, vagy átverje a szüleit – generált hanganyag segítségével kérve pénzt – telefonon, vagy félmeztelen nyaralós fotókat terjesszen róla pedofilhálózatokon keresztül.  

A kampány által bemutatott veszélyek nem a jövő kihívásai, hanem a hatóságok és gyermekvédelmi szervezetek által is egyre inkább felismert, valós problémák. A brit rendőrség megerősítette, hogy már indítottak mesterségesen létrehozott szexuális gyermekbántalmazási tartalmak kapcsán eljárásokat; az IWF, az angol internethotline pedig már több online felületet is azonosított, ahol ilyen tartalmakat osztottak meg elkövetők egymással. 

Ártatlan nyaralásból gyerekbántalmazás

Egy friss, BBC által készített tényfeltáró rövidfilmben bemutatják, milyen könnyen hozzáférhetők online a mesterségesen generált, akár kisgyermekeket ábrázoló pornográf tartalmak, beleértve a személyre szabható, háromdimenziós karaktereket, amikhez pedofil emberek már nemcsak a képernyőn, hanem a háromdimenziós valóságélményt nyújtó virtuálisvalóság-eszközökön és alkalmazásokon keresztül is hozzáférhetnek.

A készítők bizonyítékokat találtak arra is, hogy egyes felhasználók elmondásuk szerint a strandon készített, eredeti fotókat használtak fel szexuálisan kizsákmányolt digitális gyermekavatarok létrehozásához, majd online értékesítéséhez.

Az élethű, többek között kisgyerekek és csecsemők megerőszakolását ábrázoló képeket legálisan hozzáférhető grafikai programokkal hozzák létre, sokszor minimális technikai tudással használva a generatív modelleket, a képek vagy videók feltöltése után, csupán kulcsszavak megadásával.  

Egy másik BBC által készített cikkben rámutattak, hogy egyes elkövetők előfizetői tartalommegosztó oldalakon, például Patreonon keresztül jutnak realisztikus, mesterséges intelligenciával előállított szexuális gyermekbántalmazási tartalmakhoz. Az illegális képanyagok ára a kért anyag típusától függően változik, akár havi 4000 forint körüli összegért már „exkluzív, cenzúrázatlan művészetet” kínálva. 

A digitális szexuális gyermekbántalmazási anyagok előállítása, birtoklása és terjesztése természetesen a világ nagy részén, és egész Európában, így Magyarországon is törvényellenes, ugyanakkor a mesterségesen generált tartalmak növekvő mértéke jelentős felderítési és kezelési kihívásokat jelent a bűnüldöző szervek részére.

A rendőrség munkáját tovább nehezíti, hogy esetenként kell azonosítaniuk, van-e valahol egy valós, bántalmazott gyermek, akit meg kell találni, vagy a felderített, élethű ábrázolás teljesen mesterséges módon lett létrehozva.

Ki a felelős, aki létrehozza, vagy aki nézi?

A növekvő probléma árnyékában jogosan merül fel, hogy ki a felelős az ilyen súlyosan káros digitális anyagok létrehozásának megelőzéséért, a megfelelő és érthető szabályozás megalkotásáért, és a már létrehozott illegális tartalmak kezeléséért?

A mesterséges intelligencia segítségével készült gyermekbántalmazási tartalmak létrehozásában és megosztásában közreműködő szolgáltatók hatalmas profitot termelnek, de nem érdekük erkölcsi felelősséget vállalni. Bár szomorú belegondolni, a vállalatoknak nem csak marketingszempontból nem érdemes hangsúlyozni a termékeik szerepét a téma kapcsán. Moderálni hatalmas erőforrást igénylő feladat, így sok szempontból kényelmesebb és egyszerűbb a felhasználókra hárítani a felelősséget. Emellett jogilag egyértelműen jobban megéri arra az álláspontra helyezkedni, hogy nem elsődlegesen vállalati felelősség az ilyen tartalmak monitorozása és kezelése. Ráadásul attól függetlenül, hogy illegális vagy nem illegális a tevékenység a felületeiken, minden interakció és használat hasznot hoz. Amennyiben nagy mértékben használják káros tevékenységekre a szolgáltatásaikat, az egyben azt is jelenti, hogy jelentős profitot termelnek a vállalatnak, – a felelősség pedig könnyen hárítható egyrészt a felhasználókra, másrészt a jogalkotókra a hiányos szabályozás okán.

Amikor a piaci és a társadalmi érdekek nem egyeznek, például egy cégnek jelentős bevétele származik abból, hogy pedofil elkövetők használják a termékeiket, akkor felértékelődik a nemzetközi szervezetek és kormányzati szervek jogalkotási és alkalmazási szerepe.

A világ számos országa és nemzetközi politikai szervezete dolgozik jelenleg is a hatékony szabályozási és ellenőrzési rendszerek kialakításán a fejlődő mesterségesintelligencia-modellek kapcsán. Az Európai Uniónak célja, hogy egy emberközpontú, etikailag felelős és környezeti szempontból fenntartható keretrendszert építsen ki, ennek végső formájára azonban lehet, hogy még hosszú éveket kell várni. Addig a technológiát fejlesztő és használó szervezetek egyfajta digitális vadnyugati időszakban működnek, ahol a szabályok menet közben, az aktuális erőviszonyok alapján, sokszor „ahogy esik, úgy puffan” alapon alakulnak.

Közben – kis képzavarral élve – az irányítás lassan annyira kicsúszik billentyűzet alól, hogy már a mesterséges intelligencia felhasználásával készülő termékek és szolgáltatások fejlesztői is érzékelik az egyre nyomasztóbbá és ismertebbé váló veszélyeket. Ezért nemrég szakértők egy globális csoportja új önkéntes keretrendszert javasolt az ilyen termékek biztonságos fejlesztésére. A közel száz pontból álló ellenőrzőlista, amelyet a javaslat szerint a fejlesztőknek egy mesterségesintelligencia-projekt kezdetén figyelembe kellene venniük, többek között annak átgondolására késztet, hogy milyen lehetséges veszélyeket rejt a tervezett modell, van-e tervük a legrosszabb forgatókönyvekre, alapos volt a tesztelési stratégia, és feltártak-e minden potenciális problémát.  

A felelősségteljes kezdeményezés, – a tervezett EU-s és nemzetközi szabályozásokkal együtt – azonban csak a jövőbeli használatot, ellenőrzési és bűnüldözési lehetőségeket határozza meg, a probléma pedig már jelen van, minden egyes napon újabb és újabb gyerekek életét téve hosszú távon tönkre.

Ameddig a szabályozási kérdések megoldódnak, és kialakul a mesterséges intelligenciával létrehozott káros tartalmak kezelésének folyamata, valamint kijelölt intézményrendszere, addig a mindennapi felhasználókra – mindannyiunkra – aránytalanul nagy felelősség hárul, hogy megelőzzük a gyerekek online áldozattá, illetve jövőbeli elkövetővé válását.

Mit tehetünk mi a gyerekek biztonságáért?

Gondviselőként, pedagógusként, a gyerekekkel kapcsolatban lévő felelős felnőttként a mi feladatunk (is) a megelőzés. Egyéni és közös felelősségünk megelőzni, hogy ha akaratlanul is, de veszélynek tegyük ki a gyerekeket a velük kapcsolatos tartalmak felelőtlen online megosztásával.

Figyeljünk rá, mit osztunk meg és milyen felületen, és udvariasan kérjük számon, ha más kéretlenül oszt meg tartalmakat gyerekekről. Kövessük a szakemberek tippjeit, állítsunk fel magunk és a gyerekek számára is szabályokat.

Felelősség, hogy rendszeresen tájékozódjunk, és beszéljünk a biztonságos online magatartásról, segítve a fiatalokat abban, hogy elkerüljék mind az áldozattá, mind az elkövetővé válást.

Fontos, hogy rendszeresen beszéljünk a gyerekekkel arról, mivel járhat az, ha ők osztanak meg magukról felismerhető, akár intim tartalmakat, vagy gyártanak ilyeneket másokról, és hogy mindig van, akihez segítségért fordulhatnak. 

Felelősség, hogy tudjuk és megosszuk, hová fordulhatunk és fordulhatnak segítségért, mint például a Kék Vonal Alapítvány vagy az Internet Hotline

Ahogy a WMN-en már korábban is kifejtettük, nem az rejt nagy kockázatokat, ha néha egy szűk körrel megosztunk egy-egy képet vagy videót. Teremtsünk lehetőséget magunk és a gyerekek számára, hogy kihasználhassuk a mesterséges intelligencia nyújtotta előnyöket, és tegyünk meg mindent annak érdekében, hogy az elkerüljük a veszélyeket.

A szerző gyermekvédelmi szakember, a brit Centre for Abuse and Trauma Studies munkatársa, ahol a digitalizáció gyermekvédelmet érintő kérdéseivel foglalkozik, kiemelt figyelmet fordítva a gyermekek online biztonságára, a traumatizáció megelőzésére és kezelésére.

Kiemelt képünk illusztráció – Forrás: Getty Images/ stock_colors

WMN szerkesztőség