Egyre több gyermekpornográf tartalmat készítenek mesterséges intelligenciával
Az Internet Watch Foundation már hónapokkal ezelőtt figyelmeztetést adott ki az MI-által generált tartalmakkal történő visszaélésekre, mostanra viszont – ahogy ők fogalmaznak – a legrosszabb rémálmuk vált valóra. Egy egyhónapos kutatómunka során több mint 3000 MI-által generált, gyermekpornográfiát ábrázoló képet azonosítottak, és mindez csak a kezdet. A hírt Takács Dalma dolgozta fel.
–
Az Internet Watch Foundation sokkoló eredményekről számolt be egyhónapos, a dark weben végzett kutatása alapján. Mint kiderült, az illegális felületeken pedofilkörök szerveződnek kifejezetten az MI-által generált gyermekpornográf tartalmak mentén, és amellett, hogy azokat jó pénzért cserélgetik egymás között, tapasztalatot és tanácsokat osztanak meg egymással a létrehozásukra vonatkozóan. Az IWF a négy hét alatt 11 108 képet vizsgált meg, amik közül 2978 ütközött az Egyesült Királyság gyermekpornográfiára irányuló törvénykezésébe. Az is kiderült, hogy az illegális tartalmak nagy részét egy publikusan, bárki számára elérhető MI-eszközzel, a Stable Diffusionnal hozták létre, és noha a mögötte álló cég, a Stability AI szigorúan tiltja az illegális és erkölcstelen tartalmak készítését, olybá’ tűnik, az eszköz elérhetősége és könnyű kezelhetősége miatt kifejezetten kapóra jön az elkövetők számára.
Az IWF által talált tartalmak túlnyomó többsége sérti az 1978-ban megfogalmazott gyermekvédelmi törvényt, ami a gyermekpornográfiát ábrázoló képek készítését, birtoklását és továbbítását foglalja magában, ráadásul a felfedezett képek közül minden ötödik az A-kategóriába, tehát a legsúlyosabb tartalmak közé sorolható – értsd: nemi erőszakot vagy szexuális jellegű kínzást ábrázol.
„Létrejött egy olyan közösség a dark web fórumain, akik megvitatják a technológiával kapcsolatos dilemmákat, képeket osztanak meg, MI-modelleket javasolnak egymásnak. Útmutatókat és tippeket cserélnek egymással.
Úgy gondoljuk, hogy a látott tartalmakat nyílt forráskódú szoftverrel hozták létre, amelyet helyileg futtattak vagy módosítottak az elkövetők számítógépeiken. És ez nagyon nagy kihívást jelent számunkra. Az elkövetők megtanították az MI-szoftvereknek, hogy hogyan gyártsanak a gyermekek szexuális zaklatására szolgáló anyagokat” – mondta el a Guardiannak Dan Sexton, az IWF műszaki vezérigazgatója.
Hogy készülnek a képek?
Hogy mégis honnan merít „ihletett”, alanyokat az elkövető ezekhez a képekhez? Az IWF eddig három fő forrást azonosított:
- valódi abúzusok áldozatairól készült képek, amiket beépítettek az AI-modellekbe, és egy „frissített” változatukat hozták létre
- hírességeik fotói, akiket az MI segítségével visszafiatalítanak, majd ezeket a képeket helyezik be gyermekpornográf- kontextusba
- bármilyen, az interneten terjedő gyerekfotó, amit az MI eszközeivel lemeztelenítenek
Susie Hargreaves, az IWF vezérigazgatója elmondta:
„Az év elején már sejthető volt, hogy a mesterséges intelligencia képei hamarosan megkülönböztethetetlenek lesznek a szexuális bántalmazást elszenvedő gyermekek valódi képeitől, és hogy egyre nagyobb számban fognak terjedni. Ezen a ponton már túljutottunk. Sokkoló látni, hogy
a bűnelkövetők szándékosan veszik elő korábbi áldozatok fotóit, és táplálják be azokat az MI-rendszerébe. A múltban megerőszakolt gyerekeket most új forgatókönyvekbe építik be, mert valaki, valahol látni akarja őket.”
Mit jelent ez?
Mondanunk sem kell, a jelenség számtalan aggályt felvet – az IWF szerint ezek közül az egyik legnagyobb, hogy a mesterséges intelligencia által generált képek nehezen megkülönböztethetők a valódi fotóktól, így azok terjedése megnehezíti a bűnüldöző szervek munkáját, és elterelheti a figyelmet a valódi áldozatokról. Emellett a szakértők attól is tartanak, hogy a képek könnyű elérhetősége még nagyobb keresletet teremt irántuk.
„Ha nem cselekszünk időben, ezek a fotók az egész internetet eláraszthatják”
– figyelmeztet Hargreaves. A brit kormányszóvivő szerint az MI által generált gyermekabuzív- és gyermekpornográf tartalmak az online biztonsági törvény hatálya alá tartoznak, a közösségimédia-platformoknak pedig önálló felelőssége lesz ezek terjesztésének megakadályozása. Szintén óriási dilemmát jelent a nyílt forráskódú MI-modellek széles körű elérhetősége, azonban Hogarth szerint ez a folyamat már nem visszafordítható:
„Ha kijött, már nem tudod visszazárni az üvegbe. És ez megnehezíti az elővigyázatosság kérdéskörét is.”
Forrás: The Guardian
Kiemelt képünk illusztráció - Forrás: Getty Images/ mustafahacalaki