Az elmúlt időszakban egyre többet beszélünk arról, mennyi káros tartalom jön szembe akarva-akaratlanul az interneten, és ennek milyen súlyos következményei lehetnek. Szerencsére világszerte egyre nagyobb nyomás nehezedik a techcégekre, hogy megfékezzék az online térben terjedő erőszakot, és a hatóságok is kiemelten kezelik a gyermekek online védelmét.

A világ eddigi legnagyobb, szexuális gyermekbántalmazási tartalmak elleni rendőrségi akciójára a napokban került sor: az Europol vezetésével 38 ország szakértői – köztük a magyar rendőrség – működtek együtt, hogy lekapcsoljanak egy bűnözői hálózatot, amely tegnapelőttig több mint 72 000 gyermekbántalmazást rögzítő videót gyűjtött össze és terjesztett. Az akció eredményeképpen eddig 79 embert vettek őrizetbe, és közel 1400 gyanúsítottat azonosítottak világszerte.

A látványos sikerek mellett azonban kevesebb szó esik azokról, akik ezeket a sokszor elképzelhetetlenül felkavaró képeket és videókat – köztük gyerekek szexuális bántalmazását ábrázoló tartalmakat – próbálják megállítani, mielőtt azok feltűnnének a képernyőinken.

Kik azok a civilek, akiknek napi feladata, hogy az automatizált gépi eszközök mellett nézzék végig és kategorizálják a káros digitális tartalmakat?

Az eltakarítók

A tartalomelemzők az online tér „mérgező hulladékával” dolgoznak: családon belüli és utcai erőszak, terrorcselekmények, állatkínzás és gyermekbántalmazás felvételeivel. Olyan tartalmakkal, amelyek nemcsak az áldozattá vált gyerekeket (és felnőtteket) sújtják, hanem traumatikus hatással lehetnek azokra is, akiknek feladata ezeket megnézni, megítélni, eltávolítani, és szükség esetén továbbítani a rendőrségnek.

A tartalomelemzők munkája szinte teljesen láthatatlan számunkra – részben azért is, mert a nagy techcégek (például a Meta, a TikTok vagy a YouTube) jellemzően erre szakosodott külső vállalatokkal, gyakran külföldi kiszervezett munkaerővel oldják meg a problémát. A legtöbb elemző a világ különböző pontjain, például Indiában vagy a Fülöp-szigeteken található, call center-szerű irodákban dolgozik. A szigorúan ellenőrzött munkahelyeken nem ritka, hogy napi 8–10 órában, több műszakban, egyedül ülnek a képernyőjük előtt, egymás után több száz traumatikus tartalmat nézve végig.

„Végig kellett néznem egy lány megkéseléséről készült videó minden egyes képkockáját. Ami a legjobban megrázott, hogy a felvételen látszott, senki sem segített neki. Ez a videó jobban megviselt, mint bármi előtte. Soha nem fogom már tudni elfelejteni” – mondta el egy 22 éves tartalomelemző.

gyermekbántalmazás digitális gyermekvédelem tartalommoderátorok online erőszak szűrése tartalomelemzés és mesterséges intelligencia
Képünk illusztráció – Forrás: Getty Images/Kindamorphic

Egyre több kutatás bizonyítja, hogy a sokkoló képek és videók moderálása nap mint nap komoly veszélyeket jelent a mentális egészségre nézve. Szakértők több problémára is felhívják a figyelmet:

  • Kiégés (burnout): Tartós érzelmi és fizikai kimerülés, ami hosszan fennálló stressz és túlterhelés nyomán alakulhat ki. A tartalomelemzők extrém behatásokkal dolgoznak, így náluk ez a folyamat gyorsabban beindulhat.

  • Másodlagos traumás stressz: Azoknál jelentkezhet, akik mások traumáit ismétlődően látják (például rendőrök vagy szociális munkások); tünetei a poszttraumás stresszhez hasonlítanak: bevillanó emlékek, alvászavar, állandó feszültség, készenléti állapot.

  • Együttérzéses kifáradás (compassion fatigue): A folyamatos empátia és segíteni akarás hosszú távon érzelmileg kimerítheti az embert. A tartalomelemzők így akár közönyössé, érzéketlenné is válhatnak.

  • Vikariáló trauma: A háttérben az áldozattal való mély azonosulás áll. Gyakran felmerül a gondolat, hogy „mi lett volna, ha én vagyok ott?” A „rájuk ragadó” trauma miatt súlyos lelki sebek keletkezhetnek.

A Middlesex Egyetem kutatása szerint a megkérdezett moderátorok 34,6%-a mutatott közepes vagy súlyos pszichológiai disztresszt – ez már klinikai beavatkozást igényelne. További 58,5%-uk enyhébb, de kimutatható stresszt tapasztalt. Összességében tehát több mint 90%-uk küzdött valamilyen lelki problémával a munkája miatt.

Sokan beszámoltak úgynevezett morális traumáról is (amikor valaki olyan eseményt lát, amely alapvetően ellentmond az erkölcsi meggyőződésének). Amikor például gyermekekkel szembeni elképesztő kegyetlenségeket látnak, sérül az emberi jóságba, a világ rendjébe vetett hitük, és ez komoly válságot okozhat. Ahogy az egyik kutató fogalmazott:

„Ez a munka igazából mérgező hulladékkal való munka: olyan anyagokkal dolgozunk, amelyek sértik mindazt, amit helyesnek és jónak gondolsz.”

Ráadásul ezek a láthatatlan sérülések hosszú távon a magánéletre is kihathatnak: kapcsolati konfliktusok, depresszió, gyermekek túlzott féltése vagy elszigetelődés formájában.

Mindez azt jelzi, hogy a minket a káros tartalmaktól védő, rejtve dolgozó moderátorok támogatása legalább olyan fontos, mint maga a munka, amit a digitális tér biztonságáért végeznek. Bár a mesterséges intelligencia felgyorsíthatja az online felületek – köztük a közösségi média – ellenőrzését, mégsem fogja teljesen kiváltani azt, hogy emberek tízezrei dolgozzanak továbbra is tartalomelemzőként. Hiába a legfejlettebb technológia: a végső döntést még mindig emberek hozzák meg a digitális „frontvonalban”, a gyerekek védelméért.

Mi segíthet?

Kutatások szerint az elemzők szeretnék, ha nyíltabban beszélhetnének a munkájukról és annak nehézségeiről, ha több támogató közösség, fórum és szakmai rendezvény jönne létre számukra, és ha nagyobb társadalmi elismerést kapnának.

Remélhetőleg ezekért mi is tehetünk valamit, mert az ő lelki egészségük mindannyiunk érdeke: nélkülük nincs hatékony digitális gyermekvédelem.

A cikk a Middlesex University „Invisible Risks: Content Moderators and the Trauma of Child Sexual Abuse Materials” kutatási projektje alapján készült. 

Meggyesfalvi Boglárka

Kiemelt képünk illusztráció – Forrás: Getty Images/Dragos Condrea