Az online tér veszélyeivel mi is sokszor foglalkoztunk már a WMN felületein, legyen szó a csalók trükkjeiről, vagy a gyerekekre leselkedő veszélyekről. Ahogy sok esetben, úgy ezeknél a veszélyeknél is csökkenthetjük az esélyeket, ha tudatosan viselkedünk, és minél több információ birtokában vagyunk.

A SafeClick, egy egyetemi projekt részeként megrendezett kerekasztal is ezt tűzte ki célul, ahol különböző szegmensekben dolgozó szakemberektől kaphattak hasznos tanácsokat az érdeklődők. Dr. Pokó Diána mesterséges intelligenciával foglalkozó jogász, Papp Ádám etikus hacker, dr. Pataki Gábor adatvédelmi szakjogász, valamint dr. Kulja András egészségedukációs tartalomgyártó segítettek körbejárni az adatvédelem és az online térben tapasztalt magatartás témáját.

internetbiztonság adathalászat mesterséges intelligencia
Kép forrása: SafeClick – A kerekasztal résztvevői

Online rendelő

Dr. Kulja András első sorban arra hívta fel a figyelmet, mennyire nem működik az emberek veszélyérzete, ha az egészség témájáról van szó. Orvosi munkája mellett Instagramon és TikTokon tesz közzé edukációs tartalmakat, amikben közérthetően beszél egészségügyi témákról, magyaráz el beavatkozásokat, szakkifejezéseket. Nemegyszer előfordult már, hogy követői érzékeny adatokat osztottak meg vele saját magukról, miközben a véleményét kérték ki. Andrást meglepte, hogy úgy osztanak meg vele sokoldalas leleteket, hogy csak az online térből ismerik. Ezek a dokumentumok ugyanis rengeteg személyes adatot tartalmaznak, amik rosszindulatú kézbe jutva visszaélésekhez vezethetnek.

Ilyenkor a betegek bele sem gondolnak, hogy mennyi adatot adnak ki magukról – egyszerűen csak választ szeretnének kapni tüneteikre, kérdéseikre, és a videókban szimpatikusnak talált orvossal bármit megosztanak, holott semmi sem garantálja adataik biztonságát. András azt mondta, korábban igyekezett minden ilyen üzenetre válaszolni, és felhívni a figyelmet, hogy ne osszanak meg online személyes adatokat akkor sem, ha az az egészségükkel kapcsolatos, inkább keressenek fel a valóságban egy szakembert, de sokan nem értik meg ennek a veszélyeit.

„Azért, mert én nem élek vissza az adataikkal, és a videóim miatt úgy gondolják, hogy ismernek, nem jelenti azt, hogy ne készíthetne bárki bármikor egy álprofilt az én képeimmel, amit aztán adathalászatra használ, amikor neki küldik el a leleteket” – osztotta meg aggályait András a közönséggel.

internetbiztonság adathalászat mesterséges intelligencia
Kép forrása: SafeClick

Buborékban

Szintén nagy problémát okoz a tévinformációk terjedése, legyen az bármilyen témában. Az algoritmusoknak ugyanis nem a korrekt tájékoztatás a lényege, hanem az, hogy minél több ideig az adott felületen tartsa a felhasználót, emelte ki Papp Ádám.

„Legyen szó bármilyen közösségi platformról, az algoritmusnak meg kell találnia az arany középutat, mert ha irreleváns tartalmakkal találkozik a felhasználó, akkor távozni fog, de ha hamar megkapjuk a tartalmat, amiért jöttünk, vagy a válaszokat, amit kerestünk, akkor is. Ezért gyakran csak félinformációkat kapunk, hogy minél tovább az oldalon maradjunk.”

Dr. Pataki Gábor pedig felhívta a figyelmet arra a veszélyre, hogy az algoritmusok igyekeznek a kedvünkre tenni, kikísérletezni, hogy milyen tartalmak tetszenek nekünk, ezáltal pedig mindenkit a saját egyéni algoritmus-buborékjába zárnak. Ez torzítja a valóságról alkotott képünket, és tévhitek terjedésének is táptalaja.

Felderítetlen terület

Bár az idei évben a csapból is a mesterséges intelligencia folyik, ám annak jogi környezete, és az átlagemberek ezzel kapcsolatos ismeretei is gyerekcipőben járnak még. Az Európai Unió jelenleg egy mesterséges intelligencia-szabályozáson dolgozik: az AI Act névre hallgató jogszabály elsőként adna keretrendszert a jelenleg „nagy nyelvi rendszerek”-ként definiált mesterséges intelligencia felhasználásának.

„Magánemberként nem sokat mondanak ezek a meghatározások” – mondja dr. Pokó Diána – „pedig már olyan hétköznapi helyzetekben is találkozhatunk a mesterséges intelligenciával, mint egy csetes alkalmazás, nemsokára pedig például az e-ingatlan-nyilvántartóban is emberi beavatkozás nélkül fognak megszületni döntések az AI segítségével.”

Adatszivárgás szempontjából az egyelőre szabályozatlan AI-környezet kockázatokat rejt, ugyanis az adott fejlesztőcégen múlik, hogy milyen biztonsági korlátokat helyez el a rendszerében.

Ezek nélkül viszont simán előfordulhat, hogy amit megosztunk a mesterséges intelligenciával (például egy forráskódot, hogy leellenőrizze), azt megtanulja, és ha mások rákérdeznek, nekik is visszaadja válaszul (így jártak például a Samsung mérnökei is, ezért más nagy cégekhez csatlakozva ott is betiltották az AI munkahelyi használatát).

Magánemberként is érdemes vigyázni, mit osztunk meg például a ChatGPT-vel. Bármennyire is izgalmasnak tűnik egy új képgeneráló alkalmazással módosíttatni a fényképünket, vagy megfogalmaztatni vele egy hosszú munkahelyi e-mailt (tele érzékeny információkkal). 

„Mindent fel lehet törni”

Bár felesleges riogatásnak tűnhet dr. Pataki Gábor üzenete, fontos tisztában lennünk vele, hogy ez az igazság. Ez viszont nem jelenti azt, hogy mindent fel is törnek, és hogy ne nehezíthetnénk meg eléggé az adathalászok dolgát ahhoz, hogy ne váljunk szimpatikus célponttá.

Idő, pénz és motiváció kérdése, hogy bejutnak-e a készülékünkbe, ezért fontos tisztában lennünk vele, hogy mekkora a „célkereszt” rajtunk, és ehhez mérten biztosítani az adatainkat.

Egy átlagos felhasználónak például elegendő lehet a böngészők beépített jelszókezelője, vagy az offline-pártiak papírra írva is tárolhatják otthoni jelszavaikat (de semmiképp ne ragasszuk a jelszót post-ittel a monitorra). Egy érzékeny céges információkat tároló szervernek viszont értelemszerűen komolyabb biztosításra van szüksége, pláne ha valamilyen speciális iparágban használják. Persze bármelyik módszert választjuk, nekünk kell tudatosnak és óvatosnak lennünk, mert hiába szuperhosszú a jelszavunk, ha bárki lefotózhatja a papírt, amire leírtuk, és hiába vannak jogszabályok, ha azok csak a baj megtörténte után nyújthatnak segítséget. A megelőzés rajtunk múlik. 

internetbiztonság adathalászat mesterséges intelligencia
Kép forrása: SafeClick – A SafeClick egyetemi projekt szervezői

Kiemelt képünk illusztráció – Forrás: Getty Images/ We Are

Pichler Zsófi