Szakmai blog

Deepfake – megtévesztő tartalmak az interneten

2021-11-02 | IT jog

Deepfake – megtévesztő tartalmak az interneten

 

Hogy működik a technológia?

Egy algoritmus segítségével végezhető el a művelet. A szoftver elemzi a betáplált felvételt, azaz az alany mimikáját, hogyan mozog az arca, mintázatokat keres benne, majd a mintázatok alapján olyan szabályokat alkot, amikkel képes az alany beszédét, arcát, formázni, módosítani, adott esetben ráilleszteni valaki másnak az arcára.

Milyen megjelenési módjai vannak?

A deepfake lényege, hogy manipulálja a nézőt, hallgatót. Ezt leggyakrabban az alábbi két módon valósítja meg:  

§ Arcok kicserélése: a leggyakoribb, hogy az eredeti videó, az ún. forrásvideó hátterét egy másik videó célarcával illesztik össze, így bárki, szinte bármilyen szituációban feltüntethető.

§ Arc továbbformálása: a mélytanulásos szoftver analizálja az arc mozgását, főbb jellemzőt, amely alapján lehetőség van bármilyen szöveg szájra illesztésére.

E kettőnek a kombinációja vezet olyan hitelesnek tűnő videók készítéséhez, amelyekkel bármely személy társadalom előtti lejáratása lehetséges.

Milyen erkölcsi kérdéseket vet fel? Mik lehetnek a veszélyei?

A deepfake rossz kezekbe kerülése a politikai visszaéléseknek, befolyásos emberek kihasználásának nyújt kiváló lehetőséget. Két példán keresztül mutatjuk be milyen nagyságrendű következményei lehetnek az erkölcstelen használatnak:

§ Egy 2019-ben történt esetben egy német kézben lévő angol energetikai leányvállalat vezetőjét kereste telefonon a német anyavállalat igazgatója és 220 ezer euró (mai árfolyamon kb. 80 millió forint) azonnali átutalására utasította. A leányvállalat vezetője át is utalta a pénzt, mert még nem sejtette, hogy nem a német igazgató ül a telefon másik végén. Az átutalás sikerén felbuzdulva a német igazgató még kétszer telefonált, az első hívásban azt állította sikertelen volt az utalás, úgyhogy ismételje meg, a második hívásban újból kérte, hogy utaljon. Az angol vezetőnek itt vált gyanússá a hívás, ellenőrizte az utalás sikerességét és látta, hogy a pénz sikeresen átment, így nem utalt újból. Ezután ellenőrizte a telefonszámot is, és látta, hogy nem Németországból érkezett a hívás.  Addigra viszont az átutalt pénzt tovább utalták egy mexikói számlára, majd onnan tovább több egyéb számlára. Az elkövetőről, valamint a használt szoftverről nem ismertek az adatok, és az sem, hogyan gyűjthettek hanganyagot a német igazgatótól, de az eset jól példázza, hogy milyen jelentős értékű csalásra használható fel a deepfake (deepvoice) technológia.

 

§ A másik eset 2021. októberében történt, hasonló módon. Szintén a deepvoice technológiát alkalmazták egy magas beosztású személynél, ezúttal egy bankárnál az Egyesült Arab Emírségekben. A különbség az összeg mértékben volt, ugyanis itt már merészebb, 35 millió dollárnyi pénzt (közel 11 milliárd forintot) követeltek.

 

A fenti ügyek jól illusztrálják, hogy fejlesztésre szorulnak a cégek azonosítási rendszerei, hogy a támadásokat még csírájában képesek legyen elfojtani. Másfelől szükség van az emberek felkészítésére is az ilyen jellegű támadásokkal szemben, mivel sok mindenki még nincs tisztában a technológia képességeivel.

Honnan ismerhetjük fel a deepfake tartalmakat?

A legfontosabb, hogy tudatosan, egészséges kételkedéssel álljunk a médiához. Mivel a deepfake képes az internetes tartalmak hitelességét aláásni és teljesen megzavarni a valóságérzékelésünket a Reuters nevű londoni hírügynökség kiemelt néhány figyelmezetőt jelet, amik segítségével könnyebben kiszűrhetjük a valótlan tartalmakat:

    • a kép és a hang nincs tökéletes szinkronban,
    • a beszélő tekintete üres, tompa, nem egyértelmű, hogy hova néz
    • az alany egyáltalán nem vagy természetellenesen pislog,
    • a beszélő arca mozdulatlan, bőre szokatlanul sima, mintha retusálva lenne
    • a beszélő szájának mozgása természetellenes,
    • a tárgyak vagy emberek szélein szokatlan pixelmintázatok figyelhetők meg.

 

Hogyan tudja orvosolni a jog a hamis videók okozta sérelmet?

Miután bárki áldozatává válhat – akár szórakozásból is – egy ilyen jellegű hamisításnak, nem árt tisztában lenni ebben az esetben milyen jogi eszközök állnak rendelkezésünkre.

A polgári törvénykönyvünk a képmáshoz való jogot külön nevesíti a személyiségi jogok körében. Ez magában foglalja azt, hogy – amellett, hogy főszabály szerint felvételt csak az illető hozzájárulásával lehet készíteni – a felvételt felhasználni sem lehet engedély nélkül. Tehát ha valakiről hozzájárulása nélkül ilyen jellegű sértő tartalmat tesznek közzé, a polgári perrendtartás szabályai szerint a következő eszközök állnak rendelkezésére:

Fel kell szólítani a felvétel felhasználóját, hogy szüntesse meg a jogsértő helyzetet (szedje le a közzétett tartalmat) és adjon megfelelő elégtételt (tegyen közzé egy helyreigazító nyilatkozatot).

Fontos, hogy a jogsértésről való tudomásszerzéstől számított 30 napon belül kell megtenni a felszólítást, a későbbiekben erre nincs lehetőség. Ha a felhívásnak a jogsértő nem tesz eleget, 15 napon belül perindításnak lehet helye (ha az ügy összes körülményére figyelemmel ez tűnik a legbiztosabb megoldásnak).

A szűk határidők egyszerű indoka, hogy az interneten, és az internet alapján a sajtóban a hírek, tartalmak folyamatosan és gyorsan váltják egymást, mindig valami új téma válik felkapottá. Emiatt az a jogalkotói cél, hogy a sérelmet szenvedett személy minél hamarabb jogorvoslatot, elégtételt nyerjen.

Más megközelítésből a jog által biztosított másik releváns jogosultság a becsület és a jóhírnév védelme. Előbbi a személy társadalmi megítélésének hátrányos befolyásolását, utóbbi a valótlan tények állításával vagy valós tények valótlan színben történő feltüntetésével megvalósuló jogsértést hivatott megakadályozni. Ezeken kívül más magatartással is el lehet követni az említett jogsértéseket, ld. egy deepfake videó esetében más arcának olyan videóba történő átültetésével, amelyhez nem járulna hozzá. Az eljárás rendje ugyanaz mint a képmáshoz való jog megsértése esetén.

 

Tekintettel arra, hogy a deepfake technológiával való visszaélés akár bűncselekményt is megvalósíthat, a polgári peres eljárás mellett büntető feljelentést is tehetünk az elkövető ellen. A büntető-eljárás kimenetele az adott cselekmény részleteitől függ.

 

Amennyiben az információs-technológia jogával kapcsolatos jogi segítségre van szüksége, forduljon bizalommal szakértő kollégáinkhoz!

Szoftvertesztelés fontossága

2024-02-01
Szoftvertesztelés fontossága

A szoftvertesztelés szinte elengedhetetlen része a szoftverfejlesztésnek és létfontosságú alkotóeleme a szoftver megbízhatóságának és az erőforrások optimalizálásának. Hogyan érdemes lefolytatni, és a fejlesztés melyik részén célszerű bevonni a tesztelés faktorát?

Cikkünkben ezekre a kérdésekre keressük a választ.

Bővebben

NIS2 irányelv a gyakorlatban

2024-01-30
NIS2 irányelv a gyakorlatban

Az adathalász támadások egyre gyakoribbá váltak a digitalizáció rohamszerű fejlődésével. Az EU tagállamoknak 2024. október 17-ig kell átültetniük az új kibervédelmi irányelvet a saját jogrendszerükbe. Az érintett ágazatokon belül, néhány kivétellel minden közepes- és nagyvállalatnak meg kell felelnie a szabályozásnak. Cikkünkben a NIS2 irányelvvel kapcsolatos legfontosabb tudnivalókat szedtük össze!

Bővebben

A ChatGPT-vel összefüggő adatvédelmi aggályok - Könnyen hozzáférhetnek az adatainkhoz?

2024-01-05
A ChatGPT-vel összefüggő adatvédelmi aggályok - Könnyen hozzáférhetnek az adatainkhoz?

Az utóbbi időben a vállalatok világszerte generatív mesterséges intelligencia (GenAI) megoldásokat vezettek be, adataik hatékony és egyszerű kezelése és átláthatósága érdekében. Mivel a legtöbb esetben a GenAI-modellnek "hosszú távú memóriával" kell rendelkeznie, szinte minden vállalati megoldáshoz szükség van egy vektoradatbázisra, amelyet a modell futásidőben lekérdezhet a felhasználói kérdés megválaszolásához szükséges kontextus eléréséhez.

Azonban az eddig rendkívül biztonságosnak hitt megoldás egy olyan kellemetlen igazságot rejt, amely hatalmas adatvédelmi aggályokat vethet fel.

Bővebben

Állunk rendelkezésére az információs technológiával kapcsolatos jogi kérdések tekintetében!

Kapcsolat