Szakmai blog

Deepfake – megtévesztő tartalmak az interneten

2021-11-02 | IT jog

Deepfake – megtévesztő tartalmak az interneten

 

Hogy működik a technológia?

Egy algoritmus segítségével végezhető el a művelet. A szoftver elemzi a betáplált felvételt, azaz az alany mimikáját, hogyan mozog az arca, mintázatokat keres benne, majd a mintázatok alapján olyan szabályokat alkot, amikkel képes az alany beszédét, arcát, formázni, módosítani, adott esetben ráilleszteni valaki másnak az arcára.

Milyen megjelenési módjai vannak?

A deepfake lényege, hogy manipulálja a nézőt, hallgatót. Ezt leggyakrabban az alábbi két módon valósítja meg:  

§ Arcok kicserélése: a leggyakoribb, hogy az eredeti videó, az ún. forrásvideó hátterét egy másik videó célarcával illesztik össze, így bárki, szinte bármilyen szituációban feltüntethető.

§ Arc továbbformálása: a mélytanulásos szoftver analizálja az arc mozgását, főbb jellemzőt, amely alapján lehetőség van bármilyen szöveg szájra illesztésére.

E kettőnek a kombinációja vezet olyan hitelesnek tűnő videók készítéséhez, amelyekkel bármely személy társadalom előtti lejáratása lehetséges.

Milyen erkölcsi kérdéseket vet fel? Mik lehetnek a veszélyei?

A deepfake rossz kezekbe kerülése a politikai visszaéléseknek, befolyásos emberek kihasználásának nyújt kiváló lehetőséget. Két példán keresztül mutatjuk be milyen nagyságrendű következményei lehetnek az erkölcstelen használatnak:

§ Egy 2019-ben történt esetben egy német kézben lévő angol energetikai leányvállalat vezetőjét kereste telefonon a német anyavállalat igazgatója és 220 ezer euró (mai árfolyamon kb. 80 millió forint) azonnali átutalására utasította. A leányvállalat vezetője át is utalta a pénzt, mert még nem sejtette, hogy nem a német igazgató ül a telefon másik végén. Az átutalás sikerén felbuzdulva a német igazgató még kétszer telefonált, az első hívásban azt állította sikertelen volt az utalás, úgyhogy ismételje meg, a második hívásban újból kérte, hogy utaljon. Az angol vezetőnek itt vált gyanússá a hívás, ellenőrizte az utalás sikerességét és látta, hogy a pénz sikeresen átment, így nem utalt újból. Ezután ellenőrizte a telefonszámot is, és látta, hogy nem Németországból érkezett a hívás.  Addigra viszont az átutalt pénzt tovább utalták egy mexikói számlára, majd onnan tovább több egyéb számlára. Az elkövetőről, valamint a használt szoftverről nem ismertek az adatok, és az sem, hogyan gyűjthettek hanganyagot a német igazgatótól, de az eset jól példázza, hogy milyen jelentős értékű csalásra használható fel a deepfake (deepvoice) technológia.

 

§ A másik eset 2021. októberében történt, hasonló módon. Szintén a deepvoice technológiát alkalmazták egy magas beosztású személynél, ezúttal egy bankárnál az Egyesült Arab Emírségekben. A különbség az összeg mértékben volt, ugyanis itt már merészebb, 35 millió dollárnyi pénzt (közel 11 milliárd forintot) követeltek.

 

A fenti ügyek jól illusztrálják, hogy fejlesztésre szorulnak a cégek azonosítási rendszerei, hogy a támadásokat még csírájában képesek legyen elfojtani. Másfelől szükség van az emberek felkészítésére is az ilyen jellegű támadásokkal szemben, mivel sok mindenki még nincs tisztában a technológia képességeivel.

Honnan ismerhetjük fel a deepfake tartalmakat?

A legfontosabb, hogy tudatosan, egészséges kételkedéssel álljunk a médiához. Mivel a deepfake képes az internetes tartalmak hitelességét aláásni és teljesen megzavarni a valóságérzékelésünket a Reuters nevű londoni hírügynökség kiemelt néhány figyelmezetőt jelet, amik segítségével könnyebben kiszűrhetjük a valótlan tartalmakat:

    • a kép és a hang nincs tökéletes szinkronban,
    • a beszélő tekintete üres, tompa, nem egyértelmű, hogy hova néz
    • az alany egyáltalán nem vagy természetellenesen pislog,
    • a beszélő arca mozdulatlan, bőre szokatlanul sima, mintha retusálva lenne
    • a beszélő szájának mozgása természetellenes,
    • a tárgyak vagy emberek szélein szokatlan pixelmintázatok figyelhetők meg.

 

Hogyan tudja orvosolni a jog a hamis videók okozta sérelmet?

Miután bárki áldozatává válhat – akár szórakozásból is – egy ilyen jellegű hamisításnak, nem árt tisztában lenni ebben az esetben milyen jogi eszközök állnak rendelkezésünkre.

A polgári törvénykönyvünk a képmáshoz való jogot külön nevesíti a személyiségi jogok körében. Ez magában foglalja azt, hogy – amellett, hogy főszabály szerint felvételt csak az illető hozzájárulásával lehet készíteni – a felvételt felhasználni sem lehet engedély nélkül. Tehát ha valakiről hozzájárulása nélkül ilyen jellegű sértő tartalmat tesznek közzé, a polgári perrendtartás szabályai szerint a következő eszközök állnak rendelkezésére:

Fel kell szólítani a felvétel felhasználóját, hogy szüntesse meg a jogsértő helyzetet (szedje le a közzétett tartalmat) és adjon megfelelő elégtételt (tegyen közzé egy helyreigazító nyilatkozatot).

Fontos, hogy a jogsértésről való tudomásszerzéstől számított 30 napon belül kell megtenni a felszólítást, a későbbiekben erre nincs lehetőség. Ha a felhívásnak a jogsértő nem tesz eleget, 15 napon belül perindításnak lehet helye (ha az ügy összes körülményére figyelemmel ez tűnik a legbiztosabb megoldásnak).

A szűk határidők egyszerű indoka, hogy az interneten, és az internet alapján a sajtóban a hírek, tartalmak folyamatosan és gyorsan váltják egymást, mindig valami új téma válik felkapottá. Emiatt az a jogalkotói cél, hogy a sérelmet szenvedett személy minél hamarabb jogorvoslatot, elégtételt nyerjen.

Más megközelítésből a jog által biztosított másik releváns jogosultság a becsület és a jóhírnév védelme. Előbbi a személy társadalmi megítélésének hátrányos befolyásolását, utóbbi a valótlan tények állításával vagy valós tények valótlan színben történő feltüntetésével megvalósuló jogsértést hivatott megakadályozni. Ezeken kívül más magatartással is el lehet követni az említett jogsértéseket, ld. egy deepfake videó esetében más arcának olyan videóba történő átültetésével, amelyhez nem járulna hozzá. Az eljárás rendje ugyanaz mint a képmáshoz való jog megsértése esetén.

 

Tekintettel arra, hogy a deepfake technológiával való visszaélés akár bűncselekményt is megvalósíthat, a polgári peres eljárás mellett büntető feljelentést is tehetünk az elkövető ellen. A büntető-eljárás kimenetele az adott cselekmény részleteitől függ.

 

Amennyiben az információs-technológia jogával kapcsolatos jogi segítségre van szüksége, forduljon bizalommal szakértő kollégáinkhoz!

Eltitkolt vagyon - Mennyi Bitcoinja van a házastársamnak?

2021-12-17
Eltitkolt vagyon - Mennyi Bitcoinja van a házastársamnak?

Nem ismeretlen témakör manapság az ügyvédek és bíróságok számára, ha egy válóper során felmerül, hogy a válófélben lévők egyike, vagy akár mindkettőjük rendelkezik kriptovaluta, például Bitcoin-befektetésekkel. Ugyanakkor a válóperes tárgyalások során kötelezően nyilvánosságra kell hozzuk a vagyonunk tárgyát képező összes vagyonelemet, hiszen a pénzügyi rendezésre csak ezen információk birtokában kerülhet sor. Felmerül a kérdés, hogy számíthatunk-e házastársunk őszinteségére, illetve hogy - akár jogi úton - milyen segítséget tudunk igénybe venni a konkrét Bitcoin-állomány felkutatására, hogy az a közös vagyon megosztása során szintén felosztásra kerüljön (lehetőleg) megegyezés szerinti módon és arányban.

Bővebben

Közösségi finanszírozási szolgáltatások

2021-11-25
Közösségi finanszírozási szolgáltatások

A kezdő vállalkozások gyakran olyan tőkehiányban szenvednek, amely következtében a család és az ismerősök (esetleg túlzott bizalommal rendelekző támogatók) által nyújtott finanszírozással sem közelíthető meg az intézményi befektetés. Korábbi cikkünk folytatásaként jelen írásunkban a kezdő- és kisvállalkozások tőkéhez jutásának akadálymentesítésére szolgáló új, az Európai Unió közösségi finanszírozási üzleti szolgáltatókra vonatkozó rendeletének fő rendelkezéseit és a szabályozás adta lehetőségeket mutatjuk be.

Bővebben

Deepfake – megtévesztő tartalmak az interneten

2021-11-02
Deepfake – megtévesztő tartalmak az interneten

A deepfake fogalmát a „deep learning” (mély tanulás) és a „fake” (hamis, valótlan) szavak összevont alakja alkotja. Egy olyan technológiát jelent, amellyel – a mélytanulás folyamatával -  megtévesztően hiteles videó- és hangfelvételeket lehet készíteni. Napjainkra olyannyira élethű hamisítványokat készítenek, hogy emberi szemmel csak nagy odafigyeléssel vehető észre a valótlanság. Bár a 21. század érdekfeszítő újítása, a deepfake egyúttal rendkívüli veszélyeket is hordoz. Cikkünkben ezen technológiák vívmányait és kockázatait mutatjuk be.

Bővebben

Állunk rendelkezésére az információs technológiával kapcsolatos jogi kérdések tekintetében!

Kapcsolat