Szakmai blog

A mesterséges intelligencia jövője az EU-ban: a vadnyugat vége

2023-02-10 | IT jog

A mesterséges intelligencia jövője az EU-ban: a vadnyugat vége

A Mesterséges Intelligencia jövője

A folyamatos technológiai fejlődés állandó lépéskényszerben tartja a jogot, amely versenyben a jogalkotót nagy felelősség terheli. Nincs ez másképp napjaink egyik legtöbb megoldatlan dilemmát hordozó technológiája, a mesterséges intelligencia (MI) esetén sem. Ennek ellenére az MI alapú technológiák szabályozási környezete jelenleg kevésbé utópisztikus, mint amilyennek azt hihetnénk, sőt, inkább vadnyugati állapotokra emlékeztet. Az enyhén szólva dinamikus innováció mellett mindez a technológiából fakadó fenyegetések terjedésével és az azokért való csekély mértékű felelősségre vonhatóság veszélyével fenyeget. Ugyanakkor sokak szerint az MI belátható időn belül az innováció motorjává fog válni, ezért a technológia túlkorlátozása legalább akkora versenyhátrányt jelentene, mint ha nem szabályozzuk.

A kettő közötti kényes egyensúlyt kísérelte meg megteremteni az Európai Bizottság a közelmúltban. Amilyen nagyot robbant a hír 2021 áprilisában, hogy az EU-ban benyújtásra került a világ első MI szabályozására vonatkozó rendelet-javaslat (ez az ún. „Artificial Intelligence Act – AIA”), olyan lassan forognak a jogalkotás fogaskerekei, így hatályos szabályozásról még korántsem beszélhetünk. Ez azonban a javaslat jelentőségét korántsem csorbítja: üdvös, hogy a jogalkotó idejekorán felismerte a szabályozás szükségességét, különösen arra tekintettel, hogy a rendelettel az EU teremthetné meg a globális jogalkotási standardot az MI kérdésében.

Kire vonatkozna az AIA?

Ugyan a rendelet még a rendes jogalkotási eljárás első olvasatán sincs túl, a Bizottság a javaslattal kijelölte a fő irányait a jövőbeli szabályozásnak. Ezek, a tervek szerint, vonatkoznának egyrészt az MI technológiát az EU-ban forgalomba hozó, vagy üzembe helyező szolgáltatókra (pl. MI alapú szoftvert fejlesztő startup), másrészt az MI-rendszert az Unió területén belül felhasználókra (pl. a szoftver felhasználási jogát megvásárló cég), végül pedig az olyan harmadik országbeli MI-rendszert felhasználókra és szolgáltatókra is, amelyek tevékenysége az Unión belüli hatással rendelkezik. Látható, hogy a javaslat alanyi köre meglehetősen széles, ezért az esetleges érintetteknek – amelyek száma nem elhanyagolható, figyelemmel arra, hogy az EU globális MI-piacon való részesedése 22% körülire becsülhető – érdemes már most tekintettel lenni a leendő rendeletre.

Hogyan változna az MI-rendszerek helyzete?

Az AIA az MI szabályozásának egy kockázatalapú megközelítését intézményesítené. Ez azt jelenti, hogy különböző megítélés és feltételrendszer alá esnek azok a gyakorlatok, melyek a javaslat értelmében a) tiltottnak, b) magas kockázatúnak, c) korlátozott kockázatúnak, vagy d) alacsony kockázatúnak, illetve kockázatmentesnek minősülnek. Azok a rendszerek, amik az a)-c) pontokban nem kerülnek megnevezésre, az utolsó kategóriába esnek és csupán magatartási kódexek irányadók rájuk. Minden egyéb esetben az AIA kötelező szabályokat intézményesít, ami alapján a compliance-feladatok súlyosbodása várható.

a) A magasfokú alapjogi fenyegetése miatt elfogadhatatlan kockázatot hordoz magában, ezáltal tiltott MI-rendszernek számít mindaz, ami fizikai vagy pszichológiai sérülést okozó tudatalatti manipulációt; állampolgárokat viselkedésük, tevékenységük alapján nyilvántartó „társadalmi pontozást” (social scoring); továbbá gyermekek, illetve értelmi fogyatékos személyek kihasználását és veszélyeztetését; vagy távoli biometrikus azonosítást valósít meg – utóbbi bizonyos bűnüldözési kivételekkel.

b) Magas kockázatú kategóriába tartozó MI-rendszereknek minősülnek számos egyéb mellett például azok, amelyek feladata infrastruktúrák irányítása (pl. gázhálózat, közút) során a biztonság megteremtése; oktatási intézményben hallgatók értékelése; természetes személyek hitelképességének értékelése vagy hitelpontszámuk megállapítása; vagy a büntetőeljárásban különböző bűnüldözési funkciók betöltése. Ugyan a jogalkotási eljárásban központi vitatémát jelent, hogy mely rendszerek tartozzanak a magas kockázatú kategóriába, az már most is látható, hogy a mindennapi élet szempontjából központi jelentőségű és változatos területek meghatározott MI alapú megoldásai lesznek ide sorolva, így különös jelentősége van annak, hogy milyen szabályok fognak ezekre vonatkozni.

A magas kockázati kategóriába tartozó MI alapú megoldásoknak széleskörű követelményrendszernek kell majd megfelelnie. Ez alapján elvárt lesz az MI által kezelt adatállománynak és az adott rendszer technikai dokumentációjának megfelelő minősége; a rendszer tevékenységének ellenőrizhetősége és visszakövethetősége, illetve a rendszer feletti emberi felügyelet; továbbá a rendszer megfelelő pontossága és kiberbiztonsága. Mivel ezen rendszerek engedélykötelesek lennének, ezért a piacra lépéshez szükséges engedély megszerzésére csak ezen feltételek teljesülése esetén kerülhetne sor.

c) Nem elhanyagolható a korlátozott kockázatúnak minősülő rendszerek helyzete sem. Ebbe a kategóriába tartoznak olyan rendszerek, ahol fennáll a manipuláció, vagy a megtévesztés veszélye, így például a chatbotok, vagy deepfake-k esetén. Ugyan ezekre az előző pontban említett széleskörű követelményrendszer nem vonatkozna, de új átláthatósági követelmények igen, amelyek lényege az, hogy a felhasználók tisztában legyenek a rendszer MI alapú jellegével, így biztosítva a befolyás- és megtévesztésmentes használatot.

Hogyan értékelhetjük mindazt, ami most az MI (AI) Európai Uniós jövőjéből látszik?

A fentiek fényében - ha az AIA vonatkozó rendelkezései változatlanul kerülnek elfogadásra, ami a folyamatos vita miatt korántsem biztos - elsősorban a magas, de a korlátozott kockázatú MI-rendszert szolgáltatókat is számos kötelezettség fogja terhelni, amely jelentős compliance jellegű terhet róna rájuk. Így van ez még akkor is, ha egyébként a javaslat törekszik ezeket minimalizálni és a KKV-k számára engedményeket biztosítani. Ebből következően az érintett piaci szereplők körében mindenképpen fel fog értékelődni az IT-jogi szaktudás igénybevételének szerepe.

Ez már csak a kifejezetten szigorú szankciórendszer miatt is igaz: a tiltott és a magas kockázatú rendszerekre vonatkozó egyes szabályok megsértése esetén akár 30 millió euró összegű, vagy a globális bevétel 6%-áig terjedő bírságra számíthat a szabály megszegője - attól függően, hogy melyik érték magasabb. Az AIA-val való egyéb compliance elmaradása esetén a bírságok maximális értékei 20 millió/4%-ig; a rendelet betartatása érdekében jövőben felállítandó tagállami MI-hatóságokkal való hibás, hiányos, vagy félrevezető információ közlése esetén pedig 10 millió/2%-ig terjednek.

Összességében még jogkövető vállalkozások esetén is a szabályozás hátulütőjeként értékelhető a compliance-költségek emelkedése.  Emellett azonban meg kell említeni, hogy amennyiben az AIA eléri célját és növeli a társadalom MI-rendszerekbe vetett bizalmát, úgy ez a technológia további népszerűségéhez és az MI-piac további bővüléséhez vezethet. Ahogy az indokolás fogalmaz: „a nagyobb bizalomnak köszönhető nagyobb kereslet, a jogbiztonság miatt rendelkezésre álló több ajánlat, valamint az MI-rendszerek határokon átnyúló mozgása előtt álló akadályok hiánya hatására valószínűleg virágozni fog a mesterséges intelligencia egységes piaca.”

Akkor nincs más hátra, mint előre?

Nem teljesen. Heves kritikával illetett hiányossága a javaslatnak például, hogy az az MI és a szellemi tulajdonjog összefonódásairól nem ejt szót (de mi írtunk róla nem is olyan régen), annak ellenére, hogy az Európai Parlament is a kérdés tisztázására sürgette a Bizottságot már 2020-ban. Bizonytalanságokkal övezett, ám napról napra relevánsabb kérdés ugyanis, hogy vajon mi a szerzői jogi sorsa egy MI által készített alkotásnak. Csupán szomszédos jogi oltalom vonatkozhat rá, vagy minősülhet-e szerzői műnek, és ha igen, akkor kit illetnek meg a szerzői jogok?

Hasonlóképpen egyre kevésbé tűnik a jövő zenéjének az MI és a védjegyjog harmóniája. Mivel egyre elterjedtebb az MI szerepvállalása magában a vásárlási és az ahhoz kapcsolódó termékkiválasztási folyamatban, ezért a megkülönböztethetőségnek, mint a védjegyoltalom alapvető feltételének a mércéje is újraértelmezésre szorul. Egy MI alapú rendszer sokkal kevésbé hajlamos a megtéveszthetőségre ugyanis, mint egy átlagos fogyasztó, ezáltal a szofisztikáltabb szelekciós mechanizmussal rendelkezik. Az uniós jogi rezsim további hiányossága tehát, hogy jelen állás szerint rendezetlenül hagyja ezt a kérdést is.

A fenti hiányosságokat félretéve annyi mindenesetre bizonyos, hogy minden MI területen tevékenykedőnek érdemes figyelemmel kísérnie az AIA jövőjét, hiszen jó esély mutatkozik arra, hogy hamarosan vége szakad az MI szabályozás vadnyugati állapotának.

 

Ha Ön MI/AI fejlesztő  vagy sértve érzi jogait a mesterséges intelligencia használata által, keressen minket, dolgozzunk együtt!

Szoftvertesztelés fontossága

2024-02-01
Szoftvertesztelés fontossága

A szoftvertesztelés szinte elengedhetetlen része a szoftverfejlesztésnek és létfontosságú alkotóeleme a szoftver megbízhatóságának és az erőforrások optimalizálásának. Hogyan érdemes lefolytatni, és a fejlesztés melyik részén célszerű bevonni a tesztelés faktorát?

Cikkünkben ezekre a kérdésekre keressük a választ.

Bővebben

NIS2 irányelv a gyakorlatban

2024-01-30
NIS2 irányelv a gyakorlatban

Az adathalász támadások egyre gyakoribbá váltak a digitalizáció rohamszerű fejlődésével. Az EU tagállamoknak 2024. október 17-ig kell átültetniük az új kibervédelmi irányelvet a saját jogrendszerükbe. Az érintett ágazatokon belül, néhány kivétellel minden közepes- és nagyvállalatnak meg kell felelnie a szabályozásnak. Cikkünkben a NIS2 irányelvvel kapcsolatos legfontosabb tudnivalókat szedtük össze!

Bővebben

A ChatGPT-vel összefüggő adatvédelmi aggályok - Könnyen hozzáférhetnek az adatainkhoz?

2024-01-05
A ChatGPT-vel összefüggő adatvédelmi aggályok - Könnyen hozzáférhetnek az adatainkhoz?

Az utóbbi időben a vállalatok világszerte generatív mesterséges intelligencia (GenAI) megoldásokat vezettek be, adataik hatékony és egyszerű kezelése és átláthatósága érdekében. Mivel a legtöbb esetben a GenAI-modellnek "hosszú távú memóriával" kell rendelkeznie, szinte minden vállalati megoldáshoz szükség van egy vektoradatbázisra, amelyet a modell futásidőben lekérdezhet a felhasználói kérdés megválaszolásához szükséges kontextus eléréséhez.

Azonban az eddig rendkívül biztonságosnak hitt megoldás egy olyan kellemetlen igazságot rejt, amely hatalmas adatvédelmi aggályokat vethet fel.

Bővebben

Állunk rendelkezésére az információs technológiával kapcsolatos jogi kérdések tekintetében!

Kapcsolat