Warning: getimagesize(upload/itlawpro/2019/07/AI-Ir%C3%A1nyt%C5%B1-190730.jpg): failed to open stream: No such file or directory in /home/user_1/web_1/web/moduls/content/ContentController.php on line 104
Mesterséges Intelligencia – etikai iránytű - IT jog, informatikai jog, szellemi alkotások joga, adatvédelmi jog -IT jog, informatikai jog, szellemi alkotások joga, adatvédelmi jog, informatikai szerződések szerkesztése, szoftver- és licencszerződések, jogi képviselet

Szakmai blog

Mesterséges Intelligencia – etikai iránytű

2019-07-30 | Adatvédelem, Érdekességek, IT jog

A mesterséges intelligencia (artificial intelligence, AI) területén folytatott kutatások, és ezek eredményeinek felhasználása rendkívüli ütemben felgyorsult az utóbbi években. Számtalan hírt hallhattunk, hogy a tudomány vagy éppen a mindennapi élet újabb területén jelent meg a mesterséges intelligencia. Jelen cikkünkben az AI által működtetett rendszerek, eszközök etikai oldalról történő megközelítését igyekszünk bemutatni.

Idén áprilisban látott napvilágot a mesterséges intelligencia magas szintű szakértői csoport (High-Level Expert Group on Artificial Intelligence, AI HLEG) ún. Etikai iránymutatása, amely nevében is kifejezi, fő funkciója és feladata az, hogy kijelöljön egy jogszabályi kötelező erővel nem rendelkező, ám Európa szerte alkalmazott utat az AI etikus felhasználása területén.

Az AI HLEG egy 52 fős, független szakértőből álló csoport, amelyet 2018 júniusában az Európai Bizottság hívott össze. Tagjai között vannak akadémikusok, egyetemi oktatók, csakúgy, mint a civil társadalom szereplői illetve az ipari terület kiválóságai is. Az ő feladatuk, hogy az Európai Unió mesterséges intelligenciát érintő stratégiájának általános célkitűzéseit szakmai oldalról támogassák. Ez a feladat többek között olyan ajánlások kidolgozását foglalja magába, amelyek az etikai, jogi és társadalmi szempontokat egyesítik a különböző érintett szektorok számára. További célkitűzésként a szervezet különböző kutatások és felmérések elkészítésével is foglalkozik.

Az etikai iránymutatás tükrözi, hogy az Európai Unió célkitűzései között szerepel az etikus, biztonságos és élvonal-beli AI-t használó társadalom. Ezt szem előtt tartva alkotta meg a szakértői csoport az iránymutatását.

Az AI HLEG három fő kritériumot határozott meg, amelyeknek minden mesterséges intelligenciának meg kell felelnie annak érdekében, hogy megbízhatónak legyen tekinthető.

  1. Jogszerűség: A mesterséges intelligenciának meg kell felelnie az összes alkalmazandó jognak és szabályozásnak, valamint szakmai előírásnak.
  2. Etikusság: A mesterséges intelligenciának az alapvető erkölcsi elveknek és értékeknek is eleget kell tennie.
  3. Stabilitás: A mesterséges intelligenciának technikai és társadalmi szempontból egyaránt stabilnak kell lennie, mert az esetleges hibákkal kárt, vagy akár személyi sérülést is okozhat például egy önvezető autó (ahogy korábbi cikkünkben is írtuk).

Ideális esetben ezek a feltételek egyszerre vannak jelen és harmonikusan kiegyenlítik egymást. A három kritérium ilyen megfogalmazásban azonban túl széleskörű, érezhető hogy ebben a formában inkább alapelvi jelleggel kerültek meghatározásra.

Az alapelvek megvalósulásáért konkrét követelményeket fogalmaztak meg a szakértők, amelyeket egy példálózó jellegű listába szedtek össze. Ezek az elvárások az alábbiak:

§ Emberi jelenlét és felügyelet

A mesterséges intelligencia felügyelete segít meggyőződni arról, hogy az emberi autonómia nem veszélyeztetett és egyéb kedvezőtlen hatás bekövetkezése sem várható. Szükséges ez annak érdekében is, hogy az AI feladatának megfelelően segítse az embereket a lehető legjobb döntés meghozásában.

§ Technikai szilárdság és biztonság

E feltételnek az a célja, hogy megelőzze az AI rendszerek működése közben felmerülő károkat, mégpedig úgy, hogy már a tervezéskor, preventív jelleggel számolnak a károkozás lehetőségével.

§ Privát szféra és adatkezelés

Az AI-nek tiszteletben kell tartania a felhasználó által megadott, és a használat alatt összegyűjtött adatait, valamint ezeket megfelelő módon védenie is kell. Az adatgyűjtés a megfelelő működés érdekében, és a károkozás elkerülése miatt szükséges.

§ Átláthatóság

Magában foglalja az adatok és azok felhasználásnak nyomon követhetőségét, a technikai folyamat és az emberi döntés kapcsolatának leírhatóságát, illetve azt, hogy az embereknek joguk van tudni arról, ha egy AI által vezérelt rendszerrel kommunikálnak.

§ Sokféleség, diszkrimináció mentesség és méltányosság

A mesterséges intelligencia által működtetett rendszereknek is tiszteletben kell tartania az egyenlő bánásmód elvét és a hátrányos megkülönböztetés tilalmát. Minden fogyasztónak, résztvevőnek ugyanolyan hozzáférést kell biztosítani, kortól, nemtől, bőrszíntől, illetve egyéb tulajdonságától függetlenül.

§ Társadalmi- és környezeti viszonyok

Az AI megalkotásakor és annak további létszakaszaiban is figyelemmel kell lenni a környezeti és társadalmi igényekre, a fenntartható fejlődés követelményeire.

§ Felelősségre vonás, elszámoltathatóság

Esetleges károkozás vagy egyéb hátrányos következmény bekövetkezte esetére világosan meghatározható kell, hogy legyen a mesterséges intelligencia által végzett tevékenységekért felelős személy vagy szervezet.

Mindezen követelményekből látható tehát, hogy a biztonságos, az emberek, a társadalom és a környezet számára is előnyös és használható mesterséges intelligenciával működtetett rendszerek, eszközök, hálózatok kiépítésére törekszik az Európai Unió. A kérdés csupán az, mikor lehet majd ilyen, vagy ezekhez hasonló elvárásokat jogszabályi/iparági szinten is rögzíteni.

Új korszak a szankciós megfelelésben: Az MNB 3/2026. (III.25.) számú ajánlásának elemzése

2026-04-14
Új korszak a szankciós megfelelésben: Az MNB 3/2026. (III.25.) számú ajánlásának elemzése

A globális geopolitikai helyzet eszkalálódása és a digitális pénzügyi megoldások térnyerése kényszerű válaszreakcióra késztette a szabályozó hatóságokat. A Magyar Nemzeti Bank 2026. március 25-én tette közzé legújabb, 3/2026. számú ajánlását, amely mérföldkőnek számít a pénzátutalások és a kriptoeszköz-transzferek szankciós szűrésének területén. Az ajánlás célja, hogy egységes és szigorú keretrendszert biztosítson az uniós és nemzeti korlátozó intézkedések hatékony végrehajtásához. Írásunkban az ajánlás legfontosabb rendelkezéseit mutatjuk be.

Bővebben

Új kiberbiztonsági szabályok 2026-tól

2026-01-09
Új kiberbiztonsági szabályok 2026-tól

A jogalkotó elfogadta a 2025. évi CXXXV. módosító törvényt, amely alapvető változásokat vezet be a magyar kiberbiztonsági szabályozásban. A módosítás célja kettős, egyrészt az uniós kiberreziliencia-rendelet (Cyber Resilience Act, CRA) hazai végrehajtása, másrészt a már hatályban lévő magyar kiberbiztonsági szabályok pontosítása és kiterjesztése. A változások 2026-tól fokozatosan lépnek hatályba, és számos olyan szervezetet érintenek, amelyek eddig nem vagy csak korlátozottan tartoztak kiberbiztonsági kötelezettségek alá.

Bővebben

Új rendelet a nagy kockázatú MI-rendszerek megfelelőségértékeléséről

2026-01-06
Új rendelet a nagy kockázatú MI-rendszerek megfelelőségértékeléséről

A mesterséges intelligenciát érintő uniós szabályozás végrehajtása Magyarországon új szakaszba lépett. A 44/2025. (XII. 23.) NGM rendelet a nagy kockázatú mesterséges intelligencia-rendszerekhez kapcsolódó végrehajtási jogszabály, amely a megfelelőségértékelést végző szervezetek kijelölésével kapcsolatos szabályokat határoz meg.

Bár a rendelet elsődlegesen nem az MI-rendszereket fejlesztő vagy alkalmazó vállalkozásokra vonatkozik, közvetett hatása valamennyi olyan piaci szereplőt érint, amely nagy kockázatú MI-megoldást kíván üzembe helyezni Magyarországon.

Bővebben

Állunk rendelkezésére az információs technológiával kapcsolatos jogi kérdések tekintetében!

Kapcsolat