A mesterséges intelligencia (artificial intelligence, AI) területén folytatott kutatások, és ezek eredményeinek felhasználása rendkívüli ütemben felgyorsult az utóbbi években. Számtalan hírt hallhattunk, hogy a tudomány vagy éppen a mindennapi élet újabb területén jelent meg a mesterséges intelligencia. Jelen cikkünkben az AI által működtetett rendszerek, eszközök etikai oldalról történő megközelítését igyekszünk bemutatni.

Idén áprilisban látott napvilágot a mesterséges intelligencia magas szintű szakértői csoport (High-Level Expert Group on Artificial Intelligence, AI HLEG) ún. Etikai iránymutatása, amely nevében is kifejezi, fő funkciója és feladata az, hogy kijelöljön egy jogszabályi kötelező erővel nem rendelkező, ám Európa szerte alkalmazott utat az AI etikus felhasználása területén.

Az AI HLEG egy 52 fős, független szakértőből álló csoport, amelyet 2018 júniusában az Európai Bizottság hívott össze. Tagjai között vannak akadémikusok, egyetemi oktatók, csakúgy, mint a civil társadalom szereplői illetve az ipari terület kiválóságai is. Az ő feladatuk, hogy az Európai Unió mesterséges intelligenciát érintő stratégiájának általános célkitűzéseit szakmai oldalról támogassák. Ez a feladat többek között olyan ajánlások kidolgozását foglalja magába, amelyek az etikai, jogi és társadalmi szempontokat egyesítik a különböző érintett szektorok számára. További célkitűzésként a szervezet különböző kutatások és felmérések elkészítésével is foglalkozik.

Az etikai iránymutatás tükrözi, hogy az Európai Unió célkitűzései között szerepel az etikus, biztonságos és élvonal-beli AI-t használó társadalom. Ezt szem előtt tartva alkotta meg a szakértői csoport az iránymutatását.

Az AI HLEG három fő kritériumot határozott meg, amelyeknek minden mesterséges intelligenciának meg kell felelnie annak érdekében, hogy megbízhatónak legyen tekinthető.

  1. Jogszerűség: A mesterséges intelligenciának meg kell felelnie az összes alkalmazandó jognak és szabályozásnak, valamint szakmai előírásnak.
  2. Etikusság: A mesterséges intelligenciának az alapvető erkölcsi elveknek és értékeknek is eleget kell tennie.
  3. Stabilitás: A mesterséges intelligenciának technikai és társadalmi szempontból egyaránt stabilnak kell lennie, mert az esetleges hibákkal kárt, vagy akár személyi sérülést is okozhat például egy önvezető autó (ahogy korábbi cikkünkben is írtuk).

Ideális esetben ezek a feltételek egyszerre vannak jelen és harmonikusan kiegyenlítik egymást. A három kritérium ilyen megfogalmazásban azonban túl széleskörű, érezhető hogy ebben a formában inkább alapelvi jelleggel kerültek meghatározásra.

Az alapelvek megvalósulásáért konkrét követelményeket fogalmaztak meg a szakértők, amelyeket egy példálózó jellegű listába szedtek össze. Ezek az elvárások az alábbiak:

§ Emberi jelenlét és felügyelet

A mesterséges intelligencia felügyelete segít meggyőződni arról, hogy az emberi autonómia nem veszélyeztetett és egyéb kedvezőtlen hatás bekövetkezése sem várható. Szükséges ez annak érdekében is, hogy az AI feladatának megfelelően segítse az embereket a lehető legjobb döntés meghozásában.

§ Technikai szilárdság és biztonság

E feltételnek az a célja, hogy megelőzze az AI rendszerek működése közben felmerülő károkat, mégpedig úgy, hogy már a tervezéskor, preventív jelleggel számolnak a károkozás lehetőségével.

§ Privát szféra és adatkezelés

Az AI-nek tiszteletben kell tartania a felhasználó által megadott, és a használat alatt összegyűjtött adatait, valamint ezeket megfelelő módon védenie is kell. Az adatgyűjtés a megfelelő működés érdekében, és a károkozás elkerülése miatt szükséges.

§ Átláthatóság

Magában foglalja az adatok és azok felhasználásnak nyomon követhetőségét, a technikai folyamat és az emberi döntés kapcsolatának leírhatóságát, illetve azt, hogy az embereknek joguk van tudni arról, ha egy AI által vezérelt rendszerrel kommunikálnak.

§ Sokféleség, diszkrimináció mentesség és méltányosság

A mesterséges intelligencia által működtetett rendszereknek is tiszteletben kell tartania az egyenlő bánásmód elvét és a hátrányos megkülönböztetés tilalmát. Minden fogyasztónak, résztvevőnek ugyanolyan hozzáférést kell biztosítani, kortól, nemtől, bőrszíntől, illetve egyéb tulajdonságától függetlenül.

§ Társadalmi- és környezeti viszonyok

Az AI megalkotásakor és annak további létszakaszaiban is figyelemmel kell lenni a környezeti és társadalmi igényekre, a fenntartható fejlődés követelményeire.

§ Felelősségre vonás, elszámoltathatóság

Esetleges károkozás vagy egyéb hátrányos következmény bekövetkezte esetére világosan meghatározható kell, hogy legyen a mesterséges intelligencia által végzett tevékenységekért felelős személy vagy szervezet.

Mindezen követelményekből látható tehát, hogy a biztonságos, az emberek, a társadalom és a környezet számára is előnyös és használható mesterséges intelligenciával működtetett rendszerek, eszközök, hálózatok kiépítésére törekszik az Európai Unió. A kérdés csupán az, mikor lehet majd ilyen, vagy ezekhez hasonló elvárásokat jogszabályi/iparági szinten is rögzíteni.

Kövessen minket Facebook-on!
Facebook
Facebook
LinkedIn