Mesterséges intelligencia és a felelősség

A felelősség, különösen a termékfelelősség a gyakorlatban dolgozó minőségügyi szakemberek tevékenységének naponta előkerülő kérdése. A terület a hazai és európai uniós jogban, és a kapcsolódó harmonizált szabványokban szabályozott terület. 

A gyorsan fejlődő digitalizált gyártástámogató rendszerek, a dolgok internete, és más digitális technológiák olyan gyorsan jönnek létre, és fejlődnek napról napra, hogy az nehezen követhető. Nem igazán látható, hogy az Ipar 4.0 és a Minőség 4.0 területén milyen változások történnek a következőkben, de az biztos, hogy a változások nagyon intenzívek. A kialakuló digitális technológiák, és a mesterséges intelligencia mind szélesebb alkalmazására a jelenlegi szabályok alapnak megfelelőek, de nem képesek a felmerülő problémák minden részletét helyes mederbe terelni, vagy az élet gyorsan túl lép rajtuk.

 Az Európai Unióban szakértők álltak össze a kérdés körül járására, majd kiadták jelentésüket. 

LIABILITY FOR ARTIFICIAL INTELLIGENCE AND OTHER EMERGING DIGITAL TECHNOLOGIES (Felelősség a mesterséges intelligenciánál és más kialakulóban lévő digitális technológiáknál) címmel.

Nézzünk bele a vezetői összefoglalóba, hogy megértsük miről van szó.

 Ezen új technológiák és alkalmazásuk sajátos jellemzői – ideértve a komplexitást, a frissítéseken keresztül történő módosításokat vagy a működés közbeni öntanulást, a korlátozott kiszámíthatóságot és a kiberbiztonsági veszélyekkel szembeni sebezhetőséget – megnehezítheti az áldozatok kártérítési igényének benyújtását minden olyan esetben, amikor ez indokoltnak tűnik. Az is előfordulhat, hogy a felelősség elosztása tisztességtelen vagy nem hatékony.

Ennek orvoslása érdekében bizonyos módosításokat kell végrehajtani az EU és a nemzeti felelősségi szabályozásokban.

Felelősségi szabályok lehetséges változásai

Az alábbiakban felsoroljuk e jelentés legfontosabb megállapításait arról, hogy a mit kell tenni a felelősségi szabályok területén. E szabályokat úgy kell megtervezni – és szükség esetén, módosítani – hogy a digitális technológiák kihívásainak felbukkanása esetében kövessék azokat, növeljék a károk elleni védelmet.

  • Az a személy, aki olyan megengedett technológiát működtet, amely fokozott kockázatot hordoz magában a másoknak okozott károk vonatkozásában, például a mesterséges intelligenciával vezérelt robotot a nyilvános terekben, felelős a működésből eredő károkért.
  • Olyan esetekben, amikor a szolgáltató rendelkezik nagyobb ellenőrzés joggal, mint a mesterséges intelligenciával felszerelt termék vagy szolgáltatás tulajdonosa vagy felhasználója, figyelembe kell venni annak meghatározásakor, hogy ki is kezeli elsősorban a technológiát.
  • A mások számára nem fokozott veszélyt jelentő technológiákat működtető személyek továbbra is felelősek az alkalmazott technológia megfelelő kiválasztásáért, üzemeltetésért és karbantartásáért. Ha mindezeket a feladatokat nem megfelelően végzik el, a hibájukért felelősséget kell vállalniuk.
  • Az a személy, aki olyan technológiát használ, amely bizonyos fokú autonómiával rendelkezik, nem lehet kevésbé felelős a károkért, mint ha az említett károkat egy emberi segítő okozta volna.
  • A kialakuló digitális technológiát tartalmazó termék vagy digitális tartalom gyártói a termékek hibái által okozott károkért felelősek, ha a hibát a gyártó ellenőrzése alatt álló termék módosítások okozták. Még akkor is, ha azt azután vezették be, hogy a terméket piacra vitték.
  • Olyan helyzetekben, amikor az alkalmazott technológia a felhasználókat (harmadik fél) fokozottan veszélyezteti, a kötelező felelősségbiztosítás megfelelő lehetőséget adhat a kártalanításra a károsultak számára. Ugyanakkor megvédheti a potenciális károkozókat is a felelősség kockázatával szemben.
  • Ha egy adott technológia megnöveli az észszerűen elvárható felelősség bizonyításának nehézségeit, az áldozatoknak jogosultaknak kell lenniük a bizonyítás megkönnyítésére.
  • A kialakuló digitális technológiáknak naplózási funkciókkal kell rendelkezniük. Adott körülmények esetében, például a naplózás elmaradásakor, illetve a naplózott adatokhoz való megfelelő hozzáférés biztosításának elmulasztása esetén a bizonyítási teher megfordítását eredményezheti annak érdekében, hogy ne sértse az áldozatot.
  • Az áldozat adatainak megsemmisítését kárnak kell tekinteni, amelyek különleges körülmények között megtéríthetők.
  • Nem szükséges az eszközöknek vagy az autonóm rendszereknek jogi személyiséget adni, mivel a kár, amit ezek okozhatnak, meglévő személyek vagy szervezetek részére lehet és kell felróni. 

A fenti kérdésekre kialakuló szabályozások hamarosan előtérbe kerülnek. Nekünk is érdemes átfutnunk a jelentést, hogy nagy vonalakban lássuk merre indulhat el a jogi szabályozás, és az új termékeink, szolgáltatásaink kialakításánál figyelembe tudjuk venni, vagy legalább is ne tegyük lehetetlenné az alkalmazkodást a megjelenő előírásokhoz. 

Forrás:

Expert Group on Liability and New Technologies

New Technologies Formation

LIABILITY FOR ARTIFICIAL INTELLIGENCE AND OTHER EMERGING DIGITAL TECHNOLOGIES

(Felelősség a mesterséges intelligenciánál és más kialakulóban lévő digitális technológiáknál)

© European Union, 2019

https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608