Europese aansprakelijkheidsrichtlijn moet bescherming bieden tegen drones met AI
De Europese Commissie heeft een wettelijke richtlijn geïntroduceerd die burgers en bedrijven bescherming moet bieden tegen op artificial intelligence (AI) gebaseerde producten, zoals geavanceerde drones. Op basis van het AI Liability Directive moet het mogelijk worden om fabrikanten aan te klagen zodra er op enige wijze schade ontstaat als gevolg van de toepassing van AI.
Kunstmatige intelligentie
AI wordt in steeds meer (consumenten)producten toegepast. Ook moderne drones maken volop gebruik van AI. Bijvoorbeeld om een persoon of een object automatisch te volgen tijdens het filmen, of om zelfstandig een route te bepalen. Ook wordt AI bijvoorbeeld toegepast om automatisch afwijkingen te detecteren tijdens inspecties. Met behulp van geavanceerde gezichtsherkenning is het zelfs mogelijk om vanuit de lucht automatisch gezochte personen op te sporen in een menigte.
Er schuilen echter ook risico’s in het gebruik van AI. Denk aan een drone die ergens tegenaan botst omdat de obstakeldetectie cq. automatische flight planner een bepaalde situatie verkeerd inschat. Vervelend als daardoor een drone verloren gaat, maar ronduit problematisch als daardoor iemand gewond raakt of er vervolgschade ontstaat.
Ook is het niet ondankbaar dat bepaalde AI-beeldherkenningstoepassingen kunnen leiden tot een inbreuk op de privacy. Denk daarbij aan het automatisch verzamelen van data over personen zonder dat daarvoor een juridische basis is. Ook de automatische identificatie van individuen door middel van AI-ondersteunde camera’s, al dan niet in combinatie met drones, ligt uiterst gevoelig.
AI Liability Directive
Om burgers en bedrijven te beschermen tegen de uitwassen van AI heeft de Europese Commissie onlangs de AI Liability Directive geïntroduceerd. Dit is een wettelijke richtlijn op basis waarvan slachtoffers een schadevergoeding kunnen eisen bij een fabrikant of ontwikkelaar op het moment dat zij schade ondervinden aan hun eigendom, gezondheid of privacy als gevolg van een bepaalde AI-toepassing.
Daarbij moet wel aangetoond kunnen worden dat de schade een direct gevolg is van het gebruik van AI. Daartoe voorziet de wetgeving in het vermoeden van causaliteit. Dat wil zeggen dat de gebruiker alleen hoeft aan te tonen dat de leverancier of fabrikant zich niet aan Europese regels voor de toepassing van AI heeft gehouden. Via een rechtbank kan een fabrikant of leverancier verplicht worden gesteld om informatie over de werking van hun AI-toepassingen te openbaren.
“De nieuwe regels geven slachtoffers van schade veroorzaakt door AI-systemen een gelijke kans en toegang tot een eerlijk proces”, zegt EU-commissaris voor Justitie Didier Reynders. “Als we echt vertrouwen willen hebben van consumenten en gebruikers in de AI-toepassing, moeten we er zeker van zijn dat het mogelijk is om verhaal te kunnen halen en toegang te hebben tot rechtspraak als dat nodig is, zonder al te veel obstakels, zoals de ondoorzichtigheid van de systemen.”
Invoering
De AI-aansprakelijkheidsrichtlijn moet nog groen licht krijgen van alle EU-landen en EU-wetgevers voordat deze wet kan worden. Met de introductie van de AI Liability Directive wil de Europese Commissie ervoor zorgen dat de aansprakelijkheidswetgeving zoals die veertig jaar geleden werd ingevoerd weer even meekan.
(coverafbeelding: Dronetto, CC BY-SA)