Als een zelfrijdende auto iemand aanrijdt, wie is er dan aansprakelijk? Of wat als we straks een huisrobot hebben om onze schoonmaakklussen te doen, die onze visite door een fout een klap in het gezicht geeft? Wie is er dan aansprakelijk? Er bestaan wel aansprakelijkheidsregels, maar die kunnen wel een moderne inslag gebruiken. Dat vindt ook Europa: de Europese Commissie wil de aansprakelijkheidsregels in een nieuw jasje steken.
Dat nieuwe jasje heeft alles te maken met kunstmatige intelligentie. Denk aan zelfstandig opererende robots, slimme drones en smarthome-apparatuur. De huidige regelgeving is 40 jaar oud en stamt dus uit een tijd dat we amper computers hadden, laat staan een zelfrijdende auto. Juist als het om kunstmatige intelligentie gaat, dan is die aansprakelijkheid een heet hangijzer. Als technologie immers zelf beslissingen neemt, wie moet dan worden gestraft als die beslissing niet goed is? En hoe zit het met updates: als een fabrikant nalatig is in het uitgeven van updates, waardoor narigheid gebeurt, wat kan een rechter dan doen?
Het is lastig, want als dit te veel wordt dichtgetimmerd, dan zal je merken dat het in de weg gaat liggen van innovatie. Echter is dat allemaal niet zo makkelijk: er komen ook veel ethische dilemma’s bij kijken. Denk bijvoorbeeld aan wat Neuralink doet: in hoeverre mag je technologie toepassen op het menselijk brein? In hoeverre is iemand dan zelf verantwoordelijk voor wat hij of zij doet? In hoeverre ben je nog een mens en geen robot? Het is een ingewikkeld verhaal, maar het is wel nodig dat Europa daar tot op zekere hoogte wet- en regelgeving voor heeft. En die regelgeving moet wel toekomstbestendig zijn en voor zover dat kan rekening houden met toekomstige uitvindingen.
Uiteraard wordt de regelgeving niet gemaakt om straffen uit te delen, maar vooral om te zorgen dat burgers veilig blijven. Door duidelijk te maken waar de verantwoordelijkheid ligt, zal bijvoorbeeld een maker van zelfrijdende auto’s misschien toch eerder extra tests uitvoeren om zoveel mogelijk zeker te stellen dat de tech naar behoren werkt. Bovendien wil Europa ook laten zien dat het de innovaties ziet en zorgen dat burgers zich beschermd en veilig voelen wanneer er straks een drone zonder piloot in de buurt voorbij vliegt.
Het gaat overigens niet alleen om apparaten, maar ook kunstmatige intelligentie binnen apps. Denk bijvoorbeeld aan die zeer vervelende situatie bij Amazon waarbij de kunstmatige intelligentie die verantwoordelijk was voor de eerste schifting in CV’s zichzelf zo trainde dat alleen witte mannen werden doorgelaten. Je wil dat ten eerste voorkomen, ten tweede wil je als gedupeerde sollicitant actie kunnen ondernemen. Maar wat als een bedrijf zoals Fitbit bijvoorbeeld al je data zomaar verliest. Is het dan een kwestie van pech: alle data maar weer opnieuw laten verzamelen, of kun je Fitbit dan aansprakelijk stellen? Er zijn nog zoveel vragen rondom kunstmatige intelligentie en Europa wil graag zorgen dat daar wat meer antwoorden op zijn.
Die antwoorden kunnen vrij verstrekkende gevolgen hebben. Een derde partij die iets op Bol.com of Amazon zet dat defect is, die is in principe aansprakelijk. Is hij of zij echter met de noorderzon vertrokken, dan kan die last zomaar op de schouders van het betreffende winkelplatform komen te liggen. Europa is druk bezig met al dit soort situaties en wil de lidstaten en het Europees Parlement voorstellen voorleggen om te worden goedgekeurd. Het gaat dus nog wel even duren voordat we hier meer van horen, maar dat eraan wordt gewerkt is een goed teken. Mits het tenminste niet zorgt voor een te grote beperking van innovatie.