25.07.2023
Technology

Techreuzen beloven AI veiliger te maken

By: Ron Smeets

BlogTechnology

De wereld verandert met de minuut en AI zorgt ervoor dat die minuten telkens korter duren. De opkomst van (generatieve) AI is niet meer te stuiten. Toch maken steeds meer bedrijven en overheden zich zorgen over de risico’s die deze ontwikkeling met zich meebrengt. In de VS is dit onderwerp voor de regering van Biden-Harris al enkele maanden een belangrijk speerpunt. Mede ook ingegeven door de open brandbrief die enkele beroemde tech-experts in maart publiceerden.

Techreuzen gaan zich inzetten voor veilige AI

Aangezien de meeste (westerse) techreuzen die zich met de almaar versnellende AI-ontwikkelingen bezighouden in de VS gevestigd zijn, heeft de Amerikaanse overheid, en dan specifiek diens ‘head honcho’ en zijn rechterhand – Joe Biden en vicepresident Kamala Harris – zich onlangs opgeworpen om zeven techreuzen te ontbieden en met hen in gesprek te gaan. Doel van de gesprekken was het maken van afspraken over de ontwikkeling van veilige, beveiligde en transparante AI-technologie. In totaal hebben zeven toonaangevende AI-bedrijven – Amazon, Anthropic, Google, Inflection, Meta, Microsoft en OpenAI – een aantal toezeggingen op dat gebied gedaan.

Bedrijven die deze opkomende technologieën ontwikkelen, hebben de verantwoordelijkheid ervoor te zorgen dat hun producten veilig zijn. Om het potentieel van AI optimaal te benutten, eist de Amerikaanse overheid dat de industrie zich inzet om aan om de hoogste normen te handhaven zodat innovatie niet ten koste gaat van de rechten en veiligheid van Amerikanen.

Toezeggingen op drie fundamentele gebieden

De toezeggingen die de zeven techreuzen nu gedaan hebben, onderstrepen drie principes die fundamenteel moeten zijn voor de toekomst van AI – veiligheid, beveiliging en vertrouwen – en markeren een cruciale stap in de richting van de ontwikkeling van verantwoorde AI.

1. Zorgen voor veilige producten

– De zeven techreuzen verbinden zich ertoe om interne en externe beveiligingstests van hun AI-systemen uit te voeren voordat ze worden vrijgegeven. Deze tests, die gedeeltelijk door onafhankelijke experts zullen worden uitgevoerd, bieden bescherming tegen enkele van de belangrijkste bronnen van AI-risico’s, zoals bio- en cyberbeveiliging, en tegen de bredere maatschappelijke effecten ervan.

– De bedrijven verbinden zich ertoe informatie te delen in de hele sector en met overheden, het maatschappelijk middenveld en de academische wereld over het beheersen van AI-risico’s. Dit omvat best practices voor veiligheid, informatie over pogingen om beveiligingen te omzeilen en technische samenwerking.

2. Beveiliging van AI-systemen

– De bedrijven verbinden zich ertoe te investeren in cyberbeveiliging en beveiligingen tegen interne bedreigingen om eigen en nog niet vrijgegeven modelgewichte te beschermen. Modelgewichen bepalen hoeveel invloed de input zal hebben op de output. Deze zijn het meest essentiële onderdeel van een AI-systeem en de bedrijven zijn het erover eens dat het van vitaal belang is dat de modelgewichten alleen worden vrijgegeven wanneer ze bedoeld zijn en wanneer veiligheidsrisico’s worden overwogen.

– De bedrijven verbinden zich ertoe om de controle en rapportage van kwetsbaarheden in hun AI-systemen door derden te faciliteren. Sommige problemen kunnen blijven bestaan, zelfs nadat een AI-systeem is vrijgegeven en dankzij een robuust rapportagemechanisme kunnen ze snel worden gevonden en verholpen.

3. Vertrouwen van het publiek verdienen

– De bedrijven verbinden zich ertoe robuuste technische mechanismen te ontwikkelen om ervoor te zorgen dat gebruikers weten wanneer inhoud door AI wordt gegenereerd, zoals een watermerksysteem. Deze actie laat creativiteit met AI bloeien, maar vermindert de gevaren van fraude en bedrog.

– De bedrijven verbinden zich ertoe om de mogelijkheden, beperkingen en gebieden van gepast en ongepast gebruik van hun AI-systemen openbaar te maken. In dit rapport komen zowel veiligheidsrisico’s als maatschappelijke risico’s aan de orde, zoals de effecten op billijkheid en vooringenomenheid.

– De bedrijven verbinden zich ertoe prioriteit te geven aan onderzoek naar de maatschappelijke risico’s die AI-systemen kunnen opleveren, onder meer om vooroordelen en discriminatie te voorkomen en om privacy te beschermen. De staat van dienst van AI toont de verraderlijkheid en prevalentie van deze gevaren aan, en de bedrijven verbinden zich ertoe AI uit te rollen die deze gevaren vermindert.

– De bedrijven verbinden zich ertoe geavanceerde AI-systemen te ontwikkelen en in te zetten om de grootste uitdagingen van de samenleving aan te pakken. Van kankerpreventie tot het beperken van klimaatverandering tot zoveel daartussenin, AI kan, mits goed beheerd, enorm bijdragen aan de welvaart, gelijkheid en veiligheid van iedereen.

Zeven techreuzen beloven zich (nog) meer te gaan inzetten voor veilige AI.
Zeven techreuzen beloven zich (nog) meer te gaan inzetten voor veilige AI.

Samenwerking met andere landen

Naast de lokale (Amerikaanse) regelgeving en toezeggingen, zal de Amerikaanse overheid ook samenwerken met bondgenoten en partners om een sterk internationaal kader op te zetten om de ontwikkeling en het gebruik van AI te regelen. Er is al overleg gepleegd over de vrijwillige toezeggingen met Australië, Brazilië, Canada, Chili, Frankrijk, Duitsland, India, Israël, Italië, Japan, Kenia, Mexico, Nederland, Nieuw-Zeeland, Nigeria, de Filippijnen, Singapore, Zuid-Korea, de VAE en het VK.

Daarnaast werkt de Amerikaanse overheid aan nog meer regelgeving en afspraken rondom AI-ontwikkelingen, waaronder een wetgeving die de VS in staat stelt het voortouw te nemen op het gebied van verantwoorde innovatie.

Share this post