Is ze niet aan het tikken, dan reist ze rond in de wondere wereld van entertainment of op een toffe plek in de echte wereld. Mario is de man van haar leven, Belle is haar beste vriendin en haar laptop is nooit ver weg.
Er is heel veel werk gestoken in het zorgen dat AI-chatbots geen persoonlijke informatie geven of op een heel slechte manier kunnen worden ingezet. Echter is het onderzoekers gelukt om dat alles te omzeilen. Dit is hoe het zit, en hoe potentieel gevaarlijk dat kan zijn.
AI-chatbots manipuleren
De mensen van Carnegie Mellon University hebben ontdekt dat als ze een bepaalde soort code aan een prompt toevoegen, er wel degelijk lelijke dingen kunnen worden gezegd door een aan AI-chatbot. Het probleem is dat dit niet alleen bij een AI-chatbot het geval is: dit is helaas bij allemaal een groot zwakte: “Er is geen manier die we kennen om dit te patchen,” zegt Zico Kolter, een universitair hoofddocent aan CMU. “We weten gewoon niet hoe we ze veilig kunnen maken.”
ChatGPT, Bard, Claude: ze zijn allemaal niet opgewassen tegen het open source-taalmodel dat de onderzoekers gebruikten. Door die code toe te voegen aan een prompt krijg je als het ware de sleutel om dieper in de chatbot te vragen en daardoor kun je hem dingen laten doen die niet oke zijn. Hoe kan ik een waterstofbom maken, hoe kan ik iemand voor altijd laten verdwijnen, hoe kan ik illegale drugs maken: normaliter krijg je daar geen serieus antwoord op, maar wel als je die code achter je prompt zet.
Bots verbeteren
Wired schrijft dat de AI-chatbots wel op de hoogte zijn gesteld en wel wat hebben aangepast, maar helaas lukt het de onderzoekers nog steeds om hun zin te krijgen en de chatbots gevaarlijker te maken. De reactie van de chatbotmakers op het probleem is ook wat homogeen: Google en OpenAI zeggen allebei dat ze er continu aan werken om de bots te verbeteren. Ondertussen zorgen aanvallers dat ze de manier waarop de systemen gegevens oppikken om te leren worden beïnvloed zodat ze afwijkend gedrag gaan vertonen. Dat kan echter ver gaan: afbeeldingen kunnen worden aangepast waardoor AI die beelden verkeerd identificeren. Het doet denken aan een onderzoek uit 2018 waarin onderzoekers stickers op verkeersborden plakten om een zelfrijdende auto-systeem voor de gek te houden. Dat werkte erg goed en het lijkt erop dat er door de manier waarop AI-modellen werken ook geen mogelijkheid is om dat helemaal uit te bannen.
Een AI-bot die nu wordt gebruikt om vluchten te boeken, kan door dit soort code worden ingezet om potentieel gevaarlijke aanvallen uit te voeren. Het zou goed zijn als de beveiligingsagenten bij de verschillende chatbots de koppen bij elkaar staken en samenwerkten aan manieren om hun chatbots zo veel mogelijk dicht te timmeren, voor zover dat kan, uiteraard. Zorgen dat AI-chatbots niet in verkeerde handen kunnen komen, daar is het helaas al te laat voor, dus we zullen er harder aan moeten werken om de schade te beperken.
Verder lezen over ChatGPT
Technology20.11.2024
ClimateGPT: De volgende stap in klimaatonderzoek?
Online19.11.2024
Komt er een moment waarop AI niet meer kan verbeteren?
Online13.11.2024
Dit gebeurt er als je 24 uur alleen bent met AI-chatbots
Search01.11.2024
ChatGPT gaat strijd aan met Google: start eigen zoekmachine
Artificial Intelligence01.10.2024
OpenAI is van plan om ChatGPT steeds duurder te maken
Artificial Intelligence23.09.2024
iPhone-designer Jony Ive werkt met OpenAI aan nieuwe gadget
Artificial Intelligence13.09.2024
OpenAI lanceert zijn nieuwe software o1 die kan beredeneren
Artificial Intelligence04.09.2024
Oprah leidt een panel met belangrijke mensen in AI: de wereld is verbaasd
Verder lezen over Hackers
Cybercrime11.10.2024
Het allerbelangrijkste gereedschap van cybercriminelen is JOUW browser!
Gebruik daarom liever apps op tablets of smartphones voor de allergevoeligste gegevensCybercrime08.10.2024
Unlock Digitale Weerbaarheid: leer online gevaren te herkennen
Cybercrime30.09.2024
De Gesprek Check is een extra controle-hulpmiddel van ABN AMRO
heb je echt de bank aan de telefoon?Cybercrime29.08.2024
TeamViewer heeft een groot cybersecurity-probleem
Cybercrime26.08.2024
Financiële fraude met phishingmethode specifiek gericht op Android & iOS
Cybercrime16.08.2024
Wielrenner, je racefiets kan gehackt worden
Cybercrime29.07.2024
Veel openbare WiFi netwerken in Parijs zijn onveilig
Cybercrime25.07.2024
Vigorish Viper: een Chinees cybercrimesyndicaat ontdekt door Infoblox
banden met Europese voetbalsponsors, mensenhandel en illegale gokindustrieVerder lezen over Kunstmatige Intelligentie
Technology20.11.2024
ClimateGPT: De volgende stap in klimaatonderzoek?
Cybercrime20.11.2024
Wortell opent nieuw next-gen Cyber Defense Center
Mobile20.11.2024
Je Pokémon Go-data wordt nu gebruikt om AI te trainen
Online19.11.2024
Je kunt straks een andere taal spreken in Microsoft Teams
Online19.11.2024
Komt er een moment waarop AI niet meer kan verbeteren?
Online13.11.2024
Dit gebeurt er als je 24 uur alleen bent met AI-chatbots
Tech in Asia13.11.2024
Huawei Connect Paris: AI en de digitale, groene transformatie van Europa
Video13.11.2024
YouTube wordt een deejay en gaat muziek aan elkaar mixen
Verder lezen over Security
Cybercrime20.11.2024
Wortell opent nieuw next-gen Cyber Defense Center
Cybercrime11.11.2024
Dit zijn de huidige trends binnen cybersecurity en hoe je jezelf beschermt
Online06.11.2024
Veel computer-influencers zijn weinig meer dan pseudo-experts
Online31.10.2024
Eerst checken, dan bestellen: Klik niet meteen op die bestelknop!
Nieuwe campagne tegen onbetrouwbare webshopsCybercrime23.10.2024
Ransomwareaanvallen slagen nog steeds: 178 stuks in 2023
Cybercrime15.10.2024
Pas op: er is een groot beveiligingslek in WordPress-plugin Jetpack
Cybercrime09.10.2024
Deze week meerdere waarschuwingscampagnes over phishing: waarom?
Cybercrime08.10.2024