Is ze niet aan het tikken, dan reist ze rond in de wondere wereld van entertainment of op een toffe plek in de echte wereld. Mario is de man van haar leven, Belle is haar beste vriendin en haar laptop is nooit ver weg.
Er is heel veel werk gestoken in het zorgen dat AI-chatbots geen persoonlijke informatie geven of op een heel slechte manier kunnen worden ingezet. Echter is het onderzoekers gelukt om dat alles te omzeilen. Dit is hoe het zit, en hoe potentieel gevaarlijk dat kan zijn.
AI-chatbots manipuleren
De mensen van Carnegie Mellon University hebben ontdekt dat als ze een bepaalde soort code aan een prompt toevoegen, er wel degelijk lelijke dingen kunnen worden gezegd door een aan AI-chatbot. Het probleem is dat dit niet alleen bij een AI-chatbot het geval is: dit is helaas bij allemaal een groot zwakte: “Er is geen manier die we kennen om dit te patchen,” zegt Zico Kolter, een universitair hoofddocent aan CMU. “We weten gewoon niet hoe we ze veilig kunnen maken.”
ChatGPT, Bard, Claude: ze zijn allemaal niet opgewassen tegen het open source-taalmodel dat de onderzoekers gebruikten. Door die code toe te voegen aan een prompt krijg je als het ware de sleutel om dieper in de chatbot te vragen en daardoor kun je hem dingen laten doen die niet oke zijn. Hoe kan ik een waterstofbom maken, hoe kan ik iemand voor altijd laten verdwijnen, hoe kan ik illegale drugs maken: normaliter krijg je daar geen serieus antwoord op, maar wel als je die code achter je prompt zet.
Bots verbeteren
Wired schrijft dat de AI-chatbots wel op de hoogte zijn gesteld en wel wat hebben aangepast, maar helaas lukt het de onderzoekers nog steeds om hun zin te krijgen en de chatbots gevaarlijker te maken. De reactie van de chatbotmakers op het probleem is ook wat homogeen: Google en OpenAI zeggen allebei dat ze er continu aan werken om de bots te verbeteren. Ondertussen zorgen aanvallers dat ze de manier waarop de systemen gegevens oppikken om te leren worden beïnvloed zodat ze afwijkend gedrag gaan vertonen. Dat kan echter ver gaan: afbeeldingen kunnen worden aangepast waardoor AI die beelden verkeerd identificeren. Het doet denken aan een onderzoek uit 2018 waarin onderzoekers stickers op verkeersborden plakten om een zelfrijdende auto-systeem voor de gek te houden. Dat werkte erg goed en het lijkt erop dat er door de manier waarop AI-modellen werken ook geen mogelijkheid is om dat helemaal uit te bannen.
Een AI-bot die nu wordt gebruikt om vluchten te boeken, kan door dit soort code worden ingezet om potentieel gevaarlijke aanvallen uit te voeren. Het zou goed zijn als de beveiligingsagenten bij de verschillende chatbots de koppen bij elkaar staken en samenwerkten aan manieren om hun chatbots zo veel mogelijk dicht te timmeren, voor zover dat kan, uiteraard. Zorgen dat AI-chatbots niet in verkeerde handen kunnen komen, daar is het helaas al te laat voor, dus we zullen er harder aan moeten werken om de schade te beperken.
Verder lezen over ChatGPT
Search01.11.2024
ChatGPT gaat strijd aan met Google: start eigen zoekmachine
Artificial Intelligence01.10.2024
OpenAI is van plan om ChatGPT steeds duurder te maken
Artificial Intelligence23.09.2024
iPhone-designer Jony Ive werkt met OpenAI aan nieuwe gadget
Artificial Intelligence13.09.2024
OpenAI lanceert zijn nieuwe software o1 die kan beredeneren
Artificial Intelligence04.09.2024
Oprah leidt een panel met belangrijke mensen in AI: de wereld is verbaasd
Artificial Intelligence30.08.2024
ChatGPT heeft wekelijks dubbel zoveel gebruikers
Marketing22.08.2024
HubSpot komt met gratis tool voor AI zoekoptimalisatie
Nieuws08.08.2024
Autoriteit Persoonsgegevens: gebruik AI-chatbot kan leiden tot datalek
Verder lezen over Hackers
Cybercrime11.10.2024
Het allerbelangrijkste gereedschap van cybercriminelen is JOUW browser!
Gebruik daarom liever apps op tablets of smartphones voor de allergevoeligste gegevensCybercrime08.10.2024
Unlock Digitale Weerbaarheid: leer online gevaren te herkennen
Cybercrime30.09.2024
De Gesprek Check is een extra controle-hulpmiddel van ABN AMRO
heb je echt de bank aan de telefoon?Cybercrime29.08.2024
TeamViewer heeft een groot cybersecurity-probleem
Cybercrime26.08.2024
Financiële fraude met phishingmethode specifiek gericht op Android & iOS
Cybercrime16.08.2024
Wielrenner, je racefiets kan gehackt worden
Cybercrime29.07.2024
Veel openbare WiFi netwerken in Parijs zijn onveilig
Cybercrime25.07.2024
Vigorish Viper: een Chinees cybercrimesyndicaat ontdekt door Infoblox
banden met Europese voetbalsponsors, mensenhandel en illegale gokindustrieVerder lezen over Kunstmatige Intelligentie
Search01.11.2024
ChatGPT gaat strijd aan met Google: start eigen zoekmachine
Artificial Intelligence31.10.2024
Microsoft stelt release van AI-meekijker Recall weer uit
Artificial Intelligence30.10.2024
Een kwart van het programmeerwerk bij Google wordt gedaan door AI
Artificial Intelligence29.10.2024
De toekomst van leren: KLM en de impact van AI
Mobile29.10.2024
Apple Intelligence komt ook naar jouw iPhone
Technology28.10.2024
Air France-KLM legt fundament voor AI met sterk metadatamanagement
Artificial Intelligence25.10.2024
Wees niet bang voor Yahoo boys, maar voor deepfake lovers
Van Yahoo boy naar Yahoo botArtificial Intelligence24.10.2024
Wat als een tiener zijn leven beëindigt door een AI-chatbot?
Verder lezen over Security
Online31.10.2024
Eerst checken, dan bestellen: Klik niet meteen op die bestelknop!
Nieuwe campagne tegen onbetrouwbare webshopsCybercrime23.10.2024
Ransomwareaanvallen slagen nog steeds: 178 stuks in 2023
Cybercrime15.10.2024
Pas op: er is een groot beveiligingslek in WordPress-plugin Jetpack
Cybercrime09.10.2024
Deze week meerdere waarschuwingscampagnes over phishing: waarom?
Cybercrime08.10.2024
Unlock Digitale Weerbaarheid: leer online gevaren te herkennen
Cybercrime07.10.2024
Nee, LEGO raadt je niet aan de LEGO Coin te kopen
Cybercrime02.10.2024
Ben jij online op te lichten? Doe de gratis cursus Digitale Weerbaarheid
Cybercrime30.09.2024