Is ze niet aan het tikken, dan reist ze rond in de wondere wereld van entertainment of op een toffe plek in de echte wereld. Mario is de man van haar leven, Belle is haar beste vriendin en haar laptop is nooit ver weg.
Deep fakes, je hoort vaak dat ze één van de grote gevaren zijn voor de toekomst. Je kunt mensen die iets nooit zouden zeggen, via een nepvideo toch die uitspraak laten doen. Zeker dankzij social media kan zo’n video snel verspreiden. Dat zien we niet alleen bij video, maar ook bij tekst: we denken wel dat we weten wanneer een tekst is geschreven door een mens of een robot, maar eigenlijk blijken we daar geen idee van te hebben.
Kunstmatige intelligentie
Dit is ontdekt in de Verenigde Staten. Via Medicaid.gov konden burgers feedback geven op een aanpassing in een medisch programma van de staat Idaho. De site ging in oktober 2019 live en er kwamen wel 1.000 opmerkingen binnen. De helft kwam echter niet van burgers die hun mening wilden geven: de helft kwam van kunstmatige intelligentie. De moderators die de reacties moesten verwerken ontdekten dat helemaal niet, schrijft ArsTechnica.
Harvard-student Max Weiss wist wel beter, want hij ontwikkelde het AI-systeem dat hiervoor zorgde. Het is vrij ernstig, want overheden kijken naar deze opmerkingen in het maken van beleid en nemen van beslissingen. Het is heel makkelijk voor een robot om tekst te maken die lijkt alsof hij van een mens is, maar het is dus niet makkelijk voor een mens om te herkennen dat dit van een bot afkomstig is.
GPT-2
De Amerikaanse overheid heeft op basis van het onderzoek besloten om zijn pagina’s voor burgerfeedback anders in te richten. Dus niet simpelweg een knop waarmee je iets instuurt: er is meer voor nodig. Weiss schrok ervan dat die knop het enige was waarmee hij de politiek kon beïnvloeden, waarop hij startte met zijn AI-experiment. Hij gebruikte het programma GPT-2 om neppe reacties te maken. “Ik was geschokt over hoe gemakkelijk het was om GPT-2 te verfijnen om de commentaren echt te maken. Het is relatief zorgwekkend op een aantal fronten,” zegt Weiss.
Het gevaar is niet alleen wanneer kunstmatige intelligentie wordt gebruikt als reactie op social media of een formulier op het internet. Dankzij kunstmatige intelligentie kunnen hackers van over de hele wereld immers veel betere phishingmails schrijven. Nu kun je die soms ontdekken door gebrekkig Engels of een domme taalfout, maar als er straks kunstmatige intelligentie wordt gebruikt, dan wordt ook dat haast onmogelijk om van echt te onderscheiden. Hoewel het natuurlijk knapper is om iemand voor de gek te houden met een deepfake-video (dat is immers veel meer werk), brengt tekst dus ook zo zijn gevaren met zich mee.
Beeldbron: kiquebg
Verder lezen over Kunstmatige Intelligentie
Technology20.11.2024
ClimateGPT: De volgende stap in klimaatonderzoek?
Cybercrime20.11.2024
Wortell opent nieuw next-gen Cyber Defense Center
Mobile20.11.2024
Je Pokémon Go-data wordt nu gebruikt om AI te trainen
Online19.11.2024
Je kunt straks een andere taal spreken in Microsoft Teams
Online19.11.2024
Komt er een moment waarop AI niet meer kan verbeteren?
Online13.11.2024
Dit gebeurt er als je 24 uur alleen bent met AI-chatbots
Tech in Asia13.11.2024
Huawei Connect Paris: AI en de digitale, groene transformatie van Europa
Video13.11.2024