Is ze niet aan het tikken, dan reist ze rond in de wondere wereld van entertainment of op een toffe plek in de echte wereld. Mario is de man van haar leven, Belle is haar beste vriendin en haar laptop is nooit ver weg.
Deep fakes, je hoort vaak dat ze één van de grote gevaren zijn voor de toekomst. Je kunt mensen die iets nooit zouden zeggen, via een nepvideo toch die uitspraak laten doen. Zeker dankzij social media kan zo’n video snel verspreiden. Dat zien we niet alleen bij video, maar ook bij tekst: we denken wel dat we weten wanneer een tekst is geschreven door een mens of een robot, maar eigenlijk blijken we daar geen idee van te hebben.
Kunstmatige intelligentie
Dit is ontdekt in de Verenigde Staten. Via Medicaid.gov konden burgers feedback geven op een aanpassing in een medisch programma van de staat Idaho. De site ging in oktober 2019 live en er kwamen wel 1.000 opmerkingen binnen. De helft kwam echter niet van burgers die hun mening wilden geven: de helft kwam van kunstmatige intelligentie. De moderators die de reacties moesten verwerken ontdekten dat helemaal niet, schrijft ArsTechnica.
Harvard-student Max Weiss wist wel beter, want hij ontwikkelde het AI-systeem dat hiervoor zorgde. Het is vrij ernstig, want overheden kijken naar deze opmerkingen in het maken van beleid en nemen van beslissingen. Het is heel makkelijk voor een robot om tekst te maken die lijkt alsof hij van een mens is, maar het is dus niet makkelijk voor een mens om te herkennen dat dit van een bot afkomstig is.
GPT-2
De Amerikaanse overheid heeft op basis van het onderzoek besloten om zijn pagina’s voor burgerfeedback anders in te richten. Dus niet simpelweg een knop waarmee je iets instuurt: er is meer voor nodig. Weiss schrok ervan dat die knop het enige was waarmee hij de politiek kon beïnvloeden, waarop hij startte met zijn AI-experiment. Hij gebruikte het programma GPT-2 om neppe reacties te maken. “Ik was geschokt over hoe gemakkelijk het was om GPT-2 te verfijnen om de commentaren echt te maken. Het is relatief zorgwekkend op een aantal fronten,” zegt Weiss.
Het gevaar is niet alleen wanneer kunstmatige intelligentie wordt gebruikt als reactie op social media of een formulier op het internet. Dankzij kunstmatige intelligentie kunnen hackers van over de hele wereld immers veel betere phishingmails schrijven. Nu kun je die soms ontdekken door gebrekkig Engels of een domme taalfout, maar als er straks kunstmatige intelligentie wordt gebruikt, dan wordt ook dat haast onmogelijk om van echt te onderscheiden. Hoewel het natuurlijk knapper is om iemand voor de gek te houden met een deepfake-video (dat is immers veel meer werk), brengt tekst dus ook zo zijn gevaren met zich mee.
Beeldbron: kiquebg
Verder lezen over Kunstmatige Intelligentie
Search01.11.2024
ChatGPT gaat strijd aan met Google: start eigen zoekmachine
Artificial Intelligence31.10.2024
Microsoft stelt release van AI-meekijker Recall weer uit
Artificial Intelligence30.10.2024
Een kwart van het programmeerwerk bij Google wordt gedaan door AI
Artificial Intelligence29.10.2024
De toekomst van leren: KLM en de impact van AI
Mobile29.10.2024
Apple Intelligence komt ook naar jouw iPhone
Technology28.10.2024
Air France-KLM legt fundament voor AI met sterk metadatamanagement
Artificial Intelligence25.10.2024
Wees niet bang voor Yahoo boys, maar voor deepfake lovers
Van Yahoo boy naar Yahoo botArtificial Intelligence24.10.2024