19.01.2021
Technology

​Moderators zien geen verschil tussen AI en menselijke tekst

By: Laura Jenny

BlogTechnology

Deep fakes, je hoort vaak dat ze één van de grote gevaren zijn voor de toekomst. Je kunt mensen die iets nooit zouden zeggen, via een nepvideo toch die uitspraak laten doen. Zeker dankzij social media kan zo’n video snel verspreiden. Dat zien we niet alleen bij video, maar ook bij tekst: we denken wel dat we weten wanneer een tekst is geschreven door een mens of een robot, maar eigenlijk blijken we daar geen idee van te hebben.

Kunstmatige intelligentie

Dit is ontdekt in de Verenigde Staten. Via Medicaid.gov konden burgers feedback geven op een aanpassing in een medisch programma van de staat Idaho. De site ging in oktober 2019 live en er kwamen wel 1.000 opmerkingen binnen. De helft kwam echter niet van burgers die hun mening wilden geven: de helft kwam van kunstmatige intelligentie. De moderators die de reacties moesten verwerken ontdekten dat helemaal niet, schrijft ArsTechnica.

Harvard-student Max Weiss wist wel beter, want hij ontwikkelde het AI-systeem dat hiervoor zorgde. Het is vrij ernstig, want overheden kijken naar deze opmerkingen in het maken van beleid en nemen van beslissingen. Het is heel makkelijk voor een robot om tekst te maken die lijkt alsof hij van een mens is, maar het is dus niet makkelijk voor een mens om te herkennen dat dit van een bot afkomstig is.

https://youtube.com/watch?v=_BTyhDHRotQ

GPT-2

De Amerikaanse overheid heeft op basis van het onderzoek besloten om zijn pagina’s voor burgerfeedback anders in te richten. Dus niet simpelweg een knop waarmee je iets instuurt: er is meer voor nodig. Weiss schrok ervan dat die knop het enige was waarmee hij de politiek kon beïnvloeden, waarop hij startte met zijn AI-experiment. Hij gebruikte het programma GPT-2 om neppe reacties te maken. “Ik was geschokt over hoe gemakkelijk het was om GPT-2 te verfijnen om de commentaren echt te maken. Het is relatief zorgwekkend op een aantal fronten,” zegt Weiss.

Het gevaar is niet alleen wanneer kunstmatige intelligentie wordt gebruikt als reactie op social media of een formulier op het internet. Dankzij kunstmatige intelligentie kunnen hackers van over de hele wereld immers veel betere phishingmails schrijven. Nu kun je die soms ontdekken door gebrekkig Engels of een domme taalfout, maar als er straks kunstmatige intelligentie wordt gebruikt, dan wordt ook dat haast onmogelijk om van echt te onderscheiden. Hoewel het natuurlijk knapper is om iemand voor de gek te houden met een deepfake-video (dat is immers veel meer werk), brengt tekst dus ook zo zijn gevaren met zich mee.

Beeldbron: kiquebg

Share this post