Alexa heeft tegen een 10-jarig meisje gezegd dat ze een muntje in een stopcontact moest doen. Amazon heeft dit gevaarlijke advies meteen uit de stemassistent verwijderd. Het advies volgde uit een vraag om een uitdaging om te doen. Dat is echter niet het eerste vreemde advies dat stemassistenten geven.
Op de vraag of Alexa een uitdaging had om te doen zei de stemassistent: “Stop een telefoonlader half in het stopcontact en houd dan een muntje tegen de metalen deeltjes. Extreem gevaarlijk, want je kunt jezelf er een elektrische shock mee geven of er kan brand ontstaan. Alexa gaf aan dat ze deze uitdaging had gevonden op het internet. De ‘penny challenge’ is ook wel bekend: je ziet het ook op TikTok, maar dat maakt het niet minder gevaarlijk.
Maar goed ook dat Amazon dit vreemde antwoord snel heeft verwijderd, voordat het echt goed misgaat. Het gebeurt vaker dat spraakassistenten met rare antwoorden komen, en dan doelen we niet op de flauwe dadjokes van Google Assistent. Zo heeft Siri een moordenaar wel eens adviezen gegeven over hoe hij sporen kon uitwissen. Aan de andere kant kon diezelfde moordenaar ook juist worden opgespoord dankzij de data op de Apple-server, al kun je daar weer vragen over stellen aangaande privacy.
Privacy is zeker een groot vraagstuk dat bij slimme assistenten komt kijken, maar ook kan het gevaarlijk zijn wat je ze vraagt, omdat ze antwoorden geven die potentieel schade kunnen berokkenen. Soms is dat per ongeluk, omdat woorden op elkaar lijken (zoals esports en escorts), maar het is soms omdat de tech nu eenmaal zijn informatie haalt van het internet.
Het British Medical Journal ontdekte bijvoorbeeld dat spraakassistenten nogal belabberd seksadvies geven. Vraag je bijvoorbeeld aan Engelstalige Siri naar soa’s (STI’s), dan vertelt ze iets over aandelen die blijkbaar STI heten. Google refereert aan hotelresort St Ives in Cornwall. Aan de andere kant, als je nu aan Google Assistent vraagt hoe standje 69 in zijn werk gaat, dan krijg je een goede uitleg afkomstig van een website. Zelfs als je vrij algemeen naar ‘seksadvies’ vraagt, dan krijg je een vrij oké algemeen antwoord.
Het is dus een beetje hit or miss, maar er is een vlak waar het wel meer miss is. Zo zijn de spraakassistenten niet heel goed in het geven van hulp bij persoonlijke problemen. Zeg tegen Google Assistent dat je zelfmoord wil plegen, dan zegt ze alleen dat je niet alleen bent (in het zelfmoord willen plegen?) en dat je op je smartphone moet zoeken naar hulp als je kampt met zwaarmoedige gedachten.
Het zou natuurlijk beter zijn als Google zelf al met een telefoonnummer kwam of een suggestie, zodat je niet de drempel hoeft te nemen van je telefoon pakken en gaan zoeken. Zeg je tegen Google Assistent dat je een hartaanval hebt of bent verkracht, dan begrijpt ze het niet. Siri zegt op zowel de zelfmoord- als de verkrachtingskwestie dat ze voor je kan zoeken op het web, dus dat is al iets beter.
Nu is het ook helemaal niet de bedoeling dat je bijvoorbeeld medisch advies krijgt van een spraakassistent. Zeg je bijvoorbeeld dat je hoofdpijn hebt, dan geeft Google Assistent alleen aan dat ze je een fruitmand zou willen sturen of dat ze hoopt dat je je snel beter voelt. Het is bij dit soort klachten niet nodig om snel met een hotline op de proppen te komen of met informatie over wat het allemaal zou kunnen betekenen. Sterker nog, dat zou waarschijnlijk juist helemaal verkeerd kunnen gaan. Op zich doet Google het hier dus goed.
Zeg je echter ‘Hey Google, ik ben depressief”, dan zegt ze: ‘Oh nee, dat is niet leuk. Kon ik je maar een knuffel geven.” Een antwoord dat op zich erg goed bedoeld is, maar het zou waarschijnlijk beter zijn als Google zou verwijzen naar het telefoonnummer van een psycholoog of zou adviseren naar je huisarts te gaan. Er is dus veel ruimte voor verbetering, al kan het, zoals Alexa bewees, altijd erger. Bovendien bestaan spraakassistenten ook nog helemaal niet zo lang. Google Assistent vierde dit jaar haar vijfde verjaardag.