Is ze niet aan het tikken, dan reist ze rond in de wondere wereld van entertainment of op een toffe plek in de echte wereld. Mario is de man van haar leven, Belle is haar beste vriendin en haar laptop is nooit ver weg.
Afgelopen week vond online het evenement And& Leuven plaats, met interessante sprekers waaronder Wikipedia-oprichter Jimmy Wales en Payal Arora, schrijfster van The Next Billion Users. De focus van het evenement lag op hoe artificiële intelligentie kan helpen de toekomst beter te maken. Echter betekende dat niet per se dat iedereen even positief was over kunstmatige intelligentie.
Kunstmatige intelligentie
Stel je voor dat je een zelfrijdende auto bent van de politie en je moet achter boeven aan. Echter heb je te maken met een boevenbende die bestaat uit eeneiige tweelingen. Dan wordt het toch ineens heel ingewikkeld om te bepalen wie je volgt. laat staan om daar later op te worden aangesproken. Als mens heb je toch net iets meer context en kun je beter iemands lichaamstaal lezen, waardoor je een beter geïnformeerde keuze zou maken dan kunstmatige intelligentie.
Het punt dat futurist Theo Priestley in zijn talk wilde maken, maakte hij door zichzelf in de schoenen van anti-futurist te zetten. Wat als AI iets crimineels doet? Wiens schuld is dat? Kunnen we de kunstmatige intelligentie ooit ergens de schuld van geven, als deze is geprogrammeerd door de mens? Priestley is ervan overtuigd: het is niet de kunstmatige intelligentie die blaam treft, het is ook niet per se het programmeren door de mens. Het is de data.
Immers maakt kunstmatige intelligentie zijn keuzes op basis van data. Priestley gaf erbij het voorbeeld van de zelflerende Twitterbot van Microsoft. Op zich een hartstikke interessant idee om zoiets zo online te zetten, maar binnen de kortste keren had dit stukje technologie zich ontwikkeld tot nazi. Niet door verkeerde programmering of een probleem, maar omdat de data die hij gevoerd kreeg van een bepaalde bias was.
Het zit allemaal in de data
Interessant, want wie is er verantwoordelijk voor de data? Je kunt de programmeur of de tech er eigenlijk niet de schuld van geven, maar toch ligt die uiteindelijk wel bij… de mens. Wij voeden deze data aan de robot. Plus, uiteindelijk zijn wij er ook verantwoordelijk voor dat de boel wel zo wordt geprogrammeerd dat dat niet kan gebeuren. Denk bijvoorbeeld aan de recruitmentrobot van Amazon. Die kreeg zoveel vaker sollicitaties binnen van mannen, dat hij daar een voorkeur voor kreeg. Uiteraard is die bot snel uit gebruik genomen.
In het verlengde daarvan sprak Wikipedia-oprichter Jimmy Wales over de verspreiding van desinformatie en de rol die social media hierin spelen. Een interessant punt, want volgens Wales zijn het juist Twitter en Facebook die zorgen dat er fake news de wereld ingaat. Klopt natuurlijk als een bus, maar ook Wikipedia staat regelmatig vol met onjuistheden.
Het verschil is alleen dat de moderatie hierop anders in elkaar zit, waardoor zulke feitelijke onjuistheden er eerder uit worden gefilterd. Bovendien wordt de informatie van Wikipedia iets minder aantrekkelijk gemaakt om volop te delen, waardoor fake news zich minder snel als een olievlek verspreidt. Echter wordt het ook bij wat Wales zegt duidelijk dat het niet per se aan de tech ligt. Het ligt ook hier aan de input van de mens. Uiteindelijk zal de conclusie van hoe kunstmatige intelligentie de toekomst beter kan maken dus uiteindelijk niet liggen bij de tech, maar bij de mens.
Beeldbron: Angel-Kun
Verder lezen over Kunstmatige Intelligentie
Technology20.11.2024
ClimateGPT: De volgende stap in klimaatonderzoek?
Cybercrime20.11.2024
Wortell opent nieuw next-gen Cyber Defense Center
Mobile20.11.2024
Je Pokémon Go-data wordt nu gebruikt om AI te trainen
Online19.11.2024
Je kunt straks een andere taal spreken in Microsoft Teams
Online19.11.2024
Komt er een moment waarop AI niet meer kan verbeteren?
Online13.11.2024
Dit gebeurt er als je 24 uur alleen bent met AI-chatbots
Tech in Asia13.11.2024
Huawei Connect Paris: AI en de digitale, groene transformatie van Europa
Video13.11.2024