AI, we zien er wel brood in, maar het is zeker niet heilig. Kunstmatige intelligentie kan ons leven aanzienlijk makkelijk maken, maar er kleven ook allerlei nadelen aan die lang niet allemaal goed worden belicht. We noemen er vijf.
Dit is geen verrassing: het punt dat het vaakst negatief naar voren komt als het over AI gaat, dat is dat het banen zou gaan innemen. Zoals we laatst al schreven, zal dat ook wel gaan gebeuren en daarbij gaan de banen met lagere lonen er eerder aan. Dat betekent dat in eerste instantie vooral vrouwen en mensen met een migratie-achtergrond last hebben van deze technologie. Baanverlies is overigens wel een heel negatieve manier om ernaar te kijken: het zal uiteindelijk ook veel banen opleveren, naast dat het ons als mensen meer kansen geeft om zelf creatiever werk te gaan doen. Echter breekt er toch echt eerst een tijd aan waarin we qua banen vooral de nadelen zullen zien.
Denk aan Robocop, denk aan Terminator: dit zijn films die ons al waarschuwen voor kunstmatige intelligentie en robots. Wat als die allemaal veel sneller, sterker en slimmer worden dan wij? We kunnen de AI dan niet meer de baas zijn, als we al kunnen stellen dat we dat nu nog zijn. Laatst sprak regisseur James Cameron zich er nog over uit, de maker van Terminator: hij heeft ons gewaarschuwd en wij luisteren niet. “Ik denk dat de bewapening van AI het grootste gevaar is. Ik denk dat we in het equivalent van een nucleaire wapenwedloop met AI terechtkomen en als wij het niet bouwen, zullen de anderen het zeker bouwen en dan zal het escaleren. Je zou je een AI in een gevechtstoneel kunnen voorstellen. De hele zaak wordt gewoon uitgevochten door de computers met een snelheid waarmee mensen niet meer kunnen ingrijpen, en je hebt geen mogelijkheid om te deëscaleren.” Oorlogsgevaar dus.
Kunstmatige intelligentie draagt ook bij aan het maken van deepfakes: filmpjes en video’s waarin bijvoorbeeld beroemdheden en politici allerlei dingen zeggen die ze in de realiteit helemaal niet hebben gezegd. De achterliggende systemen kunnen zo goed inschatten hoe een mens, of specifiek zelfs die mens (na wat video’s gevoed te krijgen bijvoorbeeld) beweegt en praat, dat de AI een precieze kopie van iemand kan maken. Het kan gevaarlijk zijn in het kader van het verspreiden van misinformatie, maar bijvoorbeeld ook helpen bij het verspreiden van phishing, omdat mensen overtuigd zijn dat het echt hun manager is die om gegevens vraagt. Deepfakes zijn al erg goed, onder andere de lenzen op Snapchat bewijzen al hoe goed IT-systemen ons kunnen begrijpen.
We kunnen doen alsof ChatGPT er nu is en al onze problemen zijn opgelost, maar het heeft nog veel werk nodig. Bovendien heeft ChatGPT dus ook nog heel veel tijd nodig om bij te leren. Het feit dat het getraind is tot een bepaald jaar en geen tot weinig nieuwe informatie meekrijgt, maakte het een tijdje een vrij waardeloze AI-tool. De achterliggende talen moeten verder worden doorontwikkeld en daar gaat veel tijd en geld inzitten. AI lijkt heel makkelijk en openlijk beschikbaar, maar er is nog een lange weg te gaan voordat bedrijven het op de verregaande manier zullen implementeren die we vaak in gedachten hebben als we over AI spreken.
Kunstmatige intelligentie heeft veel rekenkracht nodig en al dat gereken betekent dat de servers binnen dataservers goed moeten worden gekoeld. Dat wordt gedaan met water en dat is niet zo duurzaam. Google schrijft dat zijn datacenters vorig jaar 20 procent meer water hebben verbruikt dan het jaar ervoor. 21 miljard liter (!). Het is niet alleen veel water, het is ook veel drinkwater dat wordt gebruikt en dat is toch wat vreemd, gezien we dat in deze wereld op veel betere manieren kunnen gebruiken. Google kijkt wel naar milieuvriendelijkere manieren om water te zuiveren en andere manieren van koelen. Het is overigens niet alleen Google, ook andere AI-aanbieders zitten in dat schuitje: en andere datacenteraanbieders ook.