ChatGPT is de nieuwe rage: mensen zijn er volop mee bezig, maar we hebben alle reden om deze kunstmatige intelligentie voor geen cent te vertrouwen. Het is verre van perfect en dat kunnen we goed laten zien aan de hand van een voorbeeld. Maar, daarnaast kijken we ook wat dan wél werkt voor deze kunstmatige intelligentie die inmiddels soms een potentiële concurrent van Google wordt genoemd (en waar Microsoft wel oren naar heeft).
We vroegen het immens populaire ChatGPT wat de nieuwe serie Kaleidoscope is en dit is wat we kregen:
“Kaleidoscope” is een Britse televisieserie die bestaat uit zes afleveringen. De serie gaat over een man genaamd Carl, die worstelt met zijn mentale gezondheid en zich afvraagt of zijn herinneringen aan zijn verleden wel echt zijn.
De serie is ontworpen om in een bepaalde volgorde bekeken te worden, dus het is het beste om de afleveringen in de volgorde te bekijken waarin ze zijn uitgezonden. Hier is de juiste volgorde van de afleveringen:
Het is aangeraden om de serie in deze volgorde te bekijken, omdat de verhaallijn zich op deze manier het best ontvouwt en de achtergrondinformatie en karakterontwikkeling van de personages zich op deze manier het beste presenteren.
Als je dit leest en je hebt Kaleidoscope op Netflix gezien, dan denk je waarschijnlijk al meteen: Brits? Het is Amerikaans! Ook klinkt de uitleg over de serie niet heel erg zoals Kaleidoscope op Netflix is: waar is de heist? Ging het niet over Leo? Vervolgens worden er 6 afleveringen genoemd (de Netflix-serie heeft er 8), maar wordt wel gezegd dat de serie in een bepaalde volgorde moet worden gekeken. Hoe zit dat?
Het komt omdat er meerdere Kaleidoscope’s zijn. Er is inderdaad een Britse versie, maar daarvan klopt dat hele volgorde-verhaal weer niet helemaal. Bovendien heeft de Britse Kaleidoscope 7 seizoenen die gewoon op lineaire wijze werden uitgezonden. Het lijkt er dus op dat ChatGPT vanalles en nogwat door elkaar heeft gehaald. Niet verstandig om dit in te leveren bij je docent voor een goed cijfer dus.
Sowieso moet je daarmee oppassen, want er is inmiddels al iemand opgestaan die software heeft geschreven die ChatGPT kan detecteren. Andrew Tian maakte GPTzero, software die weet wanneer iets door een mens of door een machine is geschreven. Tian is een student op Princeton en dat maakt hem waarschijnlijk niet al te populair: studenten schijnen ChatGPT namelijk graag te gebruiken om hun opstellen en werkstukken van wat meer body te voorzien. Als dat gedetecteerd kan worden, dan wordt dat ‘plagiaat’ toch knap lastig.
Toch vragen wij ons af of je ChatGPT daar wel voor wil gebruiken. Met Kaleidoscope maakt hij er al een.. kaleidoscopisch geheel van, hoe zit dat dan met andere onderwerpen? Of is dat wellicht te voorkomen? ChatGPT heet niet voor niets iets met ‘chat’: het is eigenlijk een soort chatbot en dat betekent dat hij goed kan praten.
Hij kan praten op allerlei manieren die je wil, dus wil je bijvoorbeeld dat hij een verhaal schrijft over het coronavirus maar dan op een Trump-achtige wijze, dan kan hij dat voor je doen. ChatGPT voorspelt dingen en zoekt naar patronen om zijn voorspelling zo goed mogelijk te maken. Dat is wat gevaarlijk, want het aapt dus gedeeltelijk na en kan zijn voorspellingen baseren op ‘verkeerde’ of ‘negatieve’ informatie. Mensen denken dat robots geen fouten maken, maar vergis je niet: hoe slim ze ook worden, ze zijn gemaakt door mensen en dat betekent dat ze net zo goed fouten kunnen bevatten.
Vraag je ChatGPT om een leuk gedicht te maken over een balletdanseres (handig voor Sinterklaas), dan lukt dat de AI goed en kun je er ook wat leuks van maken met misschien wat tweaks hier en daar. Je moet het echter wel goed checken, anders krijg je Kaleidoscope-achtige taferelen en dat moet je niet willen. Met deze tips zorg je dat ChatGPT een iets beter antwoord geeft:
Een voorbeeld van een goede vraag is: “What are the positive and negative impacts of gambling?” in plaats van dat je bijvoorbeeld naar ‘everything’ vraagt. Maar ga ook weer niet zeggen: “What is the most positive of gambling in the summer or in spring?” Houd het enigszins logisch en behapbaar.
Hoewel ChatGPT het nu helemaal is, komt hij dus niet zonder foutjes. Datzelfde zal gelden voor andere soortgelijke programma’s, zoals Anthropic, een startup die voormalig OpenAI-medewerkers zijn begonnen om een soort verbeterde versie te maken. Die versie heet Claude en is nu nog in gesloten beta. De eerste geluiden zijn enorm positief: Claude geeft iets doelgerichter antwoord zonder te veel poespas (want daarin maakt ChatGPT juist vaak foutjes). Het blijft echter toch een afwachten hoe ChatGPT zich zowel technisch als qua imago gaat ontwikkelen, daar zijn nu alle ogen op gericht. Inclusief die van docenten over de hele wereld.