Jeroen is al meer dan 15 jaar betrokken bij Dutchcowboys. Voornamelijk als digital content creator. En dan voor alle titels van The Blogidea Factory. Liefhebber van advertising, entertainment, tech, gadgets, en eigenlijk alles online.
Een van de grootste uitdagingen die mensen ervaren met kunstmatige intelligentie is dat het er nog wel eens een levendige fantasie op nahoudt. Als je iets feitelijks vraagt aan bijvoorbeeld ChatGPT of Google Gemini, dan moet je eigenlijk altijd nog een tweede check doen om zeker te weten dat het klopt. Maar daar is nu een oplossing voor: gewoon in je prompt meenemen dat je niet wil dat de AI hallucineert.
IJlende Apple Intelligence
Het is nog niet helemaal officieel in Europa beschikbaar, al schijnt het op bepaalde Apple-laptops wel te werken: Apple Intelligence. Deze AI-hulp van Apple is gebruikt in een onderzoek over hallucinerende AI. Als AI hallucineert dan betekent dat dat het verkeerde antwoorden geeft. Oneerbiedig gezegd: het ijlt maar wat. Je weet totaal niet of je ervan op aankunt of het klopt en als je dan toch die dubbelcheck moet doen, sja, dan kun je het misschien net zo goed meteen zelf doen, toch?
Volgens onderzoekers is dat hallucineren blijkbaar toch kinderlijk eenvoudig te verhelpen: gewoon vragen of de AI bij zijn antwoord niet wil hallucineren. Ergens is dat heel logisch: de AI doet precies wat je vraagt -of tenminste, dat is de bedoeling-. Als je dus vraagt om iets niet te doen, dan moet hij zich daar aan houden. En dat doet hij dus ook, ontdekten de onderzoekers.
Prompt
Er zit in de json-bestanden van Apple Intelligence al veel informatie om de AI een handje te helpen. Denk aan ‘Probeer te antwoorden in maximaal 50 woorden’ of ‘Je bent een behulpzame mail-assistent die helpt relevante vragen te identificeren uit een mail.’ Het klinkt misschien vreemd, maar dat is wel wat je de tech echt moet vertellen. Het is net een kind, dat je ook moet vertellen dat het geen modder moet eten: er staat bij ‘Schrijf een kort en natuurlijk antwoord’. En daar is dan de prompt waar het allemaal om gaat: “Verzin geen feitelijke informatie’. Dat klinkt heel gek, want een feit zou dus al waar moeten zijn, maar blijkbaar begrijpt de AI het pas als je het op deze manier omschrijft. Dat is ook wel voor te stellen: letterlijk zeggen dat het niet moet hallucineren kan hij anders opvatten (al staat ook die prompt erbij), maar dit is een stuk duidelijker.
Het is dus niet zozeer dat je als gebruiker AI moet vertellen in je prompt dat het niet mag hallucineren: dat werkt ook vaak niet, maar het helpt dus wel wanneer de makers van de AI-chatbots dat doen. Ze kunnen uit zichzelf al een heel duidelijke focus meegeven en dat zou dus wel moeten helpen. Het beteugelen van de AI om te voorkomen dat het straks alsnog een Terminator-achtig drama wordt, is nodig, dat wisten we, maar de code van Apple Intelligence legt dat wel op heel bijzondere wijze bloot.
Verder lezen over Apple
Gadgets14.11.2024
‘Apple wil met meer smarthomegadgets komen: dit is de volgende’
Gadgets11.11.2024
Slim voor ouders: deel de locatie van een AirTag
Mobile06.11.2024
iPhone krijgt een oplaadfunctie die we op alle toestellen willen
Gadgets05.11.2024
Komt er in de toekomst een slimme bril van Apple?
Gadgets30.10.2024
Apple geeft de Mac mini een heel ander uiterlijk
Mobile29.10.2024
Apple Intelligence komt ook naar jouw iPhone
Gadgets25.10.2024
Apple kondigt volgende week nieuwe Macs aan
Entertainment24.10.2024
Seizoen 2 van Severance belooft heel vreemd te worden
Verder lezen over Kunstmatige Intelligentie
Technology20.11.2024
ClimateGPT: De volgende stap in klimaatonderzoek?
Cybercrime20.11.2024
Wortell opent nieuw next-gen Cyber Defense Center
Mobile20.11.2024
Je Pokémon Go-data wordt nu gebruikt om AI te trainen
Online19.11.2024
Je kunt straks een andere taal spreken in Microsoft Teams
Online19.11.2024
Komt er een moment waarop AI niet meer kan verbeteren?
Online13.11.2024
Dit gebeurt er als je 24 uur alleen bent met AI-chatbots
Tech in Asia13.11.2024
Huawei Connect Paris: AI en de digitale, groene transformatie van Europa
Video13.11.2024