AI 'verbetert', maar hallucinaties worden erger

Nieuwe AI-modellen maken meer fouten dan hun voorgangers. Dit blijkt uit tests van het bedrijf Vectara. De nieuwste versies van chatbots zoals ChatGPT en Google Gemini geven vaker onjuiste informatie.
Fouten in AI worden 'hallucinaties' genoemd. Dit gebeurt als een chatbot valse informatie als waar presenteert. Maar het kan ook gaan om antwoorden die niet relevant zijn voor de gestelde vraag. Techbedrijven dachten eerst dat dit probleem vanzelf zou verdwijnen.
Een technisch rapport van OpenAI toont aan dat hun nieuwste modellen veel vaker hallucinerend zijn. Hun o3-model geeft in 33 procent van de gevallen onjuiste informatie. Het o4-mini-model doet dit zelfs in 48 procent van de gevallen. Het oudere o1-model maakte 'slechts' in 16 procent van de gevallen fouten.
Sommige toepassingen van AI kunnen door dit probleem niet goed werken. Een model dat steeds onwaarheden vertelt, is geen goede onderzoeksassistent. Een juridische AI die verzonnen rechtszaken aanhaalt, brengt advocaten in de problemen. Een klantenservice-chatbot die verouderde regels noemt, geeft bedrijven hoofdpijn.
"Hallucinatie als term is dubbel problematisch", zegt Emily Bender van de Universiteit van Washington. "Aan de ene kant suggereert het dat onjuiste uitkomsten een afwijking zijn. Aan de andere kant doet het alsof machines menselijk zijn – hallucinatie verwijst naar het waarnemen van iets dat er niet is, maar taalmodellen nemen niets waar."
LAATSTE AI-NIEUWS



Download GRATIS AI-prompts die je business helpen veranderen!
Exclusieve whitepapers en e-books met waardevolle kennis en AI-prompts - ontwikkeld om direct resultaat te leveren.
Je kunt deze krachtige tools zo downloaden.
➡️ Ga naar de producten-pagina en profiteer nu!