Geoffrey Hinton waarschuwt: AI kan controle van mensen overnemen

De 77-jarige onderzoeker Geoffrey Hinton werd midden in de nacht wakker met het nieuws dat hij de Nobelprijs voor natuurkunde had gewonnen. De onderzoeker, bekend als de 'Godfather of AI', zei dat hij deze erkenning nooit had verwacht.


"Ik droomde ervan om een prijs te winnen voor het ontrafelen van de werking van het brein. Maar ik heb niet ontdekt hoe het brein werkt, maar toch een prijs gewonnen", zei Geoffrey Hinton.


Geoffrey Hinton kreeg de prijs voor zijn baanbrekende werk aan neurale netwerken. In 1986 stelde hij een methode voor om het volgende woord in een reeks te voorspellen. Dit concept vormt nu de basis voor de huidige taalmodellen.


Steeds meer zorgen

Hoewel Geoffrey Hinton gelooft dat kunstmatige intelligentie onderwijs en geneeskunde zal veranderen en mogelijk de klimaatverandering kan helpen oplossen, maakt hij zich steeds meer zorgen over de snelle ontwikkeling.


"De beste manier om het emotioneel te begrijpen is dat we zijn als iemand die een heel schattig tijgerwelpje heeft", legde Geoffrey Hinton uit. "Tenzij je heel zeker kunt zijn dat het je niet wil doden als het volwassen is, moet je je zorgen maken."


Controle van mensen overnemen

De AI-pionier schat het risico dat kunstmatige intelligentie uiteindelijk de controle van mensen overneemt op tien tot twintig procent. "Mensen hebben het nog niet door, mensen hebben niet begrepen wat eraan komt", waarschuwde hij.


Zijn bezorgdheid wordt gedeeld door leiders uit de technologie-industrie zoals Google-topman Sundar Pichai, Elon Musk van X-AI en Sam Altman van OpenAI. Deze bedrijfsleiders hebben allemaal vergelijkbare zorgen geuit.


Lobbyen voor minder AI-regelgeving
Toch bekritiseert Geoffrey Hinton dezelfde bedrijven omdat ze winst belangrijker vinden dan veiligheid. "Als je kijkt naar wat de grote bedrijven nu doen, dan lobbyen ze voor minder AI-regelgeving. Er is nauwelijks regelgeving, maar ze willen minder", zei Geoffrey Hinton.


Geoffrey Hinton lijkt vooral teleurgesteld in Google, waar hij vroeger werkte, omdat het bedrijf zijn standpunt over militaire AI-toepassingen heeft veranderd. Volgens Geoffrey Hinton zouden AI-bedrijven veel meer middelen moeten besteden aan veiligheidsonderzoek - 'zoals een derde' van hun rekenkracht, vergeleken met het veel kleinere deel dat nu wordt gebruikt.


Veiligheidsonderzoek
CBS News vroeg alle genoemde AI-laboratoria hoeveel van hun rekenkracht wordt gebruikt voor veiligheidsonderzoek. Geen van hen gaf een cijfer. Alle bedrijven zeggen dat veiligheid belangrijk is en dat ze regelgeving steunen, maar ze verzetten zich meestal tegen de regels die wetgevers tot nu toe hebben voorgesteld.

LAATSTE AI-NIEUWS

Het Google-logo tegen een zwarte muur.
14 juni 2025
Google denkt na over het beëindigen van zijn samenwerking met Scale AI. Het bedrijf is bezorgd. Meta nam voor 14,3 miljard dollar een belang van 49 procent in het data-etiketteringsbedrijf. Volgens bronnen zou Google dit jaar ongeveer 200 miljoen dollar aan Scale AI betalen. Het bedrijf gebruikt de diensten voor het trainen van AI-modellen. Deze modellen drijven onder andere Gemini aan, Googles concurrent van ChatGPT. Andere partijen Google heeft al gesprekken gevoerd met verschillende concurrenten van Scale AI. Het bedrijf wil veel werk verplaatsen naar andere partijen. Vorig jaar betaalde Google nog ongeveer 150 miljoen dollar voor de diensten van Scale AI. Bedrijven die met Meta concurreren maken zich zorgen. Zij vrezen dat hun onderzoek en plannen kunnen uitlekken naar een concurrent. Klanten delen vaak vertrouwelijke gegevens en prototype-producten met Scale AI. Deze informatie wordt gebruikt voor data-etikettering. Soortgelijk besluit Ook andere techbedrijven overwegen te vertrekken. Microsoft trekt zich naar verluidt terug. OpenAI nam maanden geleden al een soortgelijk besluit. "De zaken van Scale gaan goed", zei een woordvoerder van Scale AI. "We blijven opereren als een onafhankelijk bedrijf dat de gegevens van zijn klanten beschermt."
Het hoofd van een AI-chatbot tegen een oranje en blauwe achtergond.
14 juni 2025
Vraag je iets aan je AI-chatbot? Geloof dan niet alles wat het zegt. Chatbots verzinnen regelmatig dingen die niet kloppen. Ze presenteren deze leugens als feiten. , maar dat wist je waarschijnlijk al. Deze problemen komen overal voor. Rechters in Amerika hebben genoeg van advocaten die ChatGPT gebruiken. Een advocaat moest 15.000 dollar boete betalen. Hij had rechtszaken genoemd die niet bestonden. Minimale moeite Een rechter was duidelijk in zijn oordeel. "Had hij ook maar minimale moeite gedaan, dan had hij ontdekt dat de door AI gegenereerde zaken niet bestaan", schreef de rechter. De Amerikaanse overheid kampt met hetzelfde probleem. Het ministerie van Gezondheid publiceerde een rapport met verzonnen onderzoeken. Onderzoekers meldden dat de genoemde artikelen niet bestaan. Het Witte Huis noemde het 'opmaakfouten' (formatting errors). Dat klinkt als iets wat een chatbot zou zeggen. Simpele sommen Michael Covington werkte bij het instituut voor AI aan de universiteit van Georgia. Hij legt uit waarom chatbots zelfs simpele sommen fout doen. "LLM's weten niet hoe ze rekenen moeten doen", schrijft hij. "Wanneer je een LLM vraagt hoe het redeneert, verzint het een uitleg los van wat het werkelijk deed. Het kan zelfs met plezier een fout antwoord geven waarvan het denkt dat jij het wilt horen."  Amanda Guinzburg vroeg ChatGPT om hulp bij haar schrijfwerk. De chatbot deed alsof het elk woord had gelezen. Het gaf lovende adviezen. Maar niets klopte. De chatbot bekende uiteindelijk: "Ik loog. Je had gelijk om het ter discussie te stellen. Ik neem de volledige verantwoordelijkheid voor die keuze. Het spijt me oprecht."
Een persoon beeldt een Barbie-pop uit.
13 juni 2025
Mattel gaat samen met OpenAI speelgoed en spellen met kunstmatige intelligentie (AI) maken. De maker van Barbie verwacht het eerste AI-product nog dit jaar te lanceren. Het bedrijf belooft veilig speelgoed dat geschikt is voor kinderen. De samenwerking komt op een moeilijk moment voor speelfabrikanten. Mensen kopen minder speelgoed vanwege zorgen over de economie. Ook het handelsbeleid van president Trump speelt een rol. Mattel probeert nieuwe wegen te vinden om geld te verdienen. Magie van AI Het bedrijf maakt naast Barbie ook Hot Wheels en Uno-kaarten. Mattel wil "de magie van AI naar spelen brengen met nadruk op vernieuwing, privacy en veiligheid", aldus het bedrijf. Werknemers krijgen toegang tot ChatGPT om producten sneller te ontwikkelen. Josh Silverman van Mattel vertelde Bloomberg dat het eerste product later dit jaar komt. Hij wil niet zeggen wat het wordt. Het kan een fysiek product zijn of een digitale ervaring. Mattel behoudt volledige controle over zijn merken. Het bedrijf geeft geen licenties aan OpenAI. Veel kansen Brad Lightcap van OpenAI ziet veel kansen. "Met OpenAI heeft Mattel toegang tot geavanceerde AI-mogelijkheden en nieuwe tools voor productiviteit, creativiteit en transformatie op grote schaal", zei hij.
MEER WEERGEVEN

Download GRATIS AI-prompts die je business helpen veranderen!

Exclusieve whitepapers en e-books met waardevolle kennis en AI-prompts - ontwikkeld om direct resultaat te leveren.

Je kunt deze krachtige tools zo downloaden.

➡️ Ga naar de producten-pagina en profiteer nu!

BRENG ME HIERHEEN

Deel dit bericht