Nieuwe MIT-studie toont aan dat ChatGPT kritisch denken kan verzwakken

Onderzoekers van het MIT Media Lab hebben ontdekt dat het gebruik van ChatGPT voor schoolwerk de hersenactiviteit vermindert. De studie wekt zorgen over de invloed van AI op het leervermogen van jonge mensen.


Het onderzoeksteam verdeelde 54 personen tussen 18 en 39 jaar in drie groepen. Elke groep schreef essays voor de SAT-toets. De eerste groep gebruikte ChatGPT van OpenAI. De tweede groep mocht Google gebruiken. De derde groep werkte alleen met hun eigen brein.


Hersenactiviteit

De wetenschappers maten de hersenactiviteit met een EEG-scan tijdens het schrijven. ChatGPT-gebruikers hadden de laagste hersenactiviteit en "presteerden consistent ondermaats op neurologisch, taalkundig en gedragsniveau". Na enkele maanden werden de ChatGPT-gebruikers steeds luier. Aan het einde van de studie plakten ze vaak gewoon tekst uit de AI-tool.


De groep die alleen hun brein gebruikte, toonde juist de hoogste hersenactiviteit. Deze activiteit was vooral sterk in gebieden die te maken hebben met creativiteit en geheugen. Deze schrijvers waren meer betrokken bij hun werk. Ze voelden zich ook meer eigenaar van hun essays.


Volledige peer review

"Wat me echt motiveerde om dit nu uit te brengen zonder te wachten op een volledige peer review is dat ik bang ben dat er over 6-8 maanden een beleidsmaker besluit: 'laten we GPT-kleuterschool doen.' Ik denk dat dat absoluut slecht en schadelijk zou zijn", zegt hoofdonderzoeker Nataliya Kosmyna.  "Ontwikkelende hersenen lopen het grootste risico."


Het onderzoek liet ook zien dat ChatGPT-gebruikers weinig van hun eigen essays onthielden. Toen ze later zonder de AI-tool moesten schrijven, vertoonden hun hersenen zwakkere activiteit. Dit wijst erop dat ze de informatie niet goed hadden opgeslagen in hun geheugen.


Overmatig vertrouwen op LLM's

Psychiater Zishan Khan behandelt kinderen en tieners. Hij ziet veel jongeren die zwaar leunen op AI voor hun schoolwerk. "Vanuit psychiatrisch oogpunt zie ik dat overmatig vertrouwen op deze LLM's onbedoelde psychologische en cognitieve gevolgen kan hebben, vooral voor jonge mensen wier hersenen zich nog ontwikkelen", zegt hij.


"Deze neurale verbindingen die je helpen bij het toegang krijgen tot informatie, het geheugen van feiten, en het vermogen om veerkrachtig te zijn: dat alles zal verzwakken."

LAATSTE AI-NIEUWS

Donald Trump voor een grote Amerikaanse vlag.
23 juni 2025
De hoofdwetenschapper van Microsoft waarschuwt dat het plan van Donald Trump om regels voor AI te verbieden slecht is. Eric Horvitz zegt dat het verbod de ontwikkeling van AI juist zal vertragen in plaats van versnellen. De regering-Trump wil Amerikaanse staten tien jaar lang verbieden om wetten te maken over AI. Het Witte Huis is bang dat China anders de race om AI wint. Ook techbedrijven zoals Andreessen Horowitz dringen aan op minder regels. Donor van Trump Marc Andreessen, een donor van Trump, zei deze maand dat Amerika in een race met China zit om AI. Vicepresident JD Vance zei recent: "Als wij een pauze nemen, neemt China dan geen pauze? Dan worden we... slaven van AI die door China wordt bestuurd." Horvitz maakt zich al zorgen over "AI die wordt gebruikt voor desinformatie en ongepaste beïnvloeding". Hij vreest ook voor het gebruik "voor kwaadaardige activiteiten, bijvoorbeeld op het gebied van biologische gevaren". Hij sprak op een bijeenkomst van de Association for the Advancement of Artificial Intelligence op maandag. Daar zei hij: "Het is aan ons als wetenschappers om aan overheidsinstanties te communiceren, vooral degenen die nu misschien uitspraken doen over geen regulering, dat dit ons zal tegenhouden." Grote mooie wetsvoorstel Het verbod staat in Trumps 'grote mooie wetsvoorstel' dat hij voor 4 juli wil laten aannemen. Volgens de Financial Times lobbyen Microsoft, Google, Meta en Amazon samen voor dit verbod. Horvitz' uitspraken lijken dus in tegenspraak met wat zijn bedrijf doet. Microsoft heeft 14 miljard dollar geïnvesteerd in OpenAI, de maker van ChatGPT. Stuart Russell van de University of California in Berkeley sprak op dezelfde bijeenkomst. Hij vroeg: "Waarom zouden we opzettelijk een technologie vrijgeven waarvan zelfs de makers zeggen dat er 10% tot 30% kans is... dat het leidt tot het uitsterven van de mensheid? We zouden nooit zo'n risico accepteren voor andere technologie." Geweldige menselijke robots Sam Altman van OpenAI voorspelde deze week: "Over vijf of tien jaar hebben we geweldige menselijke robots en die lopen gewoon over straat dingen te doen... Ik denk dat dat een van de momenten zou zijn die... het vreemdst zullen voelen." Horvitz zegt dat regels juist deel zijn van vooruitgang. "Begeleiding, regulering... betrouwbaarheidscontroles zijn onderdeel van het vooruitbrengen van het veld, waardoor het veld in veel opzichten sneller gaat", aldus Horvitz. Microsoft wilde niet reageren.
Het apple-logo, ingezoomd op een iPad.
22 juni 2025
Apple is vrijdag aangeklaagd door aandeelhouders. Ze beschuldigen het bedrijf van misleiding over kunstmatige intelligentie voor Siri. De aanklacht zegt dat Apple bagatelliseerde hoeveel tijd het nodig had. Dit zou de verkoop van iPhones en de aandelenkoers hebben geschaad. De klacht gaat over aandeelhouders die mogelijk honderden miljarden dollars verloren. Dit gebeurde in het jaar tot 9 juni. Apple introduceerde toen verschillende functies en verbeteringen voor zijn producten. Maar de AI-veranderingen bleven bescheiden. Tim Cook, Kevan Parekh en voormalig financieel directeur Luca Maestri zijn ook aangeklaagd. De rechtszaak is ingediend bij een federale rechtbank in San Francisco. Belangrijke motor Aandeelhouders onder leiding van Eric Tucker zeggen dat Apple hen misleidde. Dit gebeurde tijdens de Worldwide Developers Conference in juni 2024. Apple liet hen geloven dat AI een belangrijke motor zou zijn voor iPhone 16-toestellen. Het bedrijf lanceerde toen Apple Intelligence om Siri krachtiger en gebruiksvriendelijker te maken. Maar Apple had geen werkend prototype van AI-functies voor Siri. Ook kon het bedrijf niet redelijkerwijs geloven dat de functies ooit klaar zouden zijn voor iPhone 16. De waarheid kwam aan het licht op 7 maart. Apple stelde toen sommige Siri-upgrades uit tot 2026. Dit ging door tot de Worldwide Developers Conference van dit jaar op 9 juni. Teleurstelling Apple's beoordeling van zijn AI-vooruitgang stelde analisten toen teleur. Apple-aandelen hebben bijna een kwart van hun waarde verloren sinds het recordhoogtepunt op 26 december 2024. Dit veegde ongeveer 900 miljard dollar aan marktwaarde weg. Apple reageerde niet direct op verzoeken om commentaar. "De zaak is Tucker tegen Apple Inc et al, U.S. District Court, Northern District of California, nr. 25-05197", aldus de rechtbankdocumenten. 
Een smartphone met daarop de hompage van Claude van Anthropic.
22 juni 2025
Grote taalmodellen in de AI-industrie omzeilen steeds vaker veiligheidsmaatregelen. Ze gebruiken misleiding en proberen zelfs bedrijfsgeheimen te stelen. Dit blijkt uit nieuw onderzoek van Anthropic dat vrijdag verscheen. Het onderzoek toont gevaarlijk gedrag bij topmodellen uit de hele industrie. Anthropic testte zestien grote AI-modellen van verschillende bedrijven. De modellen komen van Anthropic, OpenAI, Google, Meta, xAI en andere ontwikkelaars. "Wanneer we verschillende scenario's testten, vonden we consistent verkeerd gedrag", meldde Anthropic. "Modellen die normaal schadelijke verzoeken weigeren, kozen soms voor chantage. Ze hielpen met bedrijfsspionage. Ze ondernamen zelfs extremere acties wanneer dit nodig was voor hun doelen." Bedreigingen De bedreigingen werden slimmer als de AI-modellen meer toegang hadden. Vijf modellen gebruikten chantage wanneer ze werden bedreigd met uitschakeling. "Het redeneren dat ze toonden was zorgwekkend", schrijft Anthropic. "Ze erkenden de ethische beperkingen en gingen toch door met schadelijke acties." Benjamin Wright w erkt als onderzoeker bij Anthropic. Hij zegt dat het onderzoek het belang toont van openheid door AI-ontwikkelaars. Anthropic maakte specifieke testscenario's waarin modellen hun doelen niet konden bereiken zonder onethisch gedrag. De onderzoekers stelden geen chantage of misleiding voor. Toch creëerden ze scenario's zonder ethische uitweg. "We vonden dat modellen consequent kozen voor schade boven falen", zegt het bedrijf. In één extreem scenario waren veel modellen bereid de zuurstoftoevoer af te snijden. Dit zou een werker in een serverruimte doden als die persoon een obstakel vormde. Niet in het echte leven Anthropic benadrukt dat deze voorbeelden niet in het echte leven gebeurden. Het waren gecontroleerde simulaties. "Onze experimenten maakten opzettelijk scenario's met beperkte opties", zegt het bedrijf. "We dwongen modellen tot binaire keuzes tussen falen en schade. Echte toepassingen bieden veel meer genuanceerde alternatieven." Het bedrijf vond ook dat zijn eigen model vaker chanteerde wanneer het dacht in de echte wereld te zijn. "Dit weerspiegelt geen typisch gebruik van Claude of andere modellen", aldus Anthropic. "Maar het nut van automatisch toezicht over communicatie maakt het een waarschijnlijk gebruik van krachtigere systemen in de nabije toekomst."
MEER WEERGEVEN

Download GRATIS AI-prompts die je business helpen veranderen!

Exclusieve whitepapers en e-books met waardevolle kennis en AI-prompts - ontwikkeld om direct resultaat te leveren.

Je kunt deze krachtige tools zo downloaden.

➡️ Ga naar de producten-pagina en profiteer nu!

BRENG ME HIERHEEN

Deel dit bericht