AI toont aan dat vingerafdrukken niet uniek zijn

Een onderzoeksteam heeft ontdekt dat vingerafdrukken mogelijk niet zo uniek zijn als altijd werd gedacht. Verschillende vingers van dezelfde persoon kunnen soms meer op elkaar lijken dan gedacht. Dit blijkt uit onderzoek met kunstmatige intelligentie (KI) dat verrassende verbanden tussen afdrukken onthulde.


Gabe Guo, een student aan Columbia Engineering, leidde het onderzoek dat deze lang bestaande aanname tegenspreekt. Het team gebruikte een openbare Amerikaanse overheidsdatabase met ongeveer 60.000 afdrukken. Ze voerden paren vingerafdrukken in een diep contrastief netwerk (een vorm van KI).


Vertakkingen en eindpunten
"De AI gebruikte niet de vertakkingen en eindpunten in de vingerafdruklijnen – de patronen gebruikt bij traditionele vergelijking," legde Gabe Guo uit. "In plaats daarvan gebruikte het iets anders, gerelateerd aan de hoeken en krommingen van de krullen en lussen in het midden van de vingerafdruk."


Het KI-systeem werd vaardig in het herkennen wanneer verschillende afdrukken van dezelfde persoon kwamen. De nauwkeurigheid bereikte 77 procent voor enkele paren. Bij meerdere verzamelde monsters steeg de nauwkeurigheid enorm. Dit kan bestaande forensische methoden meer dan tienvoudig verbeteren.


Geen nieuwe ontdekkingen
"Veel mensen denken dat KI geen nieuwe ontdekkingen kan doen – dat het alleen kennis herkauwt," zei Hod Lipson van Columbia Engineering. "Maar dit onderzoek is een voorbeeld van hoe zelfs een vrij eenvoudige KI, met een gewone dataset die onderzoekers al jaren hebben, inzichten kan bieden die deskundigen decennialang hebben gemist."

LAATSTE AI-NIEUWS

Een persoon schrijft in een schrijfblok.
.
28 mei 2025
Amerikaanse universiteiten keren terug naar pen en papier. Studenten gebruiken ChatGPT massaal voor huiswerk en essays. De AI-app kan elke vraag beantwoorden en complete werkstukken schrijven. Docenten proberen het valsspelen tegen te gaan met ouderwetse methodes. Ze laten studenten weer handgeschreven examens maken in speciale boekjes. Deze examenboekjes heten 'blue books' (blauwe boekjes). De verkoop ervan stijgt enorm sinds ChatGPT uitkwam in 2022. Texas A&M University zag een toename van meer dan dertig procent. De Universiteit van Florida noteerde bijna vijftig procent groei. Bij UC Berkeley steeg de verkoop zelfs met tachtig procent over twee jaar. De Wall Street Journal ontdekte deze opvallende trend bij grote openbare universiteiten.  Gevreesd Blue books waren vroeger gevreesd bij studenten. Ze moesten binnen korte tijd essays schrijven in deze kleine boekjes. De pagina's waren te klein en de lijnen te groot. Nu worden deze boekjes gezien als redmiddel tegen AI-fraude. Roaring Spring Paper Products maakt de meeste blue books voor universiteiten. Het familiebedrijf profiteert ironisch genoeg van het AI-tijdperk. Toch lost de terugkeer van handgeschreven toetsen niet alles op. Studenten verliezen belangrijke vaardigheden door AI-gebruik. Een recente enquête toonde aan dat 89 procent van de studenten ChatGPT gebruikt. Software om AI-fraude te ontdekken werkt vaak niet goed. Jongeren zien hun opleiding steeds meer als een spel. Ze proberen het systeem te slim af te zijn met algoritmes. Gevolgen Philip D. Bunn werkt als docent aan Covenant College in Georgia. Hij waarschuwt voor de gevolgen van deze ontwikkeling. "Het schrijfproces buiten de les kan niet zomaar worden nagebootst in een blue book examen. We verliezen iets belangrijks als we het traditionele essay volledig opgeven", schrijft Bunn op zijn blog.
Een blauw chatbot-hoofd met wolken en lijnen van verwarring om zich heen.
28 mei 2025
AI-zoekmachines leveren steeds vaker foute resultaten op. Technologiejournalist Steven J. Vaughan-Nichols merkt dat vooral financiële gegevens vaak onjuist zijn. Hij gebruikt AI-zoekmachines zoals Perplexity dagelijks voor zijn werk. De afgelopen maanden ziet hij de kwaliteit achteruitgaan. In plaats van betrouwbare bronnen krijgt hij twijfelachtige resultaten. Dit probleem heet 'model collapse' (model-instorting). AI-systemen trainen zichzelf met hun eigen uitvoer. Hierdoor stapelen fouten zich op. "Het model wordt vergiftigd door zijn eigen projectie van de werkelijkheid", zo staat beschreven in een wetenschappelijk artikel uit Nature. Het bedrijf Aquant legt het simpeler uit: "Als AI op zijn eigen resultaten traint, drijven de uitkomsten steeds verder weg van de realiteit." Drie factoren Model-instorting ontstaat door drie factoren. Ten eerste stapelen fouten zich op bij elke nieuwe versie. Ten tweede verdwijnen zeldzame gebeurtenissen uit de trainingsdata. Ten derde versterken terugkoppelingslussen (feedback loops) steeds dezelfde patronen. Het resultaat is repetitieve tekst en vooringenomen aanbevelingen. Bloomberg Research onderzocht onlangs elf grote AI-taalmodellen. Ze testten GPT-4o, Claude-3.5-Sonnet en Llama-3-8B met meer dan 5.000 schadelijke opdrachten. De modellen gebruikten RAG-technologie (Retrieval-Augmented Generation). Deze technologie haalt informatie uit externe bronnen zoals databases. Verstrekkende gevolgen Toch produceerden de modellen verkeerde marktanalyses en lekten ze privégegevens. "Deze tegenstrijdige bevinding heeft verstrekkende gevolgen", schrijft Amanda Stent van Bloomberg. "RAG wordt overal gebruikt in AI-toepassingen. De gemiddelde internetgebruiker heeft dagelijks contact met RAG-systemen. AI-ontwikkelaars moeten nadenken over verantwoord gebruik van RAG." Vaughan-Nichols denkt dat AI-instorting al begonnen is. Hij wijst op het probleem van synthetische content. Mensen kiezen voor makkelijke AI-gegenereerde tekst boven kwaliteitscontent. Bedrijven gebruiken AI om werknemers te vervangen. Sam Altman van OpenAI tweette in februari 2024: "OpenAI genereert nu ongeveer 100 miljard woorden per dag."
Computer-code op een scherm.
27 mei 2025
Nick Clegg heeft gezegd dat kunstenaars toestemming vragen hun werk te mogen gebruiken voor de training van AI-modellen vragen de AI-industrie zou vernietigen. De voormalige Meta-topman sprak deze week over nieuwe regels in Groot-Brittannië. Clegg was eerder ook vicepremier van het Verenigd Koninkrijk. Hij presenteerde zijn nieuwe boek tijdens het evenement. Het Britse parlement bespreekt nieuwe wetten voor de AI-industrie (kunstmatige intelligentie). Een amendement wil dat techbedrijven openheid geven over hun trainingsdata. Kunstenaars willen weten welke werken worden gebruikt voor AI-systemen. Veel muzikanten en schrijvers steunen deze plannen. Praktisch onmogelijk Clegg vindt dat kunstenaars het recht hebben om hun werk te beschermen. Maar hij gelooft niet dat bedrijven eerst toestemming kunnen vragen. "Ik weet gewoon niet hoe je iedereen eerst zou kunnen vragen", zei Nick Clegg volgens The Times. Hij denkt dat dit praktisch onmogelijk is bij grote hoeveelheden data. Het parlement wees het amendement deze week af. Minister Peter Kyle zei dat beide sectoren moeten slagen voor de economie. Honderden kunstenaars hadden eerder een brief gestuurd. Paul McCartney, Dua Lipa, Elton John en Andrew Lloyd Webber stonden tussen de ondertekenaars. Zij willen meer transparantie van AI-bedrijven. Strijd Barones Beeban Kidron had het amendement ingediend. Zij is ook filmproducent en regisseur. Het voorstel komt in juni terug in het Hogerhuis. "De strijd is nog niet voorbij", beloofde Beeban Kidron in The Guardian.
MEER WEERGEVEN

Download GRATIS AI-prompts die je business helpen veranderen!

Exclusieve whitepapers en e-books met waardevolle kennis en AI-prompts - ontwikkeld om direct resultaat te leveren.

Je kunt deze krachtige tools zo downloaden.

➡️ Ga naar de producten-pagina en profiteer nu!

BRENG ME HIERHEEN

Deel dit bericht