Lisa Pouels, afgestudeerd data scientist, onderzocht fairness in GraphRAG-systemen en werd hiervoor genomineerd voor de Responsible Internet Prijs van de Koninklijke Hollandse Maatschappij der Wetenschappen. Haar onderzoek vergeleek verschillende taalmodellen op hun vermogen om vooroordelen te herkennen en te vermijden bij het beantwoorden van ambigue vragen. De resultaten toonden dat Qwen 2.5 en GPT 4.1 nano het best presteerden in het herkennen van onduidelijke vragen, terwijl DeepSeek uit...
All content for AIToday Live is the property of Joop Snijder & Niels Naglé and is served directly from their servers
with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
Lisa Pouels, afgestudeerd data scientist, onderzocht fairness in GraphRAG-systemen en werd hiervoor genomineerd voor de Responsible Internet Prijs van de Koninklijke Hollandse Maatschappij der Wetenschappen. Haar onderzoek vergeleek verschillende taalmodellen op hun vermogen om vooroordelen te herkennen en te vermijden bij het beantwoorden van ambigue vragen. De resultaten toonden dat Qwen 2.5 en GPT 4.1 nano het best presteerden in het herkennen van onduidelijke vragen, terwijl DeepSeek uit...
S07E95 - Expliciete guardrails voor AI: hoe je genderbias in dagelijks gebruik tegengaat
AIToday Live
43 minutes
1 week ago
S07E95 - Expliciete guardrails voor AI: hoe je genderbias in dagelijks gebruik tegengaat
In de nieuwste aflevering van AIToday Live staat Julia Klinkert, Product Owner bij Info Support, centraal met haar expertise over gender bias in AI. Ze legt uit hoe AI-systemen vooroordelen overnemen uit trainingsdata van het internet, waar bepaalde groepen ondervertegenwoordigd zijn. Klinkert illustreert dit met voorbeelden: bij beeldgeneratie worden ontwikkelaars als mannen afgebeeld en verpleegkundigen als vriendelijke vrouwen. Deze bias versterkt bestaande stereotypen en belemmert maatsch...
AIToday Live
Lisa Pouels, afgestudeerd data scientist, onderzocht fairness in GraphRAG-systemen en werd hiervoor genomineerd voor de Responsible Internet Prijs van de Koninklijke Hollandse Maatschappij der Wetenschappen. Haar onderzoek vergeleek verschillende taalmodellen op hun vermogen om vooroordelen te herkennen en te vermijden bij het beantwoorden van ambigue vragen. De resultaten toonden dat Qwen 2.5 en GPT 4.1 nano het best presteerden in het herkennen van onduidelijke vragen, terwijl DeepSeek uit...