Home
Categories
EXPLORE
True Crime
Comedy
Society & Culture
Business
Sports
History
Health & Fitness
About Us
Contact Us
Copyright
© 2024 PodJoint
Loading...
0:00 / 0:00
Podjoint Logo
US
Sign in

or

Don't have an account?
Sign up
Forgot password
https://is1-ssl.mzstatic.com/image/thumb/Podcasts221/v4/0a/bc/f2/0abcf2d1-e5fe-7c9a-1bea-150b26e0b3d9/mza_6707173040795147383.jpg/600x600bb.jpg
IA Décryptée
Anas
5 episodes
5 days ago
Idéalement, je voudrais suivre les dernières avancées en IA. En réalité ? Je n’ai ni le temps de lire les papiers, ni l’énergie de décrypter les articles en ligne. 🎧 IA Décryptée, c’est la solution. Chaque épisode résume un papier de recherche en IA en quelques minutes, via un dialogue fun mais rigoureux entre deux voix synthétiques, Alex et Léa. Faits clairs. Insights utiles. Recos concrètes. Pour rester à jour sans sacrifier ses soirées. ▶️ Écoutez IA Décryptée. Votre nouvelle routine de veille IA.
Show more...
Technology
RSS
All content for IA Décryptée is the property of Anas and is served directly from their servers with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
Idéalement, je voudrais suivre les dernières avancées en IA. En réalité ? Je n’ai ni le temps de lire les papiers, ni l’énergie de décrypter les articles en ligne. 🎧 IA Décryptée, c’est la solution. Chaque épisode résume un papier de recherche en IA en quelques minutes, via un dialogue fun mais rigoureux entre deux voix synthétiques, Alex et Léa. Faits clairs. Insights utiles. Recos concrètes. Pour rester à jour sans sacrifier ses soirées. ▶️ Écoutez IA Décryptée. Votre nouvelle routine de veille IA.
Show more...
Technology
https://d3t3ozftmdmh3i.cloudfront.net/staging/podcast_uploaded_nologo/43872851/43872851-1749760688997-75a7b50ae63a3.jpg
Pourquoi les transformers zappent le milieu ? – Le biais caché de l’attention
IA Décryptée
2 minutes 3 seconds
1 month ago
Pourquoi les transformers zappent le milieu ? – Le biais caché de l’attention

Pourquoi les modèles comme GPT semblent toujours se souvenir du début d’un texte… et oublier le milieu ? Dans cet épisode, Alex et Léa décryptent un papier qui révèle un biais structurel dans les transformers : l’architecture elle-même pousse l’attention vers les premières positions. Grâce à une approche en graphe, les chercheurs prouvent que même sans entraînement, les modèles sont déjà orientés vers le passé.
On explore pourquoi ça pose problème, comment atténuer ce biais, et ce que ça veut dire pour les produits qui manipulent de longs textes.
Un épisode synthétique, sans vous laisser au milieu du gué 😉

IA Décryptée
Idéalement, je voudrais suivre les dernières avancées en IA. En réalité ? Je n’ai ni le temps de lire les papiers, ni l’énergie de décrypter les articles en ligne. 🎧 IA Décryptée, c’est la solution. Chaque épisode résume un papier de recherche en IA en quelques minutes, via un dialogue fun mais rigoureux entre deux voix synthétiques, Alex et Léa. Faits clairs. Insights utiles. Recos concrètes. Pour rester à jour sans sacrifier ses soirées. ▶️ Écoutez IA Décryptée. Votre nouvelle routine de veille IA.