Home
Categories
EXPLORE
True Crime
Comedy
Society & Culture
Business
Sports
TV & Film
Health & Fitness
About Us
Contact Us
Copyright
© 2024 PodJoint
00:00 / 00:00
Sign in

or

Don't have an account?
Sign up
Forgot password
https://is1-ssl.mzstatic.com/image/thumb/Podcasts211/v4/ff/37/dd/ff37dd1e-de87-c132-d414-b5b1e4cb9701/mza_9687340056082535909.jpeg/600x600bb.jpg
Le Futurologue Podcast
Le Futurologue
108 episodes
5 days ago
J’analyse les risques de l’IA.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
Education
RSS
All content for Le Futurologue Podcast is the property of Le Futurologue and is served directly from their servers with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
J’analyse les risques de l’IA.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
Education
https://assets.pippa.io/shows/65c6cee9e6a39e0017a89a3a/1724512777801-ec23798c-a902-4142-aa0f-4505d7f02380.jpeg
Les experts en IA avertissent : "L’IA pourrait détruire le monde !"
Le Futurologue Podcast
1 hour 20 minutes 24 seconds
1 month ago
Les experts en IA avertissent : "L’IA pourrait détruire le monde !"

🗣️ La déclaration

💬 Discord du Centre pour la Sécurité de l’IA

✉️ Contacter vos représentants

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

———

DESCRIPTION DE L’ÉPISODE

Charbel-Raphaël Segerie est ingénieur, chercheur et enseignant en intelligence artificielle. Il est expert IA auprès de l’OCDE et dirige le Centre pour la Sécurité de l’IA. Dans cet épisode, il explique pourquoi il a lancé un appel mondial à la mise en place de lignes rouges internationales afin de prévenir les risques inacceptables liés à l'IA.

———

TIME CODE

0:00 Introduction

1:10 La déclaration et ses signataires

6:44 Pourquoi avoir écrit cette déclaration ?

11:33 Les progrès rapides de l’IA

18:37 Les plus gros risques de l’IA

25:44 Les comportements inquiétants des IA

34:55 Les risques d’extinction de l’IA

42:15 Combien de temps nous reste-il ?

47:07 Pourquoi 2026 ?

48:34 Que sont les lignes rouges ?

51:13 Pourquoi des lignes rouges ?

54:51 Les lignes rouges vs l’innovation

57:42 Les difficultés géopolitiques

59:05 Le risque des pays malveillants

1:01:41 Le défi de l’opérationnalisation

1:07:27 Quelles sont les prochaines étapes ?

1:10:33 Quelques anecdotes

1:13:38 Vivre en ayant conscience de ces risques

1:17:04 Que faire à titre individuel ?

1:19:42 Message à l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le Futurologue Podcast
J’analyse les risques de l’IA.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.