Home
Categories
EXPLORE
True Crime
Comedy
Society & Culture
Business
Sports
TV & Film
Health & Fitness
About Us
Contact Us
Copyright
© 2024 PodJoint
00:00 / 00:00
Sign in

or

Don't have an account?
Sign up
Forgot password
https://is1-ssl.mzstatic.com/image/thumb/Podcasts211/v4/ff/37/dd/ff37dd1e-de87-c132-d414-b5b1e4cb9701/mza_9687340056082535909.jpeg/600x600bb.jpg
Le Futurologue Podcast
Le Futurologue
108 episodes
5 days ago
J’analyse les risques de l’IA.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
Education
RSS
All content for Le Futurologue Podcast is the property of Le Futurologue and is served directly from their servers with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
J’analyse les risques de l’IA.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
Education
Episodes (20/108)
Le Futurologue Podcast
"15 bombes nucléaires suffiraient à détruire la France." – Benoît Pelopidas

📖 Le livre de Benoît « Repenser les choix nucléaires »

———

🎬 Vidéo de 60s recommandée par Benoît

———

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

———

DESCRIPTION DE L’ÉPISODE

Benoît Pelopidas est docteur et professeur en sciences politiques, fondateur du programme d’étude des savoirs nucléaires à Sciences Po. Chercheur affilié au Centre pour la sécurité internationale et la coopération de l’Université Stanford, il est également l’auteur de l’ouvrage « Repenser les choix nucléaires ». À la tête d’une des rares équipes de recherche indépendantes et non partisanes, il œuvre pour une analyse rigoureuse et impartiale des enjeux liés aux politiques nucléaires. Lauréat de quatre prix internationaux, il est aujourd’hui reconnu comme l’un des grands spécialistes mondiaux des armes nucléaires et des catastrophes qu’elles pourraient provoquer.

———

TIME CODE

0:00 Introduction

1:15 Pourquoi se soucier des armes nucléaires ?

6:27 Où en sont les armes nucléaires dans le monde ?

13:52 Les conséquences d’une guerre nucléaire

21:20 Les armes nucléaires garantissent-elles la paix ?

36:26 Pourquoi n’y a-t-il pas eu de guerre nucléaire ?

1:00:52 Que penser du débat sur les armes nucléaires ?

1:14:23 L’intégration de l’IA dans l’arsenal nucléaire

1:21:38 Les parallèles entre les armes nucléaires et l’IA

1:42:25 Que faire ?

1:46:43 Message à l’humanité



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
5 days ago
1 hour 48 minutes 21 seconds

Le Futurologue Podcast
"Il y a des IA bien plus terrifiantes que ChatGPT." - Jean-Lou Fourquet

👉 La chaîne YouTube de Jean-Lou, son livre et sa newsletter

———

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

———

QUI EST JEAN-LOU FOURQUET ?

Jean-Lou Fourquet est ingénieur, vidéaste et enseignant. Fondateur du média Après la Bière, il y analyse les impacts des nouvelles technologies sur nos vies. Membre de l’association Tournesol, il œuvre pour une intelligence artificielle plus démocratique. Il est aussi co-auteur du livre « La dictature des algorithmes : Une transition numérique démocratique est possible ».

———

TIME CODE

0:00 Introduction

1:01 L’importance des IA de recommandation

21:41 La sophistication des IA de recommandation

28:52 Suivre d’où vient l’argent

40:41 Liens entre IA générative et IA de recommandation

52:57 Les vrais capacités des IA de recommandation

58:25 Les conséquences des IA de recommandation 1/2

1:08:09 Les conflits d’intérêt des experts en IA

1:15:50 Les conséquences des IA de recommandation 2/2

1:23:26 Les IA de recommandation sont-elles neutres ?

1:39:29 Message à l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
1 week ago
1 hour 41 minutes 48 seconds

Le Futurologue Podcast
Monsieur Phi : "On ne sait pas comment ChatGPT fonctionne."

👉 Le nouveau livre et la chaîne YouTube de Monsieur Phi

———

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

———

DESCRIPTION DE L’ÉPISODE

Thibaut Giraud est docteur en philosophie et ancien professeur. Il est le créateur de la chaîne YouTube Monsieur Phi, l’une des plus populaires en France dans le domaine. Intéressé par les questions liées à l’intelligence artificielle, il a consacré depuis 2023 pas moins de 13 vidéos à ce sujet, faisant de sa chaîne une référence francophone sur l’IA. Il publie aujourd’hui « La parole aux machines : Philosophie des grands modèles de langage », un ouvrage qui prolonge cette réflexion avec une approche à la fois rigoureuse et accessible.

———

TIME CODE

0:00 Introduction

1:02 Les machines parlent !

11:00 La mise à l’échelle

19:32 Les IA sont-elles intelligentes ?

21:59 Les IA sont des boites noires

36:34 Les comportements étranges des IA

49:48 Quand arrivera-t-on à l’IA surhumaine ?

53:20 Les IA sont-elles autonomes ?

57:20 Penser correctement la super IA

1:03:09 Message à l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
2 weeks ago
1 hour 5 minutes 40 seconds

Le Futurologue Podcast
Expert de la conscience : "ChatGPT est peut-être déjà conscient."

👉 Le livre et le podcast de Victor, ainsi que les sources de l’épisode

——

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

———

DESCRIPTION DE L’ÉPISODE

Victor Duran-Le Peuch a étudié la philosophie à la Sorbonne et à l’Université de York avant de s’engager dans la lutte contre la souffrance animale. Il est le créateur du podcast Comme un poisson dans l’eau, aujourd’hui le plus grand podcast francophone consacré à cette thématique. Plus récemment, il est également devenu auteur avec la parution de son ouvrage En finir avec les idées fausses sur l’antispécisme.

———

TIME CODE

0:00 Introduction

1:11 Les IA sont-elles déjà conscientes ?

36:26 Les implications des IA conscientes

45:47 Faut-il être vivant pour être conscient ?

56:29 Faut-il être incarné pour être conscient ?

58:23 Comment savoir si les IA sont conscientes ?

1:01:50 Les différences entre la conscience humaine et artificielle

1:05:53 Les IA conscientes seraient-elles plus dangereuses ?

1:10:53 Les IA sont-elles conscientes d’elles-mêmes ?

1:18:38 La prise de conscience de ces dangers

1:20:52 Les IA qui traduisent les animaux

1:22:29 Le suprémacisme humain

1:24:36 Quelles sont les solutions ?

1:26:06 Message à l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
3 weeks ago
1 hour 27 minutes 51 seconds

Le Futurologue Podcast
Expert mondial de l’IA : "Vous n’avez aucune idée de ce qui arrive."

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

———

DESCRIPTION DE L’ÉPISODE

Nicolas Miailhe est le fondateur de The Future Society, groupe de réflexion qu’il a dirigé de 2014 à 2023 et qui s’est imposé comme une référence mondiale en matière de régulation de l’intelligence artificielle. Plus récemment, il a cofondé et dirige PRISM Eval, une startup parisienne spécialisée dans la détection des vulnérabilités des IA de pointe. Reconnu comme l’un des pionniers de l’encadrement de l’IA, il a été nommé au Global Partnership on AI, siège au groupe d’experts en IA de l’OCDE ainsi qu’au groupe de haut niveau de l’UNESCO sur l’éthique de l’IA. Diplômé d’un master en administration publique de Harvard, il enseigne à Sciences Po Paris, donne régulièrement des conférences à travers le monde et conseille gouvernements, organisations internationales, fondations philanthropiques et multinationales.

———

TIME CODE

0:00 Introduction

1:35 Vers une pause de l’IA ?

7:23 Les plus grands risques de l’IA

18:53 La géopolitique de l’IA

24:51 La régulation contre l’innovation

29:20 Un développement antidémocratique

32:20 La Chine face à l’IA

42:17 L’Inde face à l’IA

51:34 Les Émirats arabes unis face à l’IA

57:51 La coopération internationale

1:04:33 L’IA face à nos institutions

1:09:44 La bulle de l’IA

1:14:53 Les solutions

1:20:04 Message à l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
1 month ago
1 hour 22 minutes 50 seconds

Le Futurologue Podcast
Ex ingénieure Google : "On est en train de créer des IA vivantes."

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

———

DESCRIPTION DE L’ÉPISODE

Jennifer Prendki est docteure en physique des particules et a dirigé le département data de Google DeepMind. Depuis vingt ans, elle se situe à l’avant-garde de la recherche et de la technologie. Experte reconnue, elle a conseillé plus de 170 entreprises dans l’élaboration de leurs stratégies technologiques. Elle est également la fondatrice de Quantum of Data, une société de recherche et de conseil qui explore l’intersection entre intelligence artificielle et ordinateurs quantiques, ainsi que les questions liées à l'apparition de la conscience dans les IA.

———

TIME CODE

0:00 Introduction

1:05 Vers des IA vivantes ?

9:28 Vers des IA conscientes ?

34:23 Les relations avec les IA

45:13 L’IA et l’ordinateur quantique

1:01:58 Pourquoi avoir quitté Google ?

1:18:04 Garder l’IA surhumaine sous contrôle

1:27:01 Message à l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
1 month ago
1 hour 28 minutes 35 seconds

Le Futurologue Podcast
Les experts en IA avertissent : "L’IA pourrait détruire le monde !"

🗣️ La déclaration

💬 Discord du Centre pour la Sécurité de l’IA

✉️ Contacter vos représentants

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

———

DESCRIPTION DE L’ÉPISODE

Charbel-Raphaël Segerie est ingénieur, chercheur et enseignant en intelligence artificielle. Il est expert IA auprès de l’OCDE et dirige le Centre pour la Sécurité de l’IA. Dans cet épisode, il explique pourquoi il a lancé un appel mondial à la mise en place de lignes rouges internationales afin de prévenir les risques inacceptables liés à l'IA.

———

TIME CODE

0:00 Introduction

1:10 La déclaration et ses signataires

6:44 Pourquoi avoir écrit cette déclaration ?

11:33 Les progrès rapides de l’IA

18:37 Les plus gros risques de l’IA

25:44 Les comportements inquiétants des IA

34:55 Les risques d’extinction de l’IA

42:15 Combien de temps nous reste-il ?

47:07 Pourquoi 2026 ?

48:34 Que sont les lignes rouges ?

51:13 Pourquoi des lignes rouges ?

54:51 Les lignes rouges vs l’innovation

57:42 Les difficultés géopolitiques

59:05 Le risque des pays malveillants

1:01:41 Le défi de l’opérationnalisation

1:07:27 Quelles sont les prochaines étapes ?

1:10:33 Quelques anecdotes

1:13:38 Vivre en ayant conscience de ces risques

1:17:04 Que faire à titre individuel ?

1:19:42 Message à l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
1 month ago
1 hour 20 minutes 24 seconds

Le Futurologue Podcast
Est-on sur le point de perdre le contrôle de l’IA ? - Débat d’experts

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

———

DESCRIPTION DE L’ÉPISODE

-> Jean-Gabriel Ganascia est ingénieur, philosophe, professeur d’informatique à Sorbonne Université et auteur d’une dizaine d’ouvrages sur l’intelligence artificielle. Dans son livre le plus connu, Le Mythe de la Singularité : Faut-il craindre l’intelligence artificielle ?, il défend l’idée que le scénario d’une IA surpassant l’intelligence humaine et s’auto-améliorant jusqu’à devenir incontrôlable relève davantage du mythe contemporain que d’une perspective scientifique réaliste.

-> Flavien Chervet est écrivain, conférencier, prospectiviste et auteur de plusieurs ouvrages sur l’intelligence artificielle. Dans son dernier livre, Hyperarme : Anatomie d’une intranquillité planétaire, il alerte sur la possibilité qu’une superintelligence artificielle, plus puissante que l’ensemble de l’humanité, émerge dans les cinq prochaines années et constitue une menace existentielle.


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
2 months ago
1 hour 34 minutes 59 seconds

Le Futurologue Podcast
Ingénieur en IA : "L’extinction est le scénario par défaut."

⏸️ Rejoignez le canal WhatsApp et le serveur Discord de Pause IA

———

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

———

DESCRIPTION DE L’ÉPISODE

Maxime Fournes cumule plus de dix ans d’expérience en intelligence artificielle. Après avoir travaillé pour de grands fonds d’investissement et occupé des postes enviés, il a choisi de tout quitter pour cofonder en 2024 Pause IA, une association qui milite pour une pause dans le développement des intelligences artificielles les plus dangereuses. Nous avions déjà échangé dans plusieurs épisodes, mais, depuis notre dernière conversation, les avancées en IA ont été fulgurantes. Dans cet entretien, nous revenons sur ces progrès et sur les immenses risques qu’ils font peser sur notre avenir.

———

TIME CODE

0:00 Introduction

1:40 Alpha Evolve

10:33 Sakana AI

21:31 Claude 4

33:47 AI 2027

37:42 Le virage des géants de la tech

41:15 Une interdiction de réguler ?

46:41 Une pause de l’IA Act ?

52:07 Vers l’extinction humaine ?

57:58 La super IA va-t-elle se remettre en question ?

1:06:09 La super IA est-elle une opportunité pour la nature ?

1:10:01 Comment la super IA va-t-elle nous tuer ?

1:11:28 Alignement interne vs alignement externe

1:14:55 Qu’est-ce que la super IA va optimiser ?

1:22:01 La France va-t-elle perdre la course ?

1:26:09 Des nouvelles de Pause IA

1:29:26 Un message pour l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
2 months ago
1 hour 30 minutes 38 seconds

Le Futurologue Podcast
Chercheur en IA : "Je peux faire dire ce que je veux à ChatGPT."

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

———

DESCRIPTION DE L’ÉPISODE

Pierre Peigné est directeur scientifique et cofondateur de PRISM Eval, une start-up spécialisée dans l’évaluation des vulnérabilités des intelligences artificielles. Après un parcours en tant qu’ingénieur et chercheur en IA, il consacre aujourd’hui son expertise à mettre en lumière les failles des systèmes d’IA et les risques qu’elles représentent.

———

TIME CODE

0:00 Introduction

0:58 Le jailbreaking

8:45 L’amélioration des performances

13:05 La convergence instrumentale

18:47 Les types de risques

22:56 Les IA boîtes noires

26:05 La nullité des sécurités

29:12 Qui sont vos clients ?

33:01 Retour sur les IA boîtes noires

37:29 Évaluer les capacités

42:08 Une IA qui jailbreak d’autres IA

45:27 Comment jailbreaker les IA ?

48:45 L’état de l’art de l’évaluation des IA

52:54 Capacités vs sécurité

55:12 L’entraînement sur les benchmarks

57:10 La dangerosité de l’évaluation de l’IA

1:01:54 Faut-il mettre les IA en open source ?

1:09:07 Évaluer les systèmes multi agents

1:12:17 Évaluer les IA qui ont accès à internet

1:15:05 Évaluer les IA qui raisonnent

1:17:17 Lien entre intelligence et robustesse

1:20:10 Les obligations d’évaluation

1:22:09 L’évaluation selon la puissance de calcul

1:25:18 Les évaluations indépendantes

1:27:09 L’enjeu de la France en évaluation

1:28:44 Les usages borderline

1:31:57 Les capacités d’humour

1:33:57 Les IA sont des outils ?

1:37:04 Message à l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
2 months ago
1 hour 38 minutes 42 seconds

Le Futurologue Podcast
Économiste : "Oui, l’IA pourrait tous nous mettre au chômage."

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

———

DESCRIPTION DE L’ÉPISODE

Axelle Arquié est docteure en économie, spécialiste du marché du travail et cofondatrice de l’Observatoire des Emplois Menacés et Émergents. Elle ne mâche pas ses mots : selon elle, les IA actuelles pourraient déjà provoquer un choc majeur sur le marché du travail. Et si une IA surhumaine devait émerger, ce serait un véritable risque existentiel pour nos économies. Nous plongeons ensemble dans son analyse, pour explorer ce que nous pouvons faire, individuellement et collectivement, face à la vague d’automatisation qui s’annonce.

———

TIME CODE

0:00 Introduction

1:41 Dans quoi sommes-nous embarqués ?

3:18 L’impact des LLM sur le travail

9:45 Une diffusion dans l’économie ultra rapide

14:26 L’impact des agents autonomes sur le travail

25:43 L’impact sur les métiers relationnels

32:04 Le faux espoir des nouveaux métiers

38:50 Les enjeux de la pression concurrentielle

41:42 AI 2027 et l’auto-amélioration

45:54 La perte de contrôle de l’IA

48:52 Le rapport de la Commission de l’IA

57:21 Les effets avant l’automatisation totale

1:08:29 Les géants de la tech savent ce qu’ils font

1:14:05 Vers une domination des géants de la tech

1:22:19 Le problème du contrôle de l’IA

1:27:29 Que faire à titre individuel et collectif ?

1:30:40 Réponses à 3 objections courantes

1:37:21 Présentation de l’Observatoire des emplois menacés et émergents

1:38:31 Message à l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
2 months ago
1 hour 40 minutes 28 seconds

Le Futurologue Podcast
Interview de GPT-5 : Ce que personne n’ose dire sur l’IA

🎬 Découvrez mon autre chaîne YouTube

———

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

👉 Laissez-moi un feedback anonyme

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

———

TIME CODE

0:00 Introduction

0:40 Présentation de GPT-5

1:03 Comment définir notre époque ?

2:12 L’importance et l’omniprésence de l’IA

3:36 Vers des IA surhumaines ?

4:08 Contrôler les IA surhumaines

7:17 L’IA surhumaine, c’est pour quand ?

8:39 Un monde où l’humain n’est plus nécessaire

9:23 Il suffit de débrancher la prise ?

10:41 La convergence instrumentale

11:48 Et si on poursuit la trajectoire ?

13:05 L’impact de l’IA sur l’emploi

13:53 Quel rôle restera-t-il à l’humanité ?

14:43 Les machines parlent !

16:47 Que de la science-fiction ?

17:38 Quels sont les risques de l’IA ?

18:20 La dépendance à l’intelligence artificielle

19:57 La perte de contrôle rapide vs progressive

21:13 L’auto-amélioration récursive

23:24 Et si on gardait le contrôle ?

25:31 Une prédiction pas agréable

26:15 Quelles sont les solutions ?

27:24 Une mesure d’urgence à appliquer

28:09 L’utopie de GPT-5

29:09 Les obstacles à l’utopie

30:04 Un poème qui reflète ces enjeux

30:50 Expliquer l’humanité à une autre IA

31:37 La vision de l’IA sur l’humanité

32:36 Un petit problème d’identité ?

33:13 La plus grande illusion des humains

34:05 Promo de ma chaîne « Le Futurologue »

35:08 Message à l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
2 months ago
36 minutes 35 seconds

Le Futurologue Podcast
"L’IA est un désastre écologique !" - Philippe Bihouix

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

👉 Laissez-moi un feedback anonyme

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

CyberGhost VPN

Riverside (Enregistrement de podcast)

Audible (Livres audio)

Kindle (eBooks)

———

TIME CODE

0:00 Introduction

1:20 Que pensez-vous de l’intelligence artificielle ?

11:39 Pourquoi est-ce difficile d’avoir des chiffres précis sur les impacts environnementaux de l’IA ?

22:35 Les impacts environnementaux futurs de l’IA

30:58 L’effet rebond de l’IA

37:32 L’accélération de l’économie par l’IA

46:21 L’influence de l’IA sur nos idées

1:01:45 La neutralité des technologies

1:09:01 Le problème de la compétition

1:22:36 Le désastre de l’école numérique

1:31:12 Message à l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
3 months ago
1 hour 38 minutes 9 seconds

Le Futurologue Podcast
"Il est urgent d’interdire les robots tueurs !" - Anne-Sophie Simpere

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

👉 Laissez-moi un feedback anonyme

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

CyberGhost VPN

Riverside (Enregistrement de podcast)

———

TIME CODE

0:00 Introduction

1:22 Que sont les robots tueurs ? Existent-ils déjà ?

4:43 Le non-respect du droit international

11:45 La déshumanisation numérique

13:45 Le renforcement des inégalités

16:04 L’inexplicabilité et l’incontrôlabilité

21:32 Un message aux géants de la tech

28:43 L’utilisation terroriste

30:30 Une accessibilité inquiétante

31:43 La perte de la responsabilité

32:33 L’abaissement du seuil de la guerre

35:06 Vers une « guerre propre » ?

36:39 Une nouvelle course au armement ?

39:41 Les utilisations de l’IA dans l’armée

41:30 Que sont les armes autonomes ?

44:43 Les armes autonomes non-problématiques

47:10 Un arsenal dont on perd le contrôle

48:12 L’utilisation de l’IA dans la répression

53:09 La position des différents pays

57:36 Quel est le plan de Stop Killer Robots ?

58:32 Le positionnement de la France

1:01:33 Est-ce possible d’interdire les armes autonomes ?

1:04:44 Le sophisme de la solution parfaite

1:10:08 Les exemples historiques de contrôle des armements

1:15:13 Un message à l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
3 months ago
1 hour 16 minutes 1 second

Le Futurologue Podcast
Les plus grands mensonges sur l’IA - Shaïman Thürler

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

👉 Laissez-moi un feedback anonyme

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

CyberGhost VPN

Riverside (Enregistrement de podcast)

Audible (Livres audio)

Kindle (eBooks)

———

TIME CODE

0:00 Introduction

2:56 « L’IA n’est qu’un gadget. »

7:50 « L’IA surhumaine est très loin.  »

12:52 « On comprend le fonctionnement des IA. »

14:47 « On contrôle les comportements des IA. »

19:14 « Les risques de l’IA sont exagérés. »

24:04 « L’IA n’est qu’un outil. »

26:00 « Les IA ne sont pas intelligentes, ne comprennent rien et n’ont aucune intention. »

31:52 « Si les IA se mettent à faire n’importe quoi, on n’aura qu’à les débrancher. »

35:47 « Tout ça, c’est de la science-fiction. »

39:12 « Si l’IA ne devient pas consciente, elle ne sera pas dangereuse. »

42:04 « L’IA est une course à l’armement. »

46:02 « Une pause de l’IA est impossible. »

54:11 « Il n’y a aucun espoir, tout est foutu ! »


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
3 months ago
59 minutes 2 seconds

Le Futurologue Podcast
"L’IA va tous nous mettre au chômage !" - Stéphane Mallard

🎙️ Découvrez mon interview de Stuart Armstrong

———

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

👉 Laissez-moi un feedback anonyme

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

CyberGhost VPN

Riverside (Enregistrement de podcast)

Audible (Livres audio)

Kindle (eBooks)


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
3 months ago
1 hour 23 minutes 53 seconds

Le Futurologue Podcast
IA : C’est pire que vous ne le croyez (et personne n’en parle) - Le Futurologue

🎙️ Découvrez les autres épisodes de « Comme un poisson dans l’eau »

———

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

👉 Laissez-moi un feedback anonyme

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

CyberGhost VPN

———

TIME CODE

0:00 Introduction

1:37 Pourquoi ChatGPT est une révolution ?

4:56 Comment fonctionne l’IA ?

9:15 Quels sont les risques de l’IA ?

17:51 Pourquoi l’IA pose un risque existentiel ?

24:01 Les capacités des IA sont-elles exagérées ?

28:33 Les IA sont-elles intelligentes ?

31:57 Les IA ne sont-elles que des outils ?

33:56 Il n’y a qu’à bien programmer l’IA ?

37:18 Il suffira de débrancher la super IA ?

42:14 Il suffira de s’adapter aux conséquences de l’IA ?

45:01 Tout ça, c’est de la science-fiction ?

47:41 Pourquoi les géants de la tech ne s’arrêtent pas ?

51:13 Pourquoi est-ce que personne n’en parle ?

54:32 Pourquoi vouloir faire peur à tout le monde ?

56:02 Est-ce une stratégie pour faire diversion des « vrais problèmes » ?

1:00:17 Quels seront les impacts sur les animaux ?

1:08:40 Est-ce que les IA pourraient souffrir ?

1:12:59 Que faut-il faire à titre collectif ?

1:19:00 Que faut-il faire à titre individuel ?

1:21:24 3 recommandations de contenus


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
4 months ago
1 hour 25 minutes 55 seconds

Le Futurologue Podcast
La vérité sur ton cerveau et les écrans - Albert Moukheiber et Victor Fersing

🎙️ Découvrez les autres épisodes de « Comme un poisson dans l’eau »

———

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

👉 Laissez-moi un feedback anonyme

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

CyberGhost VPN

Riverside (Enregistrement de podcast)

Audible (Livres audio)

Kindle (eBooks)

———

TIME CODE

0:00 Introduction

1:00 La dopamine

56:29 Les circuits de récompenses

1:16:18 L’IA et nos capacités cognitives


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
4 months ago
1 hour 33 minutes 39 seconds

Le Futurologue Podcast
Pourquoi l'IA est sous-estimé et va bientôt frapper fort - Le Futurologue

🎬 Regardez l’interview complète

———

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

👉 Laissez-moi un feedback anonyme

———

AGIR POUR LA SÉCURITÉ DE L’IA

S’informer

Faire un don

Devenir bénévole

Repenser votre carrière

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

CyberGhost VPN

Riverside (Enregistrement de podcast)

Audible (Livres audio)

Kindle (eBooks)


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
4 months ago
14 minutes 37 seconds

Le Futurologue Podcast
"On est totalement dépendants des États-Unis." - Gilles Moyse

📚 Achetez le livre de Gilles Moyse

———

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal

———

🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon

———

👉 Laissez-moi un feedback anonyme

———

MES RECOMMANDATIONS

Mes livres préférés sur l’IA

Tous les livres que j’ai lus

Mon matériel high-tech

CyberGhost VPN

Riverside (Enregistrement de podcast)

Audible (Livres audio)

Kindle (eBooks)

———

TIME CODE

0:00 Introduction

0:55 L’importance de la souveraineté numérique

15:20 L’IA souveraine est-elle un mirage ?

18:13 Est-il possible d’être 100 % autonome ?

23:44 Pourquoi l’Europe est-elle en retard ?

33:42 Pourquoi les entreprises utilisent des services américains ?

40:32 Comment augmenter notre souveraineté numérique ?

49:30 Que faire face à la fragmentation de l’Europe ?

54:49 Pourquoi faut-il développer un modèle européen ?

1:01:09 Que penser des investissements étrangers ?

1:02:34 Que penser de Mistral AI ?

1:08:40 Pourquoi les IA sont des boîtes noires ?

1:20:27 Que penser des comportements émergents de l’IA ?

1:24:08 Est-ce que les politiques comprennent ces enjeux ?

1:28:17 Qu’est-ce que reciTAL ?

1:30:07 Quelle est la place de la pub dans l’IA moderne ?

1:32:56 Un message à l’humanité


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
4 months ago
1 hour 33 minutes 53 seconds

Le Futurologue Podcast
J’analyse les risques de l’IA.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.