Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
📖 Le livre de Benoît « Repenser les choix nucléaires »
———
🎬 Vidéo de 60s recommandée par Benoît
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Benoît Pelopidas est docteur et professeur en sciences politiques, fondateur du programme d’étude des savoirs nucléaires à Sciences Po. Chercheur affilié au Centre pour la sécurité internationale et la coopération de l’Université Stanford, il est également l’auteur de l’ouvrage « Repenser les choix nucléaires ». À la tête d’une des rares équipes de recherche indépendantes et non partisanes, il œuvre pour une analyse rigoureuse et impartiale des enjeux liés aux politiques nucléaires. Lauréat de quatre prix internationaux, il est aujourd’hui reconnu comme l’un des grands spécialistes mondiaux des armes nucléaires et des catastrophes qu’elles pourraient provoquer.
———
TIME CODE
0:00 Introduction
1:15 Pourquoi se soucier des armes nucléaires ?
6:27 Où en sont les armes nucléaires dans le monde ?
13:52 Les conséquences d’une guerre nucléaire
21:20 Les armes nucléaires garantissent-elles la paix ?
36:26 Pourquoi n’y a-t-il pas eu de guerre nucléaire ?
1:00:52 Que penser du débat sur les armes nucléaires ?
1:14:23 L’intégration de l’IA dans l’arsenal nucléaire
1:21:38 Les parallèles entre les armes nucléaires et l’IA
1:42:25 Que faire ?
1:46:43 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
👉 La chaîne YouTube de Jean-Lou, son livre et sa newsletter
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
QUI EST JEAN-LOU FOURQUET ?
Jean-Lou Fourquet est ingénieur, vidéaste et enseignant. Fondateur du média Après la Bière, il y analyse les impacts des nouvelles technologies sur nos vies. Membre de l’association Tournesol, il œuvre pour une intelligence artificielle plus démocratique. Il est aussi co-auteur du livre « La dictature des algorithmes : Une transition numérique démocratique est possible ».
———
TIME CODE
0:00 Introduction
1:01 L’importance des IA de recommandation
21:41 La sophistication des IA de recommandation
28:52 Suivre d’où vient l’argent
40:41 Liens entre IA générative et IA de recommandation
52:57 Les vrais capacités des IA de recommandation
58:25 Les conséquences des IA de recommandation 1/2
1:08:09 Les conflits d’intérêt des experts en IA
1:15:50 Les conséquences des IA de recommandation 2/2
1:23:26 Les IA de recommandation sont-elles neutres ?
1:39:29 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
👉 Le nouveau livre et la chaîne YouTube de Monsieur Phi
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Thibaut Giraud est docteur en philosophie et ancien professeur. Il est le créateur de la chaîne YouTube Monsieur Phi, l’une des plus populaires en France dans le domaine. Intéressé par les questions liées à l’intelligence artificielle, il a consacré depuis 2023 pas moins de 13 vidéos à ce sujet, faisant de sa chaîne une référence francophone sur l’IA. Il publie aujourd’hui « La parole aux machines : Philosophie des grands modèles de langage », un ouvrage qui prolonge cette réflexion avec une approche à la fois rigoureuse et accessible.
———
TIME CODE
0:00 Introduction
1:02 Les machines parlent !
11:00 La mise à l’échelle
19:32 Les IA sont-elles intelligentes ?
21:59 Les IA sont des boites noires
36:34 Les comportements étranges des IA
49:48 Quand arrivera-t-on à l’IA surhumaine ?
53:20 Les IA sont-elles autonomes ?
57:20 Penser correctement la super IA
1:03:09 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
👉 Le livre et le podcast de Victor, ainsi que les sources de l’épisode
——
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Victor Duran-Le Peuch a étudié la philosophie à la Sorbonne et à l’Université de York avant de s’engager dans la lutte contre la souffrance animale. Il est le créateur du podcast Comme un poisson dans l’eau, aujourd’hui le plus grand podcast francophone consacré à cette thématique. Plus récemment, il est également devenu auteur avec la parution de son ouvrage En finir avec les idées fausses sur l’antispécisme.
———
TIME CODE
0:00 Introduction
1:11 Les IA sont-elles déjà conscientes ?
36:26 Les implications des IA conscientes
45:47 Faut-il être vivant pour être conscient ?
56:29 Faut-il être incarné pour être conscient ?
58:23 Comment savoir si les IA sont conscientes ?
1:01:50 Les différences entre la conscience humaine et artificielle
1:05:53 Les IA conscientes seraient-elles plus dangereuses ?
1:10:53 Les IA sont-elles conscientes d’elles-mêmes ?
1:18:38 La prise de conscience de ces dangers
1:20:52 Les IA qui traduisent les animaux
1:22:29 Le suprémacisme humain
1:24:36 Quelles sont les solutions ?
1:26:06 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Nicolas Miailhe est le fondateur de The Future Society, groupe de réflexion qu’il a dirigé de 2014 à 2023 et qui s’est imposé comme une référence mondiale en matière de régulation de l’intelligence artificielle. Plus récemment, il a cofondé et dirige PRISM Eval, une startup parisienne spécialisée dans la détection des vulnérabilités des IA de pointe. Reconnu comme l’un des pionniers de l’encadrement de l’IA, il a été nommé au Global Partnership on AI, siège au groupe d’experts en IA de l’OCDE ainsi qu’au groupe de haut niveau de l’UNESCO sur l’éthique de l’IA. Diplômé d’un master en administration publique de Harvard, il enseigne à Sciences Po Paris, donne régulièrement des conférences à travers le monde et conseille gouvernements, organisations internationales, fondations philanthropiques et multinationales.
———
TIME CODE
0:00 Introduction
1:35 Vers une pause de l’IA ?
7:23 Les plus grands risques de l’IA
18:53 La géopolitique de l’IA
24:51 La régulation contre l’innovation
29:20 Un développement antidémocratique
32:20 La Chine face à l’IA
42:17 L’Inde face à l’IA
51:34 Les Émirats arabes unis face à l’IA
57:51 La coopération internationale
1:04:33 L’IA face à nos institutions
1:09:44 La bulle de l’IA
1:14:53 Les solutions
1:20:04 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Jennifer Prendki est docteure en physique des particules et a dirigé le département data de Google DeepMind. Depuis vingt ans, elle se situe à l’avant-garde de la recherche et de la technologie. Experte reconnue, elle a conseillé plus de 170 entreprises dans l’élaboration de leurs stratégies technologiques. Elle est également la fondatrice de Quantum of Data, une société de recherche et de conseil qui explore l’intersection entre intelligence artificielle et ordinateurs quantiques, ainsi que les questions liées à l'apparition de la conscience dans les IA.
———
TIME CODE
0:00 Introduction
1:05 Vers des IA vivantes ?
9:28 Vers des IA conscientes ?
34:23 Les relations avec les IA
45:13 L’IA et l’ordinateur quantique
1:01:58 Pourquoi avoir quitté Google ?
1:18:04 Garder l’IA surhumaine sous contrôle
1:27:01 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
🗣️ La déclaration
💬 Discord du Centre pour la Sécurité de l’IA
✉️ Contacter vos représentants
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Charbel-Raphaël Segerie est ingénieur, chercheur et enseignant en intelligence artificielle. Il est expert IA auprès de l’OCDE et dirige le Centre pour la Sécurité de l’IA. Dans cet épisode, il explique pourquoi il a lancé un appel mondial à la mise en place de lignes rouges internationales afin de prévenir les risques inacceptables liés à l'IA.
———
TIME CODE
0:00 Introduction
1:10 La déclaration et ses signataires
6:44 Pourquoi avoir écrit cette déclaration ?
11:33 Les progrès rapides de l’IA
18:37 Les plus gros risques de l’IA
25:44 Les comportements inquiétants des IA
34:55 Les risques d’extinction de l’IA
42:15 Combien de temps nous reste-il ?
47:07 Pourquoi 2026 ?
48:34 Que sont les lignes rouges ?
51:13 Pourquoi des lignes rouges ?
54:51 Les lignes rouges vs l’innovation
57:42 Les difficultés géopolitiques
59:05 Le risque des pays malveillants
1:01:41 Le défi de l’opérationnalisation
1:07:27 Quelles sont les prochaines étapes ?
1:10:33 Quelques anecdotes
1:13:38 Vivre en ayant conscience de ces risques
1:17:04 Que faire à titre individuel ?
1:19:42 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
-> Jean-Gabriel Ganascia est ingénieur, philosophe, professeur d’informatique à Sorbonne Université et auteur d’une dizaine d’ouvrages sur l’intelligence artificielle. Dans son livre le plus connu, Le Mythe de la Singularité : Faut-il craindre l’intelligence artificielle ?, il défend l’idée que le scénario d’une IA surpassant l’intelligence humaine et s’auto-améliorant jusqu’à devenir incontrôlable relève davantage du mythe contemporain que d’une perspective scientifique réaliste.
-> Flavien Chervet est écrivain, conférencier, prospectiviste et auteur de plusieurs ouvrages sur l’intelligence artificielle. Dans son dernier livre, Hyperarme : Anatomie d’une intranquillité planétaire, il alerte sur la possibilité qu’une superintelligence artificielle, plus puissante que l’ensemble de l’humanité, émerge dans les cinq prochaines années et constitue une menace existentielle.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
⏸️ Rejoignez le canal WhatsApp et le serveur Discord de Pause IA
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Maxime Fournes cumule plus de dix ans d’expérience en intelligence artificielle. Après avoir travaillé pour de grands fonds d’investissement et occupé des postes enviés, il a choisi de tout quitter pour cofonder en 2024 Pause IA, une association qui milite pour une pause dans le développement des intelligences artificielles les plus dangereuses. Nous avions déjà échangé dans plusieurs épisodes, mais, depuis notre dernière conversation, les avancées en IA ont été fulgurantes. Dans cet entretien, nous revenons sur ces progrès et sur les immenses risques qu’ils font peser sur notre avenir.
———
TIME CODE
0:00 Introduction
1:40 Alpha Evolve
10:33 Sakana AI
21:31 Claude 4
33:47 AI 2027
37:42 Le virage des géants de la tech
41:15 Une interdiction de réguler ?
46:41 Une pause de l’IA Act ?
52:07 Vers l’extinction humaine ?
57:58 La super IA va-t-elle se remettre en question ?
1:06:09 La super IA est-elle une opportunité pour la nature ?
1:10:01 Comment la super IA va-t-elle nous tuer ?
1:11:28 Alignement interne vs alignement externe
1:14:55 Qu’est-ce que la super IA va optimiser ?
1:22:01 La France va-t-elle perdre la course ?
1:26:09 Des nouvelles de Pause IA
1:29:26 Un message pour l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Pierre Peigné est directeur scientifique et cofondateur de PRISM Eval, une start-up spécialisée dans l’évaluation des vulnérabilités des intelligences artificielles. Après un parcours en tant qu’ingénieur et chercheur en IA, il consacre aujourd’hui son expertise à mettre en lumière les failles des systèmes d’IA et les risques qu’elles représentent.
———
TIME CODE
0:00 Introduction
0:58 Le jailbreaking
8:45 L’amélioration des performances
13:05 La convergence instrumentale
18:47 Les types de risques
22:56 Les IA boîtes noires
26:05 La nullité des sécurités
29:12 Qui sont vos clients ?
33:01 Retour sur les IA boîtes noires
37:29 Évaluer les capacités
42:08 Une IA qui jailbreak d’autres IA
45:27 Comment jailbreaker les IA ?
48:45 L’état de l’art de l’évaluation des IA
52:54 Capacités vs sécurité
55:12 L’entraînement sur les benchmarks
57:10 La dangerosité de l’évaluation de l’IA
1:01:54 Faut-il mettre les IA en open source ?
1:09:07 Évaluer les systèmes multi agents
1:12:17 Évaluer les IA qui ont accès à internet
1:15:05 Évaluer les IA qui raisonnent
1:17:17 Lien entre intelligence et robustesse
1:20:10 Les obligations d’évaluation
1:22:09 L’évaluation selon la puissance de calcul
1:25:18 Les évaluations indépendantes
1:27:09 L’enjeu de la France en évaluation
1:28:44 Les usages borderline
1:31:57 Les capacités d’humour
1:33:57 Les IA sont des outils ?
1:37:04 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Axelle Arquié est docteure en économie, spécialiste du marché du travail et cofondatrice de l’Observatoire des Emplois Menacés et Émergents. Elle ne mâche pas ses mots : selon elle, les IA actuelles pourraient déjà provoquer un choc majeur sur le marché du travail. Et si une IA surhumaine devait émerger, ce serait un véritable risque existentiel pour nos économies. Nous plongeons ensemble dans son analyse, pour explorer ce que nous pouvons faire, individuellement et collectivement, face à la vague d’automatisation qui s’annonce.
———
TIME CODE
0:00 Introduction
1:41 Dans quoi sommes-nous embarqués ?
3:18 L’impact des LLM sur le travail
9:45 Une diffusion dans l’économie ultra rapide
14:26 L’impact des agents autonomes sur le travail
25:43 L’impact sur les métiers relationnels
32:04 Le faux espoir des nouveaux métiers
38:50 Les enjeux de la pression concurrentielle
41:42 AI 2027 et l’auto-amélioration
45:54 La perte de contrôle de l’IA
48:52 Le rapport de la Commission de l’IA
57:21 Les effets avant l’automatisation totale
1:08:29 Les géants de la tech savent ce qu’ils font
1:14:05 Vers une domination des géants de la tech
1:22:19 Le problème du contrôle de l’IA
1:27:29 Que faire à titre individuel et collectif ?
1:30:40 Réponses à 3 objections courantes
1:37:21 Présentation de l’Observatoire des emplois menacés et émergents
1:38:31 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
🎬 Découvrez mon autre chaîne YouTube
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
👉 Laissez-moi un feedback anonyme
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
TIME CODE
0:00 Introduction
0:40 Présentation de GPT-5
1:03 Comment définir notre époque ?
2:12 L’importance et l’omniprésence de l’IA
3:36 Vers des IA surhumaines ?
4:08 Contrôler les IA surhumaines
7:17 L’IA surhumaine, c’est pour quand ?
8:39 Un monde où l’humain n’est plus nécessaire
9:23 Il suffit de débrancher la prise ?
10:41 La convergence instrumentale
11:48 Et si on poursuit la trajectoire ?
13:05 L’impact de l’IA sur l’emploi
13:53 Quel rôle restera-t-il à l’humanité ?
14:43 Les machines parlent !
16:47 Que de la science-fiction ?
17:38 Quels sont les risques de l’IA ?
18:20 La dépendance à l’intelligence artificielle
19:57 La perte de contrôle rapide vs progressive
21:13 L’auto-amélioration récursive
23:24 Et si on gardait le contrôle ?
25:31 Une prédiction pas agréable
26:15 Quelles sont les solutions ?
27:24 Une mesure d’urgence à appliquer
28:09 L’utopie de GPT-5
29:09 Les obstacles à l’utopie
30:04 Un poème qui reflète ces enjeux
30:50 Expliquer l’humanité à une autre IA
31:37 La vision de l’IA sur l’humanité
32:36 Un petit problème d’identité ?
33:13 La plus grande illusion des humains
34:05 Promo de ma chaîne « Le Futurologue »
35:08 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
👉 Laissez-moi un feedback anonyme
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
Riverside (Enregistrement de podcast)
———
TIME CODE
0:00 Introduction
1:20 Que pensez-vous de l’intelligence artificielle ?
11:39 Pourquoi est-ce difficile d’avoir des chiffres précis sur les impacts environnementaux de l’IA ?
22:35 Les impacts environnementaux futurs de l’IA
30:58 L’effet rebond de l’IA
37:32 L’accélération de l’économie par l’IA
46:21 L’influence de l’IA sur nos idées
1:01:45 La neutralité des technologies
1:09:01 Le problème de la compétition
1:22:36 Le désastre de l’école numérique
1:31:12 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
👉 Laissez-moi un feedback anonyme
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
Riverside (Enregistrement de podcast)
———
TIME CODE
0:00 Introduction
1:22 Que sont les robots tueurs ? Existent-ils déjà ?
4:43 Le non-respect du droit international
11:45 La déshumanisation numérique
13:45 Le renforcement des inégalités
16:04 L’inexplicabilité et l’incontrôlabilité
21:32 Un message aux géants de la tech
28:43 L’utilisation terroriste
30:30 Une accessibilité inquiétante
31:43 La perte de la responsabilité
32:33 L’abaissement du seuil de la guerre
35:06 Vers une « guerre propre » ?
36:39 Une nouvelle course au armement ?
39:41 Les utilisations de l’IA dans l’armée
41:30 Que sont les armes autonomes ?
44:43 Les armes autonomes non-problématiques
47:10 Un arsenal dont on perd le contrôle
48:12 L’utilisation de l’IA dans la répression
53:09 La position des différents pays
57:36 Quel est le plan de Stop Killer Robots ?
58:32 Le positionnement de la France
1:01:33 Est-ce possible d’interdire les armes autonomes ?
1:04:44 Le sophisme de la solution parfaite
1:10:08 Les exemples historiques de contrôle des armements
1:15:13 Un message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
👉 Laissez-moi un feedback anonyme
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
Riverside (Enregistrement de podcast)
———
TIME CODE
0:00 Introduction
2:56 « L’IA n’est qu’un gadget. »
7:50 « L’IA surhumaine est très loin. »
12:52 « On comprend le fonctionnement des IA. »
14:47 « On contrôle les comportements des IA. »
19:14 « Les risques de l’IA sont exagérés. »
24:04 « L’IA n’est qu’un outil. »
26:00 « Les IA ne sont pas intelligentes, ne comprennent rien et n’ont aucune intention. »
31:52 « Si les IA se mettent à faire n’importe quoi, on n’aura qu’à les débrancher. »
35:47 « Tout ça, c’est de la science-fiction. »
39:12 « Si l’IA ne devient pas consciente, elle ne sera pas dangereuse. »
42:04 « L’IA est une course à l’armement. »
46:02 « Une pause de l’IA est impossible. »
54:11 « Il n’y a aucun espoir, tout est foutu ! »
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
🎙️ Découvrez mon interview de Stuart Armstrong
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
👉 Laissez-moi un feedback anonyme
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
Riverside (Enregistrement de podcast)
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
🎙️ Découvrez les autres épisodes de « Comme un poisson dans l’eau »
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
👉 Laissez-moi un feedback anonyme
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
TIME CODE
0:00 Introduction
1:37 Pourquoi ChatGPT est une révolution ?
4:56 Comment fonctionne l’IA ?
9:15 Quels sont les risques de l’IA ?
17:51 Pourquoi l’IA pose un risque existentiel ?
24:01 Les capacités des IA sont-elles exagérées ?
28:33 Les IA sont-elles intelligentes ?
31:57 Les IA ne sont-elles que des outils ?
33:56 Il n’y a qu’à bien programmer l’IA ?
37:18 Il suffira de débrancher la super IA ?
42:14 Il suffira de s’adapter aux conséquences de l’IA ?
45:01 Tout ça, c’est de la science-fiction ?
47:41 Pourquoi les géants de la tech ne s’arrêtent pas ?
51:13 Pourquoi est-ce que personne n’en parle ?
54:32 Pourquoi vouloir faire peur à tout le monde ?
56:02 Est-ce une stratégie pour faire diversion des « vrais problèmes » ?
1:00:17 Quels seront les impacts sur les animaux ?
1:08:40 Est-ce que les IA pourraient souffrir ?
1:12:59 Que faut-il faire à titre collectif ?
1:19:00 Que faut-il faire à titre individuel ?
1:21:24 3 recommandations de contenus
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
🎙️ Découvrez les autres épisodes de « Comme un poisson dans l’eau »
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
👉 Laissez-moi un feedback anonyme
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
Riverside (Enregistrement de podcast)
———
TIME CODE
0:00 Introduction
1:00 La dopamine
56:29 Les circuits de récompenses
1:16:18 L’IA et nos capacités cognitives
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
🎬 Regardez l’interview complète
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
👉 Laissez-moi un feedback anonyme
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
Riverside (Enregistrement de podcast)
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
📚 Achetez le livre de Gilles Moyse
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
👉 Laissez-moi un feedback anonyme
———
MES RECOMMANDATIONS
Riverside (Enregistrement de podcast)
———
TIME CODE
0:00 Introduction
0:55 L’importance de la souveraineté numérique
15:20 L’IA souveraine est-elle un mirage ?
18:13 Est-il possible d’être 100 % autonome ?
23:44 Pourquoi l’Europe est-elle en retard ?
33:42 Pourquoi les entreprises utilisent des services américains ?
40:32 Comment augmenter notre souveraineté numérique ?
49:30 Que faire face à la fragmentation de l’Europe ?
54:49 Pourquoi faut-il développer un modèle européen ?
1:01:09 Que penser des investissements étrangers ?
1:02:34 Que penser de Mistral AI ?
1:08:40 Pourquoi les IA sont des boîtes noires ?
1:20:27 Que penser des comportements émergents de l’IA ?
1:24:08 Est-ce que les politiques comprennent ces enjeux ?
1:28:17 Qu’est-ce que reciTAL ?
1:30:07 Quelle est la place de la pub dans l’IA moderne ?
1:32:56 Un message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.