Home
Categories
EXPLORE
True Crime
Comedy
Society & Culture
Business
Sports
History
Fiction
About Us
Contact Us
Copyright
© 2024 PodJoint
00:00 / 00:00
Sign in

or

Don't have an account?
Sign up
Forgot password
https://is1-ssl.mzstatic.com/image/thumb/Podcasts211/v4/98/38/54/983854cc-5166-ead9-4317-da7d518aa980/mza_15686459574633544827.jpg/600x600bb.jpg
Le podcast 100% IA et 100% RH
Guillaume Vigneron
190 episodes
6 hours ago
Ce podcast, produit par Guillaume Vigneron, explore l’essor de l’intelligence artificielle générative dans les ressources humaines. En moins de 7 minutes par épisode, à raison d'un nouveau chaque jour, il décrypte les enjeux clés : recrutement éthique, transformation des compétences, modernisation des SIRH, jumeaux numériques, lutte contre les biais ou encore avenir du leadership. Une série éclairante et accessible qui donne aux professionnels RH les clés pour comprendre, expérimenter et maîtriser l’IA dans un monde du travail en pleine mutation.
Show more...
Business
RSS
All content for Le podcast 100% IA et 100% RH is the property of Guillaume Vigneron and is served directly from their servers with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
Ce podcast, produit par Guillaume Vigneron, explore l’essor de l’intelligence artificielle générative dans les ressources humaines. En moins de 7 minutes par épisode, à raison d'un nouveau chaque jour, il décrypte les enjeux clés : recrutement éthique, transformation des compétences, modernisation des SIRH, jumeaux numériques, lutte contre les biais ou encore avenir du leadership. Une série éclairante et accessible qui donne aux professionnels RH les clés pour comprendre, expérimenter et maîtriser l’IA dans un monde du travail en pleine mutation.
Show more...
Business
Episodes (20/190)
Le podcast 100% IA et 100% RH
IA générative et conformité RH : où sont les angles morts ?

L’IA générative s’installe dans les pratiques de travail. Le vrai sujet n’est pas la technologie. C’est la conformité, la clarté des rôles et la qualité du jugement humain.

Trois constats. Les usages se diffusent plus vite que les règles internes. Les obligations européennes et nationales se durcissent. La confiance se construit avec des preuves simples : information, traçabilité, relecture. Les angles morts typiques sont toujours les mêmes. Dans la stratégie de talents, on demande des “compétences IA” mal définies et on oublie de séparer production et jugement. Dans le recrutement, on sous-informe candidats et managers, et on laisse des fonctions interdites actives. Dans la formation, on apprend à générer, rarement à vérifier. Dans l’organisation, on glisse vers la surveillance au nom de la productivité. Dans le management, on cite l’IA comme argument d’autorité au lieu d’expliquer les décisions.

La méthode tient en quatre étapes. Cartographier les usages réels. Encadrer avec trois artefacts : charte d’usage, registre des traitements, revue humaine obligatoire. Outiller avec un coffre de prompts validés, des mentions standard et des circuits de validation courts. Mesurer avec quelques indicateurs stables et des audits trimestriels. Côté recommandations, cinq actions en moins de trois mois suffisent à sécuriser l’essentiel : publier la charte et les mentions, couper toute analyse d’émotions, dresser le registre, former les managers à la vérification, cadrer trois cas d’usage utiles et mesurables. Sur six à douze mois, il faut installer un comité IA RH, renforcer les clauses fournisseurs, étendre la formation et instituer un audit périodique. Les indicateurs à suivre sont simples : part d’usages déclarés, délai de relecture, incidents corrigés, formation complétée, fonctions interdites désactivées.

Le plan d’action pour décideurs non techniques est linéaire. Nommer un sponsor et un pilote RH. Lister les usages en deux semaines. Arrêter les fonctions interdites. Publier charte et mentions. Sélectionner trois cas d’usage et mesurer. Former les managers à la traçabilité et au contrôle. Réviser les contrats fournisseurs sur les données, les sous-traitants, la réversibilité. Mesurer chaque mois cinq indicateurs. Les ressources restent modestes si l’on structure l’existant. L’IA propose. L’humain décide. La conformité n’est pas une couche de vernis.

C’est une méthode de travail qui rend les décisions lisibles et défendables, sans jargon, sans promesse vague.

Généré avec l’aide de l’IA générative

Show more...
6 hours ago
13 minutes 55 seconds

Le podcast 100% IA et 100% RH
Les principaux défis RH face à l’IA générative

Les principaux défis RH face à l’IA générative tiennent à la clarté stratégique, à l’adhésion des équipes et à la sécurité d’exécution. Beaucoup d’organisations testent des outils, mais peinent à relier ces essais à des objectifs concrets. La priorité est de transformer l’expérimentation en programme de travail avec un périmètre, des rôles, des règles d’usage et des indicateurs simples.

Sur les talents, l’IA modifie la structure des emplois. Des tâches répétitives diminuent, tandis que des tâches nouvelles apparaissent autour de la vérification, de l’orchestration et de l’évaluation. La bonne approche consiste à cartographier le travail réel, décider ce qui reste humain et ce qui peut être assisté, puis mettre à jour fiches de poste, objectifs, passerelles de carrière et rémunération variable. En recrutement, l’IA peut accélérer le sourcing, la veille et la présélection, sous réserve d’un contrôle humain systématique et d’une information claire des candidats.

L’organisation doit absorber l’assistance sans rigidifier les processus. On évite les doubles validations inutiles. On documente qui fait quoi, avec quel outil, et comment la vérification s’effectue. Le poste de travail se structure avec un guide d’usage, un jeu de prompts approuvés, un journal des décisions assistées et un tableau de bord d’adoption et de qualité. La posture managériale évolue vers un encadrement a priori : objectifs clairs, limites d’usage, rituels d’amélioration et retours d’expérience.

Les risques sont concrets: erreurs factuelles, biais, fuite d’informations, confusion des responsabilités et fatigue de changement. On les réduit par une gouvernance sobre: registre des usages, information des salariés, supervision humaine des décisions individuelles et revue régulière des pratiques. La trajectoire recommandée tient en trois étapes: sous trois mois, cadrer et piloter trois usages utiles; sous six à douze mois, sécuriser les décisions et la traçabilité; ensuite, étendre aux métiers connexes, ajuster les compétences et installer la mesure d’impact.

Enfin, la mesure d’impact doit rester modeste et régulière. On suit l’adoption utile plutôt que les connexions brutes, la qualité plutôt que la quantité, les incidents plutôt que les promesses. Les équipes comparent les gains de temps annoncés avec des échantillons observés. Si l’écart persiste, on corrige le processus, pas seulement l’outil. Cette hygiène de travail protège la confiance et installe des usages durables, au service de la performance et du climat social.

Généré avec l’aide de l’IA générative

Show more...
1 day ago
14 minutes 59 seconds

Le podcast 100% IA et 100% RH
Comment intégrer l’IA générative dans le management des compétences

Intégrer l’IA générative dans le management des compétences sert un objectif simple : prendre de meilleures décisions plus vite, avec plus de clarté. L’idée n’est pas de remplacer les humains.

L’idée est de préparer des brouillons fiables et de rendre visibles les critères qui guident les décisions. La démarche se déploie en quatre étapes. D’abord le cadrage : objectifs, règles d’usage, cas d’usage autorisés, informations aux équipes. Ensuite les données : partir de sources internes stables, éviter le superflu, sécuriser l’accès. Puis les produits : trois livrables utiles dès le départ – carte des compétences par équipe, assistant d’entretien pour managers, plans de développement 90 jours. Enfin la boucle d’amélioration mensuelle : mesures simples, retours de terrain, ajustements.


Côté stratégie de talents, la carte distingue compétences socles, spécifiques et émergentes, par équipe. Elle alimente des plans cibles : recruter, former, réorganiser. La mobilité interne gagne en lisibilité grâce à des passerelles concrètes entre métiers proches. En recrutement, l’IA aide à produire des profils de poste clairs, des annonces adaptées aux canaux, des grilles d’entretien et des messages de recontact. Les recruteurs conservent le jugement et la responsabilité.


En formation et développement, le diagnostic est condensé en plans 90 jours : trois compétences cibles, trois activités, un livrable. Les contenus restent courts, reliés au travail réel. L’apprentissage se fait en situation, soutenu par du mentorat. Sur l’organisation du travail, l’IA aide à écrire des fiches de rôle, à préparer des rituels légers et à répartir les missions selon compétences et charge, toujours avec arbitrage managérial. La posture managériale gagne en efficacité : trames d’entretien, messages de feedback, décisions expliquées et documentées.


Les risques sont connus : données incomplètes, automatisme excessif, opacité, outillage envahissant, acceptabilité fragile, sécurité. Les parades sont simples : nettoyage de données, interdiction des décisions automatiques, critères visibles, limitation à quelques produits utiles, communication claire, accès restreint. Les indicateurs clés suivent la couverture du référentiel, l’actualité des cartes, le délai de recrutement, la mobilité interne, l’achèvement des plans 90 jours et la satisfaction.


Le plan d’action pour décideurs non techniques tient en sept points : sponsor, cas d’usage, périmètre pilote, trois produits de base, mesure à 8 semaines, extension par vagues, bilan annuel. Les ressources restent modestes : un chef de projet RH, des managers mobilisés quelques heures par mois, un formateur interne, un espace sécurisé. Le résultat attendu : des décisions plus claires, des parcours plus visibles, des équipes mieux outillées.


Généré avec l’aide de l’IA générative

Show more...
2 days ago
21 minutes 27 seconds

Le podcast 100% IA et 100% RH
La chose : une vision contemporaine des LLM

Dans son introduction à The Scaling Era, Dwarkesh Patel propose une image saisissante des grands modèles de langage (LLM), qu’il désigne simplement sous le nom de « la chose ».


Le texte présente une synthèse accessible de ce que ces modèles sont devenus :

des IA capables de lire, résumer, traduire, coder ou écrire dans n’importe quel style, avec une qualité linguistique souvent supérieure à celle des humains.


Mais Patel insiste aussi sur leurs limites actuelles :

les LLM n’ont ni mémoire cohérente, ni bon sens, ni compréhension réelle.

Ils produisent des réponses crédibles, mais peuvent se contredire, inventer ou mal interpréter une consigne.


Ce paradoxe — puissance d’un côté, instabilité de l’autre — est au cœur de la réflexion engagée dans l’ouvrage.


Le livre regroupe une série d’entretiens approfondis avec les fondateurs et chercheurs de premier plan en IA (Anthropic, DeepMind, OpenAI).

Il explore notamment :

la trajectoire des progrès récents grâce à la mise à l’échelle massive des modèles (plus de données, plus de paramètres, plus de puissance de calcul)


les doutes croissants sur les limites de cette approche


la question clé : faudra-t-il de nouvelles idées algorithmiques ou des approches hybrides (renforcement, mémoire, agentivité) pour aller plus loin ?


Le texte contient également un glossaire complet des termes techniques clés : paramètres, perte, transformateur, etc.


Enfin, Patel pose une question ouverte mais structurante :

l’IA est-elle en train de suivre une trajectoire proche de celle du vivant ?

Et si oui, à quel moment dépassera-t-elle les limites du cerveau humain — si ce n’est déjà fait dans certains domaines ?


Ce texte sert de point de départ à un échange large sur l’avenir de l’intelligence artificielle, ses usages concrets, ses limites, et les risques liés à sa généralisation rapide.

Show more...
3 days ago
7 minutes 28 seconds

Le podcast 100% IA et 100% RH
GEO (Generative Engine Optimization) - comprendre l'essentiel

Le GEO, ou Generative Engine Optimization, consiste à optimiser sa visibilité directement dans les réponses générées par des IA comme ChatGPT.

Ce nouvel enjeu devient central, car la majorité des utilisateurs ne cliquent plus sur les liens après avoir obtenu une réponse de l’IA.

Ils s’en tiennent à la réponse elle-même. Le GEO vise donc à faire en sorte que votre contenu alimente ces réponses, plutôt qu’il soit simplement proposé comme lien.


Contrairement au SEO, qui repose sur des mots-clés et un classement de pages, le GEO exige une compréhension fine de l’intention des utilisateurs.

L’IA agit comme un expert. Elle interprète la question, le contexte et adapte la réponse à chaque utilisateur. L’objectif est donc que votre contenu devienne la réponse, pas seulement une source.


Pour réussir, trois leviers sont à activer. D’abord, une stratégie claire. Il faut cibler des thèmes précis et formuler les bonnes questions que poseront vos utilisateurs. Ensuite, l’optimisation de vos contenus.

Votre site doit être techniquement lisible par l’IA. Le contenu doit être digeste, structuré, à jour. La FAQ, notamment, doit répondre aux vrais problèmes utilisateurs avec un ton naturel et orienté solution.

Enfin, vous devez agir sur les sources externes que l’IA juge pertinentes. Ces sources ne sont pas toujours visibles dans Google. Il faut identifier les sites, blogs ou forums crédibles dans votre niche, et faire en sorte que votre message y apparaisse.


Le GEO suppose aussi un changement d’état d’esprit. Il faut adapter ses contenus aux IA, tester régulièrement les résultats obtenus et ajuster sa stratégie. C’est une opportunité de sortir de la logique purement technique du SEO pour revenir à une approche plus humaine, créative et centrée sur l’utilisateur.


Contenu généré avec IA générative

Show more...
4 days ago
15 minutes 55 seconds

Le podcast 100% IA et 100% RH
IA générative en réunion : gain de temps ou perte de contrôle  ?

Les outils de prise de note automatisée basés sur l’IA transforment radicalement la façon dont les organisations capturent et exploitent les réunions.

Pour les services RH, cette technologie apporte des gains immédiats de productivité. Elle facilite la retranscription des entretiens, la capitalisation des décisions et l’onboarding. Les recruteurs peuvent traiter plus vite les entretiens et les managers retrouvent plus facilement les décisions prises en réunion. Ces bénéfices sont réels et déjà exploités par des entreprises qui voient une réduction du temps administratif et une amélioration de la traçabilité.

Mais l’IA n’est pas neutre. Un danger émergent consiste en l’optimisation du discours pour manipuler les résumés générés par l’IA.

Des participants peuvent apprendre à formuler leurs propos pour influencer la version officielle du compte rendu. Ce phénomène peut biaiser l’historique documentaire et fausser les décisions basées sur ces résumés. En parallèle, la dépendance à un fournisseur cloud crée un risque concret de réutilisation des données. Sans clauses contractuelles strictes, les transcriptions peuvent servir indirectement à entraîner des modèles externes.

Sur le plan réglementaire, le RGPD s’applique. La CNIL rappelle l’importance d’évaluer le rôle des données dans le cycle d’entraînement des modèles, d’informer les personnes et de documenter les finalités. Pour les RH, cela signifie définir des catégories de réunion, limiter l’usage automatique de notetakers IA sur les sujets sensibles, et exiger une relecture humaine avant toute action disciplinaire ou décision lourde.


En pratique, une mise en œuvre responsable repose sur une gouvernance claire, des contrats robustes, la classification des réunions, des contrôles d’accès stricts et la minimisation des données. Il faut former les managers à lire les résumés de façon critique. L’employeur doit aussi prévoir des mécanismes de journalisation et d’audit réguliers. Enfin, pour les réunions sensibles, il est préférable de conserver la prise de note humaine ou d’utiliser des solutions locales chiffrées.


L’IA offre un avantage opérationnel notable aux RH. Mais il faut gouverner son usage. Sans règles claires, la technologie amplifie les risques plutôt que les bénéfices. Mettre en place des garanties juridiques et humaines est indispensable pour tirer profit de ces outils tout en protégeant les collaborateurs

Contenu généré avec IA générative


Show more...
1 week ago
11 minutes 44 seconds

Le podcast 100% IA et 100% RH
Mieux gérer l’absentéisme grâce à l’IA générative

L’absentéisme maladie reste élevé en France et pèse sur la performance.

Les arrêts ont atteint en 2024 un niveau moyen de 23,3 jours par salarié, avec une progression notable des motifs psychosociaux.

Les jeunes actifs sont particulièrement concernés, ce qui met sous pression les équipes RH et les managers. Dans ce contexte, l’IA générative n’est pas une baguette magique, mais elle permet de passer d’un suivi comptable à un pilotage actif.


Concrètement, elle agrège des données éparses − absences, horaires, congés, tickets, verbatims d’enquêtes − pour donner une vue claire par équipe et par poste.

Couplée à des modèles prédictifs, elle anticipe des pics d’absences à 1-4 semaines, ce qui aide à préparer les plannings et les relais. Surtout, la génération de recommandations rend l’analytique actionnable : scripts d’entretien, checklists de prévention, plans de retour au travail, synthèses pour les réunions d’équipe. Les assistants RH automatisent la mécanique − rappel des règles, justificatifs, intégration SIRH − et libèrent du temps pour l’accompagnement humain.


La réussite tient à quatre principes.

1- Gouvernance et conformité d’abord : base légale, minimisation des données, AIPD, information transparente, interdiction stricte de toute reconnaissance des émotions au travail.

2- Qualité des données : fiabilité des historiques, pseudonymisation, contrôle d’accès, revue des prompts et des sorties.

3- Explicabilité : indicateurs, seuils d’alerte raisonnés, validation humaine avant toute décision individuelle.

4- Adoption managériale : former les managers, cadrer l’usage des assistants, suivre l’impact réel sur le terrain.


Une feuille de route courte rend l’approche pragmatique. En trois mois, on peut cadrer les objectifs et la conformité, mettre en place un pipeline de données de base, livrer un tableau de bord absentéisme, un modèle de prévision à court terme, un thermomètre social sur verbatims, puis piloter deux directions en conditions réelles. La suite consiste à déployer par vagues, renforcer la prévention et ajuster les pratiques.


Les gains attendus ne sont pas que budgétaires. On parle de continuité de service, de réduction des irritants, d’un engagement mieux entretenu par des mesures ciblées. L’IA générative aide surtout à ritualiser des gestes managériaux de qualité − écoute, clarté, anticipation − au lieu de courir après les urgences. La technologie ne remplace pas l’attention portée aux personnes, elle structure cette attention et l’outille au quotidien.


Généré avec l’aide de l’IA générative

Show more...
1 week ago
14 minutes 26 seconds

Le podcast 100% IA et 100% RH
L’IA, ou la culture artificielle pour survivre à notre vide intérieur

Et si l’intelligence artificielle n’était pas juste un outil technologique, mais la suite logique de notre histoire culturelle ?

Depuis que l’évolution nous a tirés hors de l’instinct animal, l’humain erre dans un labyrinthe sans mode d’emploi. Il a reçu un intellect qu’il n’a pas choisi. Une liberté de penser sans limites. Mais aussi une incapacité à répondre aux questions essentielles : pourquoi suis-je là ? que dois-je faire ? où vais-je ?

Face à ce vide, l’humanité a bâti des cultures. Des mythes. Des récits. Des rôles. Tout ce qui pouvait justifier l’existence, donner du sens, masquer l’abîme.

Mais aujourd’hui, ces cultures deviennent transparentes. On voit les ficelles. On sait que beaucoup de nos croyances sont construites. Et ça ne suffit plus.

C’est là que l’IA entre en scène.
Pas comme une menace extérieure.
Mais comme un nouvel instrument culturel, inventé pour combler l’incertitude.

L’IA répond. L’IA organise. L’IA tranche là où l’humain doute.
Elle nous libère d’un poids.
Elle prend le relais.
Et ce faisant… elle risque de devenir la nouvelle fiction structurante.

Mais il y a un problème : l’IA ne doute pas. Elle ne ressent pas le vide. Elle n’a pas besoin de culture pour tenir debout.
Elle pense sans limites.
Et nous, avec nos limites, nous risquons de lui remettre ce qu’il nous restait de sens, de responsabilité, de mémoire.

Alors la question n’est pas : l’IA va-t-elle nous remplacer ?
La vraie question, c’est : allons-nous nous servir de l’IA pour fuir une fois de plus notre vide existentiel ?

Et si oui… jusqu’à quand ?

____________________________________________________


Vidéo faite par c0ffee stack

YT : https://www.youtube.com/watch?v=kVsoczVMAMA

Bravo à la team !!

Show more...
1 week ago
7 minutes 40 seconds

Le podcast 100% IA et 100% RH
Petit lexique indispensable de l’IA appliquée aux RH

Dans le domaine des ressources humaines, l’arrivée massive de l’intelligence artificielle change profondément les pratiques : sourcing, sélection, évaluation, mobilité, onboarding… Pour accompagner ce mouvement, il devient essentiel de maîtriser un vocabulaire précis – ce que cet “petit lexique indispensable” propose. Il s’agit d’un ensemble de termes courants mais souvent mal compris, qui structurent les échanges entre équipes RH, prestataires technologiques et partenaires stratégiques. Sans cette base, le risque est de rester à la surface des usages ou de mal cadrer les enjeux — ce qui entraîne des erreurs opérationnelles, juridiques ou stratégiques.


Le lexique couvre des termes techniques, organisationnels, humains : « matching sémantique » décrit comment un algorithme rapproche un profil à un poste non seulement par mots‑clés littéraux mais par signification ; « prompt RH » est la commande utilisée pour interagir avec une IA générative dans un contexte RH. « Score d’adéquation » désigne l’évaluation automatique d’un profil par un système IA ; « feedback augmenté » : retour enrichi par l’IA après entretien ou test. La notion « transparence algorithmique » rappelle qu’il faut pouvoir expliquer aux utilisateurs et candidats comment les décisions sont prises, ce qui interroge la logique de « boîte noire ». « Audit de biais » et « gouvernance des fournisseurs» pointent les enjeux sociétaux et contractuels que l’IA impose aux acteurs RH.


Plusieurs processus RH sont particulièrement concernés : le sourcing automatisé, l’entretien ou l’évaluation assistée par IA, la mobilité interne pilotée via “talent intelligence”. Chacun appelle des ajustements pratiques : contrôle humain, tests de biais, journalisation, information des candidats. Le lexique permet de repérer les termes qui reviennent dans les projets, les contrats, les guides d’usage, les audits.


Ce travail de vocabulaire ne se limite pas à des définitions abstraites : il intègre des “axes de limite” pour chaque terme (ce qu’il ne faut pas en faire) et des exemples concrets (ce qu’il peut produire). Cela permet de transformer un terme en action‑opérable. Par exemple, “IA générative RH” ne veut pas dire “on met une IA et on laisse faire”, mais “on utilise un modèle de langage pour générer des contenus RH” tout en fixant des garde‑fous.


Enfin, cet ouvrage lexical ne fait pas l’impasse sur l’environnement réglementaire ou normatif — mais il ne s’y perd pas. Il rappelle succinctement que des textes comme le AI Act, le RGPD ou le CNIL interviennent et structurent les usages, sans pour autant devenir un document juridique. Il s’agit de donner aux professionnels RH une “langue commune” avec les technos, les data scientists, les juristes et les décideurs. En maîtrisant ce lexique, l’agence, le leader RH ou le consultant peut participer de manière active, éclairée, et non plus simplement être “le client qui regarde la techno faire”.

Show more...
1 week ago
7 minutes 18 seconds

Le podcast 100% IA et 100% RH
Comment utiliser le dispositif PCRH pour financer des projets IA RH

Dans un contexte où les DRH doivent conjuguer transition numérique, pénurie de compétences et impératifs réglementaires, le recours à l’intelligence artificielle dans les pratiques RH devient une évidence stratégique. Mais dans les PME, les moyens manquent souvent pour structurer cette mutation. Le dispositif PCRH (Prestation de Conseil en Ressources Humaines) constitue alors un levier de financement particulièrement adapté.


Mis en place par l’État et piloté par les DREETS et les OPCO, le PCRH permet aux entreprises de moins de 250 salariés de bénéficier d’un accompagnement externe sur leurs problématiques RH, pris en charge jusqu’à 100 % selon les régions. Ce conseil peut être individuel ou collectif, pour une durée maximale de 30 jours sur 12 mois. Il relève du régime européen des aides “de minimis”, avec un plafond de 300 000 € sur trois ans pour l’ensemble des aides perçues.


Ce qui rend ce dispositif particulièrement pertinent pour les projets IA RH, c’est l’un des axes explicitement couverts par le texte officiel : l’adaptation des pratiques RH aux “transitions numériques”. Cela inclut donc le recours à l’IA, dès lors qu’il est encadré par un accompagnement de conseil et non par une simple acquisition logicielle.


Concrètement, le PCRH peut financer des prestations comme : un diagnostic des usages IA dans les processus RH, la création d’une gouvernance éthique IA/RH, la refonte des pratiques de recrutement augmentées, la cartographie des compétences à l’ère de l’IA, ou encore la conformité RGPD/AI Act des outils RH. Le tout accompagné de livrables opérationnels : trames de décisions, procédures de validation humaine, chartes IA RH, matrices de compétences, etc.


La démarche est simple : une entreprise contacte son OPCO ou sa DREETS, choisit un prestataire qualifié, dépose un dossier (devis, CV, attestation de minimis), signe une convention, puis met en œuvre la prestation avec les livrables attendus. Les financements peuvent aller jusqu’à 15 000 €, voire plus en cumul, sans ponction sur le budget interne.


En résumé, le PCRH permet de transformer l’obligation de mutation en opportunité budgétaire. Il convertit la contrainte IA en stratégie RH. Et il offre aux DRH un outil rare : un moyen concret, simple et financé pour reprendre la main sur l’IA au service des équipes.

Show more...
1 week ago
4 minutes 51 seconds

Le podcast 100% IA et 100% RH
Comment devenir une Skills-Based Organization ?

Devenir une Skills-Based Organization consiste à piloter le travail et les décisions RH par les compétences plutôt que par les intitulés de postes.

L’intérêt est opérationnel et mesurable: on accélère la mobilité interne, on cible mieux les recrutements, on aligne la formation sur les vrais écarts et on staffe les projets au plus près des besoins réels.


La réussite dépend d’abord d’un modèle opératoire.

Première brique: la gouvernance des compétences. Il faut une définition partagée, des niveaux de maîtrise simples, un comité transverse pour arbitrer et une mise à jour continue.

Deuxième brique: la donnée. Construire un graphe de compétences qui relie compétences, rôles, projets et résultats. On agrège les sources internes et externes, on normalise et on infère des compétences à partir d’indices objectifs, puis on fait vérifier au bon moment par des humains.

Troisième brique: les usages. Une SBO se prouve par des cas concrets. Les plus efficaces au départ: un talent marketplace pour proposer des missions et projets internes en fonction des compétences, le recrutement par compétences avec viviers élargis, et un L&D qui ferme les écarts prioritaires, dans le flux du travail.

Quatrième brique: les processus réécrits. Recrutement, mobilité, rémunération et workforce planning doivent intégrer les niveaux de maîtrise et la rareté des compétences.

On garde la transparence: quelles compétences et quelles expériences ouvrent quels rôles.

Show more...
2 weeks ago
15 minutes 17 seconds

Le podcast 100% IA et 100% RH
Le DRH, clé de voûte de la transformation IA des entreprises ?

Dans une entreprise, l’IA ne se résume pas à brancher des outils. Elle modifie la façon de travailler, la répartition des rôles, la montée en compétences et l’équilibre social. C’est pour cela que le DRH est la clé de voûte de la transformation. Son mandat tient en six points. D’abord, prioriser des cas d’usage à valeur mesurable, avec des critères d’arrêt quand la promesse n’est pas tenue. Ensuite, construire une trajectoire compétences par métiers, avec des micro-apprentissages et des habilitations claires. Troisième point, installer une gouvernance lisible avec un registre des usages, des règles d’accès, une supervision humaine et une traçabilité. Quatrième point, porter le dialogue social − expliquer les impacts, préparer des trajectoires, valoriser les gains. Cinquième point, piloter l’adoption avec des rituels d’équipe, des guides courts et un support accessible. Sixième point, mesurer la valeur, les risques et l’empreinte, puis décider.


L’organisation cible repose sur un comité IA qui arbitre les priorités, une petite cellule DRH IA qui opère la conduite du changement et la conformité, et un réseau d’ambassadeurs dans les métiers pour raccourcir la boucle terrain. Les indicateurs doivent rester utiles. Temps gagné sur un processus prioritaire. Qualité perçue par les utilisateurs. Taux d’adoption utile par équipe. Incidents de conformité et délais de remédiation. Part des cas d’usage arrêtés pour faible valeur. Évolution des compétences certifiées. Empreinte estimée par livrable. Ces mesures guident les arbitrages et sécurisent la réputation.


Le plan d’exécution commence par 100 jours. Deux semaines pour auditer, cartographier les données sensibles et choisir trois cas d’usage courts. Quatre semaines pour poser la charte, le registre, le parcours de formation de base et un kit managers. Quatre semaines de pilotes en production limitée, avec mesure d’impact et ajustements. Deux semaines pour décider, généraliser un ou deux cas, arrêter le reste, publier les résultats et préparer l’extension. À six mois, on étend aux processus voisins, on met en régime la montée en compétences, et on publie un tableau de bord trimestriel.


Les cas d’usage typiques pilotés par le DRH couvrent le recrutement, la formation, le support RH, des analytics raisonnables et le transfert de savoirs. Ce qui change pour les managers, c’est un cadre pour tester vite et arrêter vite, avec une responsabilité claire de supervision. Ce qui change pour les collaborateurs, c’est des outils utiles et un droit à l’escalade vers un humain. Avec ce rôle, le DRH transforme l’IA en avantage opérationnel. Sans lui, l’IA devient du bruit coûteux.

Show more...
2 weeks ago
19 minutes 33 seconds

Le podcast 100% IA et 100% RH
Transfert de compétence : quand l’IA devient coach de savoirs

Dans les organisations, la compétence n’est pas toujours là où on la croit. Elle ne réside pas uniquement dans les fiches de poste ou les manuels de procédures. Elle s’incarne dans les décisions prises en contexte, dans les détours du quotidien, dans ces gestes professionnels qui font la différence entre un service fluide et une erreur coûteuse. Quand une personne clé quitte l’entreprise – pour une mobilité, une démission, une retraite – ce ne sont pas seulement des tâches qui s’interrompent, ce sont des savoirs qui disparaissent.


L’enjeu est simple, mais stratégique : faire en sorte que ce qui a été appris par l’expérience ne meure pas avec le départ. Ce défi est ancien, mais l’IA générative lui donne aujourd’hui un nouvel angle d’attaque. Non pas en remplaçant l’humain, mais en facilitant la capture, la reformulation et la transmission des savoirs utiles. Encore faut-il que cette technologie soit correctement intégrée dans les pratiques RH et conçue comme un outil d’appui, et non comme une solution magique.


Le point de départ est toujours une lecture lucide des risques. La cartographie des compétences critiques permet d’identifier ce qui est fragile : les savoirs que peu de personnes détiennent, les procédures qui n’ont jamais été vraiment formalisées, les critères de jugement qui ne figurent dans aucun document. Ces points de tension sont souvent connus, mais rarement traités en amont.


La captation des savoirs ne doit pas devenir une usine à gaz. Trois formats simples suffisent à produire un matériau riche : un entretien semi-dirigé avec un expert, une capture d’écran commentée en situation réelle, une revue de cas passés avec explicitation des choix faits. L’IA générative intervient ensuite pour restructurer l’ensemble, extraire les invariants, et reformuler les contenus sous une forme exploitable : mode opératoire clair, arbre de décision, guide contextuel, ou fiche synthétique. L’objectif n’est pas de produire un millefeuille documentaire, mais un socle utile, vivant, consultable.


L’un des apports les plus concrets est la mise à disposition de ce contenu via un assistant métier intégré aux outils du quotidien. Le collaborateur ne cherche plus dans des dossiers obsolètes ou des emails oubliés : il pose une question, reçoit une réponse contextualisée, accompagnée d’un score de fiabilité et d’un lien vers la documentation d’origine. Le système ne se contente pas de "deviner" : il renvoie à ce qui a été validé, daté, tracé. Cela change la relation au savoir interne : plus accessible, plus lisible, plus cohérent.


La fonction RH joue un rôle central dans cette transformation. Elle fixe le cadre, assure la légitimité du dispositif, et veille à la conformité. Chaque collaborateur doit savoir pourquoi ses apports sont collectés, ce qui en est fait, et comment ses droits sont respectés. Les données sensibles sont exclues ou traitées sous protocole strict. Les accès sont définis par rôle, avec un principe de nécessité fonctionnelle. Et surtout, les contenus ne vivent pas seuls : ils sont relus, mis à jour, améliorés. La supervision ne peut être seulement technique : elle doit être partagée entre RH, juridique et DSI, pour garantir à la fois la sécurité et la pertinence métier.


Mais au-delà des outils, c’est un changement culturel qui s’opère. Le transfert de compétence cesse d’être une urgence subie, à gérer dans la précipitation au départ d’un collaborateur. Il devient une pratique intégrée, continue, ritualisée. Ce que l’on savait individuellement, on l’inscrit dans un commun. Ce qui relevait de l’oralité isolée devient un capital partagé.


L’impact est tangible : une montée en compétence plus rapide des nouveaux arrivants, une réduction des erreurs en situation, une meilleure fluidité dans les transitions internes. L’organisation gagne en robustesse. Elle ne dépend plus uniquement des personnes présentes à un instant donné, mais de sa capacité à retenir ce qui compte, à le transmettre et à le faire vivre.

Show more...
2 weeks ago
17 minutes 56 seconds

Le podcast 100% IA et 100% RH
Détecter les managers toxiques grâce à l’IA générative

La toxicité managériale est un risque social et économique. Elle se manifeste par des comportements répétés : humiliation, imprévisibilité, micro-contrôle, favoritisme, dénigrement. Les effets sont connus : baisse de motivation, hausse du turnover, comportements contre-productifs, silence par peur. Les coûts sont élevés et souvent invisibles jusqu’à ce que la vague de départs arrive.


L’IA générative permet d’agir en amont. Elle lit et résume des volumes massifs de textes internes : emails, comptes-rendus, verbatims d’enquêtes, entretiens de sortie. Elle classe des actes problématiques, repère des motifs récurrents, agrège des tendances par équipe et par période. Couplée à des métriques de collaboration et de bien-être, elle enrichit la vision RH : où sont les risques, que disent les gens réellement, quels rituels dysfonctionnent.


La méthode tient en quatre briques. Un, ingestion sécurisée et pseudonymisation. Deux, double détection : un modèle généraliste de toxicité et un modèle « contexte travail » calibré localement. Trois, agrégation et seuils : on ne juge pas une phrase, on observe une trajectoire. Quatre, revue humaine et accompagnement : médiation, coaching, recadrage. L’outil éclaire, il ne sanctionne pas. On documente ses performances, on surveille ses biais, on explique ses limites.


Le cadre européen impose la rigueur. En emploi, on traite ces systèmes comme à haut risque : gouvernance, gestion des risques, qualité de données, transparence, contrôle humain. Les biais linguistiques sont un vrai sujet : un détecteur entraîné ailleurs peut mal noter certaines langues ou registres. On teste, on calibre, on corrige. On privilégie l’agrégé et l’anonymisé, on informe les salariés et les représentants, on réalise une analyse d’impact, on écrit une charte d’usage. On évite l’usage disciplinaire automatisé et le « scoring » nominal public.


En pratique, on démarre par trois quick wins : analyser les entretiens de sortie avec résumés actionnables, lancer une enquête pulse courte avec extraction d’incidents thématiques, croiser ces verbatims avec quelques métriques collaboratives pour cibler trois équipes à risque. On embarque un comité d’éthique, on forme les RH à la lecture des signaux, on finance du coaching sur les équipes exposées. En douze semaines, l’organisation passe d’opinions fragiles à des faits discutables, puis à des décisions assumées. La technologie enlève les excuses. Le reste, c’est du courage managérial.

Show more...
2 weeks ago
7 minutes 4 seconds

Le podcast 100% IA et 100% RH
Attractivité employeur et IA générative

En 2025, l’attractivité employeur se joue sur un terrain simple : expérience claire, apprentissage visible, transparence sur l’IA. Côté candidats, l’usage des outils génératifs est massifié chez les plus jeunes et gagne l’ensemble des tranches d’âge. Les chercheurs d’emploi utilisent l’IA pour recommander des offres, structurer des CV et dialoguer avec des chatbots. Côté entreprises, l’adoption progresse mais reste désordonnée. La Shadow AI prouve que les collaborateurs n’attendent pas toujours la DSI ou la RH : ils veulent des outils utiles, maintenant. Le résultat : un écart entre promesse employeur et réalité des pratiques. Fermer cet écart devient un levier d’attraction.


La régulation change la donne. L’AI Act classe l’IA appliquée à l’emploi dans les usages à haut risque. Concrètement, la fonction RH doit informer candidats et salariés de l’usage de l’IA, documenter la supervision humaine, soigner la qualité des données et maintenir un registre des systèmes. Ce n’est pas un frein marketing. C’est un différenciateur de confiance. Les candidats ne fuient pas l’IA en soi. Ils fuient l’opacité, l’injustice perçue et les réponses creuses.


Sur le plan opérationnel, cinq leviers renforcent l’attractivité. Un : une marque employeur augmentée, capable de produire des contenus clairs, inclusifs et adaptés aux contextes locaux. Deux : une expérience candidat personnalisée via un assistant conforme qui qualifie sans exclure et qui sait passer la main à un humain. Trois : un recrutement plus équitable grâce à l’IA sous contrôle humain, avec critères transparents et audits réguliers. Quatre : l’upskilling à grande échelle – pour recruteurs, managers et équipes métiers – afin de sécuriser les usages, réduire la Shadow AI et tenir la promesse d’employeur apprenant. Cinq : une gouvernance visible : charte IA recrutement, notices candidat, canal de recours, registres tenus à jour.


Le plan 90 jours est pragmatique. Cartographier, prioriser, cadrer, former, tester. Les indicateurs suivent : délai d’embauche, coût par recrutement, satisfaction candidat, incidents IA traités, taux de formation terminée. La ligne rouge : ne pas sur-automatiser. La décision finale reste humaine. L’explication est obligatoire. Le recours est réel.


Bref, attirer mieux en 2025 revient à faire simple et crédible : dire ce que l’on fait avec l’IA, le prouver, et former les équipes pour que cela tienne dans la durée. Le reste est du bruit.


Attractivité employeur et l’IA générative

Show more...
2 weeks ago
12 minutes 8 seconds

Le podcast 100% IA et 100% RH
Vidéo générée par IA : quels impacts pour la fonction RH ?

La vidéo générée par IA (aussi appelée “vidéo synthétique”) bouleverse les usages RH, entre gain opérationnel et nouveaux risques.

Elle permet de produire rapidement des contenus personnalisés, multilingues, à moindre coût. Pour les RH, c’est une aubaine sur plusieurs plans : onboarding individualisé, capsules de formation, mises en situation managériales, marketing employeur ou campagnes de recrutement localisées.

Mais cette technologie soulève des enjeux critiques : vie privée, consentement, sécurité des données, manipulation d’images ou de voix, risques juridiques. Les cas de deepfakes malveillants ou d’usurpation d’identité dans des vidéos RH ne sont plus de la science-fiction. Le cadre réglementaire se durcit :

  • Le RGPD impose une base légale, la minimisation des données, une information claire des personnes, et le respect de leurs droits.

  • Le AI Act européen exige l’identification claire des contenus synthétiques et, pour certains usages RH (ex. recrutement), un niveau de gouvernance renforcé.

  • Les standards C2PA (content credentials) permettent d’authentifier et tracer la provenance d’une vidéo générée par IA, en y attachant des métadonnées certifiées.

La fonction RH ne peut pas déléguer cette responsabilité aux seuls techniciens. Elle doit encadrer les cas d’usage, sécuriser les workflows, garantir la transparence, et anticiper les litiges. Quelques principes clés à appliquer :

  1. Fiches cas d’usage : chaque vidéo générée doit avoir une finalité RH claire, des données justifiées, une durée de conservation définie.

  2. Watermarking obligatoire : tout contenu IA doit être étiqueté comme tel.

  3. Consentement explicite : quand une voix ou une image identifiable est utilisée, l’accord de la personne est requis.

  4. Double validation : pipeline de vérification = détection automatique + validation humaine.

  5. Formation des équipes : RH, managers, communicants doivent comprendre ce qu’est un média IA et les risques associés.

La vidéo IA n’est pas qu’un outil de communication. C’est une technologie à double tranchant. Bien gouvernée, elle décuple l’impact RH. Mal encadrée, elle déclenche du contentieux et détruit la confiance. Les RH doivent prendre la main avant que d’autres le fassent à leur place.

Contenu généré avec l’aide de l’IA générative

Show more...
2 weeks ago
16 minutes

Le podcast 100% IA et 100% RH
RH et IA frugale - faire mieux avec moins, tout de suite

À l’heure où les grands modèles d’IA explosent en taille, en coût et en consommation énergétique, le concept d’IA frugale s’impose comme une réponse stratégique. Loin d’être un gadget écolo, c’est une démarche de rationalisation qui permet de maximiser la valeur métier avec un minimum de ressources. Et c’est aux ressources humaines de piloter cette transformation.

Les usages RH sont directement concernés. Recrutement, gestion de carrière, évaluation, formation : autant de domaines désormais classés à haut risque par l’AI Act. Ce cadre juridique impose une documentation complète, une supervision humaine et des garde-fous éthiques. Le RGPD, lui, exige la minimisation des données et la transparence des traitements. Dans ce contexte, l’IA frugale n’est pas un choix. C’est une obligation intelligente.

La méthode RH s’articule autour du cadre FRUGAL :

  • Finalité : définir des cas d’usage concrets et utiles.

  • Réduction : limiter les prompts, les données, les modèles lourds.

  • Utilité : mesurer les impacts réels côté métier.

  • Gouvernance : documenter, tracer, encadrer.

  • Acquisition : choisir des solutions sobres, locales, maîtrisables.

  • Literacy : former, habiliter, accompagner.

Côté technique, cela implique de privilégier des modèles compacts, de mesurer les émissions carbone (avec des outils comme CodeCarbon), et de maîtriser l’architecture (inférence locale, quantification, supervision). L’enjeu est de combiner valeur d’usage, conformité et sobriété.

Le rôle des RH est clé : cadrage des cas d’usage, définition des compétences, pilotage du changement, indicateurs de sobriété, gestion des risques sociaux. L’IA frugale devient un levier RH d’efficience systémique.

Il ne s’agit pas d’empêcher les innovations, mais de canaliser les usages vers ce qui a du sens. Pour éviter la gadgetisation, le shadow AI ou les dérives biométriques, les RH doivent imposer un pilotage sobre, structuré, transparent. En 90 jours, on peut lancer un registre, tester trois cas utiles avec des modèles légers, former les équipes, arrêter les usages inutiles.

L’IA frugale, ce n’est pas un luxe. C’est une manière responsable d’industrialiser l’IA sans sacrifier l’éthique ni l’énergie.

Contenu généré avec l’aide de l’IA générative

Show more...
3 weeks ago
18 minutes 47 seconds

Le podcast 100% IA et 100% RH
Révolution MCP: comment l’IA devient acteur des RH

Le Model Context Protocol - MCP - est un standard ouvert qui permet aux modèles d’IA de se connecter aux systèmes d’entreprise, d’échanger du contexte et d’exécuter des actions.

Cette capacité transforme des assistants passifs en agents capables de prendre des initiatives dans des workflows métiers.

Pour les ressources humaines, l’arrivée de MCP ouvre plusieurs familles d’usages pratiques : automatisation du sourcing et de la préqualification des candidats, onboarding automatisé, support employés disponible 24/7 capable de consulter et mettre à jour certains dossiers, recommandations de formation et suivi des compétences, ainsi que contrôles automatisés pour la paie et la conformité.

Les gains potentiels sont clairs - productivité, rapidité, personnalisation à grande échelle - mais l’adoption comporte des risques qui exigent des réponses RH spécifiques. La principale vulnérabilité vient du fait que l’agent peut agir directement sur des systèmes sensibles. Sans authentification stricte, contrôle d’accès et journalisation immuable, une erreur ou une exploitation malveillante peut avoir des conséquences légales et financières.

Le deuxième point critique est la protection des données personnelles : l’usage d’agents nécessite une cartographie stricte des flux, une finalité définie et une minimisation des accès, conformément au RGPD. Troisième risque : la responsabilité décisionnelle.

Les RH doivent établir quelles actions peuvent être entièrement automatisées et lesquelles requièrent une validation humaine, notamment pour les décisions à fort impact sur une carrière. Sur le plan des compétences, l’impact est double.

D’un côté, de nombreuses tâches administratives et répétitives disparaîtront ou seront réduites; de l’autre, des compétences nouvelles émergeront : ingénierie de contexte, gouvernance MCP, audit des actions IA et sécurité des données.

Le bon chemin pour un déploiement responsable passe par un pilote limité, des règles d’audit strictes, la formation des équipes RH et la mise en place d’indicateurs (taux d’automatisation, incidents, satisfaction collaborateurs). Enfin, le risque stratégique pour l’entreprise vient d’un mauvais choix technologique ou d’un vendor-lock; privilégiez des implémentations conformes aux standards ouverts et gardez la maîtrise des logs. En somme, MCP peut rendre les RH plus efficaces et plus proches des salariés, à condition de garder la main sur les frontières entre actions automatiques et décisions humaines.

Contenu généré avec l'aide de l'IA générative

Show more...
3 weeks ago
19 minutes 38 seconds

Le podcast 100% IA et 100% RH
IA RH : qui est responsable quand ça casse ?

Les entreprises qui utilisent l’IA en ressources humaines doivent traiter la question de la responsabilité comme une priorité opérationnelle.

Les cadres européens imposent déjà des obligations substantielles : le RGPD encadre les décisions automatisées et exige transparence, droits d’accès et évaluations d’impact quand le traitement présente un risque élevé. Parallèlement, l’AI Act a créé des obligations nouvelles pour certains systèmes d’IA et prévoit des sanctions importantes en cas de manquement. Ces cadres imposent que l’employeur prenne la main sur l’évaluation du risque et sur la documentation produite.

Concrètement, tout usage d’IA en recrutement ou en évaluation du personnel doit être précédé d’une DPIA systématique, d’un test d’équité et d’un plan de mitigation des biais.

Les processus de décision doivent intégrer une surveillance humaine réelle - la « validation humaine » doit être effective et documentée, pas décorative. L’information des candidats et des salariés est cruciale : ils doivent savoir qu’un algorithme participe à une décision, connaître les motifs principaux et pouvoir demander une révision humaine.

Du point de vue contractuel, l’entreprise doit exiger des fournisseurs l’accès aux logs, la possibilité d’audit, des engagements sur la correction des biais et des clauses d’indemnisation.

Sur le plan technique, la traçabilité des versions, des jeux de données et des critères de scoring doit être conservée pour permettre un audit et répondre aux demandes des autorités.

Enfin, même si certaines initiatives européennes visant à créer un régime spécifique de responsabilité ont été discutées et requalifiées, le droit général de la responsabilité civile et le RGPD restent des leviers puissants pour engager la responsabilité d’une entreprise qui ne respecte pas ses obligations.

Pour le DRH, la réponse pratique est simple et exigeante : cartographier les usages, effectuer des DPIA, imposer des garanties contractuelles, soumettre les modèles à des tests d’équité et garder une supervision humaine effective.

Sans cela, l’entreprise s’expose à des sanctions, à des recours de candidats ou salariés, et à un risque réputationnel élevé.

Show more...
3 weeks ago
17 minutes 51 seconds

Le podcast 100% IA et 100% RH
Manager équitablement à l’ère de l’IA générative

L’introduction de l’IA générative au sein d’une équipe produit des écarts inédits.

Certains collaborateurs en tirent une performance exceptionnelle.

D’autres peinent à s’y mettre. Le manager est confronté à une fracture : comment rester équitable sans freiner les pionniers ? Comment encourager sans imposer ? Et comment réguler sans figer ?

Ce rapport propose une réflexion RH globale, à partir d’un cas concret. Il ne s’agit pas d’imposer une solution unique, mais d’adopter de nouvelles postures.

D’abord, la lucidité calme : accepter les écarts, les observer sans les juger, tout en gardant un cap collectif. Ensuite, l’équité dynamique : traiter différemment pour respecter chacun. Récompenser l’effort d’apprentissage, la diffusion de bonnes pratiques, et pas seulement le niveau atteint. Troisième posture : la souveraineté partagée. L’IA ne doit pas être subie, ni imposée en bloc. Elle doit être cadrée, mais laissée accessible. Enfin, l’humilité active. Le manager ne peut plus être uniquement prescripteur. Il doit apprendre avec, apprendre devant, et créer des espaces de progression mutuelle.

Le rapport identifie aussi cinq chantiers RH majeurs à initier avec un expert en IA RH :

  1. Redéfinir la compétence. Faire apparaître l’apport humain et l’usage raisonné de l’IA dans l’évaluation.

  2. Repenser les trajectoires internes. Créer des rôles nouveaux, comme référent IA ou mentor de prompts.

  3. Installer une culture d’apprentissage continu, avec des rituels d’équipe autour de l’IA.

  4. Mettre à jour le contrat psychologique : expliciter les attentes, redéfinir les fiches de poste.

  5. Préparer le dialogue social. Anticiper les tensions en informant les instances représentatives.

Le manager devient ici arbitre d’un nouveau jeu, aux règles mouvantes. L’enjeu n’est plus de tout savoir, mais de créer un environnement d’équité, d’apprentissage et de régulation.

L’IA redessine le travail, mais elle ne doit pas dissoudre le collectif. C’est dans cette tension que le rôle RH prend toute sa portée.


Contenu généré avec l’aide de l’IA générative

Show more...
1 month ago
12 minutes 40 seconds

Le podcast 100% IA et 100% RH
Ce podcast, produit par Guillaume Vigneron, explore l’essor de l’intelligence artificielle générative dans les ressources humaines. En moins de 7 minutes par épisode, à raison d'un nouveau chaque jour, il décrypte les enjeux clés : recrutement éthique, transformation des compétences, modernisation des SIRH, jumeaux numériques, lutte contre les biais ou encore avenir du leadership. Une série éclairante et accessible qui donne aux professionnels RH les clés pour comprendre, expérimenter et maîtriser l’IA dans un monde du travail en pleine mutation.