Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si le Bas-Rhin devenait le nouvel eldorado du lithium en France ? Entre Obernai et Erstein, trente-quatre communes sont concernées par un projet d’exploration ambitieux porté par la société Lithium de France. L’entreprise, installée à Haguenau, espère obtenir deux permis exclusifs de recherche sur un territoire de 175 kilomètres carrés : l’un pour le lithium et ses substances associées, baptisé « permis des Coteaux Minéraux », et l’autre pour la géothermie profonde, sobrement nommé « permis des Coteaux ». Deux ressources différentes, mais complémentaires — car là où la chaleur de la terre circule, les saumures géothermales peuvent aussi contenir du lithium, ce métal devenu stratégique pour la production de batteries.
Les deux dossiers, déposés le 30 avril 2024 auprès du ministère de l’Économie, sont désormais soumis à consultation publique. À partir du 24 novembre, les habitants auront cinq semaines, jusqu’au 29 décembre 2025, pour donner leur avis via une plateforme en ligne. Cette consultation n’a rien d’une formalité : chaque contribution sera compilée dans un rapport transmis au ministre des Mines, aujourd’hui sous la tutelle de Bercy. Ce dernier prendra la décision finale après avis du Conseil général de l’économie. Trois issues sont possibles : accorder un permis, les deux, ou aucun.
Sur le terrain, les enjeux sont multiples. Pour Lithium de France, il s’agit de sonder le sous-sol alsacien pendant cinq ans afin d’en évaluer le potentiel économique et environnemental. Pour les élus locaux et les habitants, la question est tout autre : comment concilier l’exploitation de ressources critiques avec la protection d’un territoire déjà sensible, marqué par les débats sur la géothermie profonde ? Le dossier est actuellement examiné par le Bureau de la politique des ressources minérales non énergétiques, basé à La Défense. Si les autorisations sont accordées, le Bas-Rhin pourrait bien devenir un maillon clé de la souveraineté minérale française — et pourquoi pas, un futur bastion de la batterie “made in France”.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Après la dépendance au gaz russe, l’Europe s’apprête-t-elle à tomber dans un nouveau piège énergétique ? Selon une enquête de Politico, le risque est bien réel — et il vient cette fois… du soleil. Car derrière la promesse d’une énergie propre et indépendante, un maillon stratégique du solaire européen est aujourd’hui largement contrôlé par la Chine. Pas les panneaux eux-mêmes, mais un composant bien plus discret : l’onduleur. Ce petit boîtier, chargé de convertir le courant continu produit par les panneaux en courant alternatif, est indispensable au fonctionnement des installations photovoltaïques. Et presque tous ceux utilisés sur le continent viennent de fabricants chinois — principalement Huawei.
Problème : ces appareils sont connectés à Internet, pour permettre leur maintenance et la mise à jour à distance. Une porte d’entrée potentielle, redoutée par les experts en cybersécurité. Selon Reuters, des dispositifs de communication cachés auraient été découverts dans certains modèles, capables de contourner les pare-feux et de transmettre des données vers la Chine. eux députés européens, le Néerlandais Bart Groothuis et la Slovaque Miriam Lexmann, ont écrit à la Commission européenne pour tirer la sonnette d’alarme : « Nous devons empêcher les fournisseurs à haut risque d’accéder à nos infrastructures critiques », ont-ils averti.
L’enjeu est colossal : 65 % de la puissance solaire installée en Europe dépend de fabricants chinois. Huawei, à lui seul, représente 114 gigawatts de production, quand d’autres industriels chinois dépassent les 5 GW. Des entreprises qui, selon la loi chinoise sur le renseignement, doivent coopérer avec Pékin. En théorie, compromettre à distance seulement 3 GW d’onduleurs suffirait à déstabiliser le réseau électrique européen. Face à cette menace, certains pays réagissent. La Lituanie a interdit les onduleurs chinois pour toute installation dépassant 100 kilowatts, bloquant ainsi l’accès à distance des entreprises étrangères. Et l’European Solar Manufacturing Council plaide pour une stratégie de sécurité coordonnée, sur le modèle de la boîte à outils 5G. Mais la riposte aura un prix : les onduleurs chinois coûtent 30 à 50 % moins cher que leurs équivalents européens.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’été dernier, Tesla et Samsung signaient déjà un méga-contrat de plus de 16 milliards de dollars pour produire, aux États-Unis, les futures puces d’intelligence artificielle de Tesla. Un partenariat massif, visiblement promis à s’étendre. Selon le Korea Economic Daily, les deux groupes viennent de conclure un nouvel accord, cette fois dans le domaine des batteries — mais pas celles que l’on imagine. Tesla ne cherche pas ici à équiper ses voitures électriques : l’accord, d’une valeur de 3 000 milliards de wons, soit environ 1,8 milliard d’euros, porte sur des batteries ESS, ces systèmes de stockage d’énergie stationnaires devenus essentiels dans la transition énergétique.
Ces batteries alimenteront les Megapack de Tesla, ces énormes blocs capables de stabiliser des réseaux entiers en absorbant les surplus d’électricité et en les restituant lors des pics de consommation. Contrairement aux batteries présentes dans un smartphone ou un véhicule électrique, les unités ESS ont pour vocation d’alimenter des quartiers, des bâtiments industriels, voire des villes. Elles sont devenues une brique stratégique, notamment en Amérique du Nord, où la ruée vers l’IA accroît la pression sur les infrastructures électriques. Data centers, réseaux vieillissants et énergies renouvelables intermittentes ont besoin de solutions robustes : les Megapack répondent à cette équation.
Pour Tesla, diversifier ses fournisseurs est devenu indispensable. L’entreprise dépend encore très largement de fabricants chinois, un risque dans un contexte de tensions commerciales et de droits de douane mouvants. En s’associant à Samsung SDI, Tesla sécurise une production locale et renforce sa capacité à répondre à la demande croissante des entreprises d’IA, des opérateurs de réseaux et du secteur énergétique. Selon des informations relayées par Reuters, le contrat couvre trois années, avec une capacité de livraison pouvant atteindre 10 GWh par an.
La collaboration entre Tesla et Samsung s’étend par ailleurs au-delà des batteries. Le groupe sud-coréen fabrique déjà les puces AI5 et AI6 destinées aux futurs projets de Tesla, du robot humanoïde Optimus au service de robotaxi Cybercab. Elon Musk salue régulièrement ce partenariat, qu’il décrit comme « une véritable collaboration », au point d’annoncer qu’il inspectera lui-même la fonderie Samsung de Taylor, au Texas. Sans surprise, l’annonce a fait bondir l’action Samsung SDI de plus de 8 % avant de se stabiliser. Les marchés voient dans ce rapprochement un moteur puissant pour la croissance du groupe coréen — et une nouvelle étape dans la stratégie d’indépendance énergétique de Tesla.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’intelligence artificielle a un appétit énergétique que la planète peine désormais à satisfaire. À mesure que les besoins électriques explosent, les géants du numérique — Google en tête — lorgnent vers un horizon inattendu : l’espace. Leur idée, baptisée Suncatcher, frôle la science-fiction. Installer des serveurs en orbite, là où l’énergie solaire est ininterrompue et où le refroidissement ne coûte rien. Un pari audacieux, presque démesuré, mais qui traduit l’inquiétude très réelle des entreprises face au mur énergétique qui se profile.
Sur le papier, le concept a tout du rêve technologique. Dans l’espace, les panneaux solaires bénéficient d’un ensoleillement continu, sans nuages ni cycle jour-nuit, avec un rendement jusqu’à huit fois supérieur à celui des installations terrestres. Pour Google, ce serait l’équivalent d’un buffet énergétique permanent. Le projet Suncatcher ambitionne ainsi de déployer une constellation de satellites interconnectés, chacun équipé des fameuses puces TPU, ces processeurs conçus pour entraîner les modèles d’IA les plus gourmands. L’ensemble fonctionnerait comme un centre de données décentralisé tournant au-dessus de nos têtes, échappant enfin aux limites du réseau électrique mondial.
Mais la réalité spatiale est autrement plus hostile. Google a beau assurer que ses puces ont survécu à des tests de radiation, rien ne garantit qu’elles résisteront des années aux bombardements cosmiques. Autre défi : la gestion de la chaleur. Sans air pour dissiper l’énergie thermique, l’entreprise devra inventer des systèmes de refroidissement totalement nouveaux. Et ce n’est que le début. Pour que cette flotte intelligente fonctionne comme un seul super-ordinateur, les satellites devront communiquer entre eux via des liaisons laser ultra-rapides, tout en maintenant une précision de vol quasi chirurgicale. Un ballet orbital à très haut risque.
Une première démonstration est prévue en 2027 avec Planet Labs. Un test décisif : soit il valide le concept, soit il renvoie Suncatcher dans les cartons. Google, de son côté, mise sur une baisse radicale des coûts de lancement d’ici 2030 pour rendre son rêve accessible. Mais pendant qu’il communique, d’autres — notamment la Chine — avancent plus discrètement sur leurs propres constellations énergétiques.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Elon Musk remet une pièce dans la machine à rêves technologiques. Le milliardaire, déjà connu pour Tesla et SpaceX, a détaillé son nouveau projet dans plusieurs messages publiés sur X.com. Selon lui, une « vaste constellation de satellites à énergie solaire, dotés d’IA avancées, pourrait prévenir le réchauffement climatique en ajustant la quantité de lumière solaire atteignant la Terre ». Rien que ça.
Plutôt que de freiner la course aux IA ultra-énergivores, Musk imagine donc un scénario digne des grandes sagas de science-fiction. Dans cette vision, des structures gigantesques seraient lancées par la fusée Starship et déployées en orbite, où elles capteraient suffisamment d’énergie solaire pour rivaliser avec « des dizaines de centrales nucléaires ». Le tout optimisé par des systèmes d’intelligence artificielle capables, selon lui, de produire jusqu’à 100 gigawatts par an. Et l’entrepreneur ne s’arrête pas là : il imagine déjà une version encore plus monumentale, construite depuis une base lunaire, capable d’atteindre cette fois les 100 térawatts. Une échelle énergétique qui relève aujourd’hui de la science spéculative.
Musk pousse aussi son idée sur un terrain encore plus sensible : celui de la géo-ingénierie spatiale. Sa constellation pourrait, théoriquement, moduler le rayonnement solaire pour stabiliser la température de la planète. Une idée inspirée des recherches sur la modification du rayonnement solaire, jugée à la fois prometteuse, risquée et hautement controversée. Le milliardaire affirme qu’« un ajustement minime suffirait à éviter un réchauffement ou un refroidissement global ». Aussi surprenant que cela puisse paraître, Musk n’est pas seul sur ce terrain. Google explore déjà un concept voisin, baptisé en interne Suncatcher, qui viserait à envoyer en orbite des serveurs d’IA alimentés directement par le Soleil, loin des contraintes énergétiques terrestres. Dans cette vision futuriste, Musk évoque carrément l’idée que l’humanité puisse atteindre un jour le « type II » sur l’échelle de Kardashev, celle qui classe les civilisations selon leur capacité à exploiter l’énergie cosmique. Une étape théorique où nous serions capables d’utiliser toute la puissance du Soleil — un pas vers ce que certains comparent à une sphère de Dyson.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le futur de la cartographie s’écrit du côté de Mountain View. Google vient d’annoncer une mise à jour majeure de Google Earth, fusionnant son modèle d’intelligence artificielle Gemini avec des décennies de données météorologiques, démographiques et satellitaires. Objectif : permettre à l’IA de comprendre la planète non plus comme une simple carte, mais comme un écosystème vivant, où les phénomènes naturels et humains interagissent.
Le cœur de cette innovation repose sur ce que Google appelle le « geospatial reasoning », ou raisonnement géospatial. Cette nouvelle approche permet à Gemini d’analyser simultanément plusieurs couches d’informations — du relief à la densité de population — pour anticiper les impacts concrets d’un événement climatique. Concrètement, au lieu de simplement tracer la trajectoire d’une tempête, Google Earth peut désormais identifier les zones susceptibles d’être inondées, le nombre d’habitants touchés, et les infrastructures menacées.
L’ONG GiveDirectly utilise déjà cet outil pour repérer les foyers ayant besoin d’une aide financière après une crue. Comme le résume Google dans son communiqué : « Pour résoudre un problème complexe, il faut voir l’image complète. » Désormais, un responsable local peut interroger la carte en langage naturel – « montre-moi les zones où les rivières se sont asséchées » ou « localise les proliférations d’algues » – et obtenir une analyse instantanée, là où il fallait autrefois des jours de calcul.
Google étend cette technologie à son service Cloud, permettant aux gouvernements, ONG et entreprises de la combiner avec leurs propres données. Les premiers tests concernent déjà le suivi de la végétation autour des lignes électriques ou la surveillance de la pollution près des écoles. Selon la firme, son système de prévision des inondations protège déjà plus de deux milliards de personnes à travers le monde, et ses alertes ont touché quinze millions d’habitants lors des incendies de Californie cette année. Avec Gemini, Google entend désormais passer d’une simple vision du monde… à une compréhension proactive des risques climatiques.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une première mondiale qui se joue, discrètement, à une quarantaine de kilomètres au sud-ouest de Paris. Sur un tronçon de l’autoroute A10, une portion de bitume alimente désormais directement les véhicules électriques en roulant. Un projet futuriste ? Pas tant que ça. Baptisé "route électrique dynamique", ce démonstrateur est porté par VINCI Autoroutes, la société israélienne Electreon, l’Université Gustave Eiffel et Hutchinson, avec le soutien de Bpifrance.
Le principe est simple, du moins en apparence : des bobines d’induction sont intégrées sous la chaussée. Par le jeu de l’induction électromagnétique — la même technologie que pour les chargeurs sans fil des smartphones —, elles transfèrent de l’énergie vers des véhicules équipés de récepteurs placés sous leur châssis. La différence, ici, c’est l’échelle. Car sur autoroute, on parle de puissances allant jusqu’à 300 kilowatts : assez pour faire rouler un camion électrique à pleine charge tout en rechargeant sa batterie.
Les premiers essais sont jugés prometteurs. Quatre types de véhicules ont été testés — une voiture, un bus, un utilitaire et un poids lourd — avec des résultats au-delà des attentes. À la clé, un potentiel immense pour l’industrie : batteries plus petites, véhicules plus légers, autonomie prolongée et réduction des temps d’arrêt. Pour le secteur du transport routier, qui représente à lui seul 16 % des émissions françaises, l’impact pourrait être colossal. « Il s’agit d’un moment charnière pour le développement mondial des routes électriques », s’est félicité Oren Ezer, PDG d’Electreon. Selon lui, cette réussite ouvre la voie à un déploiement à grande échelle, d’abord en France, puis en Europe.
Les essais se poursuivront encore plusieurs mois avant une possible phase d’extension. Mais une chose est sûre : le futur de la mobilité pourrait bien passer par des routes qui rechargent en silence.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le vent tourne sur les routes françaises. Porté par les dispositifs d’aide à l’achat et le retour du leasing social, le marché automobile a retrouvé des couleurs en octobre. Selon les derniers chiffres, les immatriculations de voitures neuves ont progressé de 2,9 % par rapport à l’an dernier, avec 139 513 véhicules écoulés. Mais derrière cette hausse modeste se cache une véritable révolution silencieuse : l’explosion des ventes de véhicules électriques.
En un an, les immatriculations de modèles 100 % électriques ont bondi de 63 %, pour atteindre 34 108 unités sur le seul mois d’octobre. Résultat : leur part de marché atteint désormais 24 %, un record historique. Cette envolée s’explique largement par le retour du leasing social, relancé le 30 septembre dernier, qui permet aux ménages les plus modestes de rouler en électrique pour moins de 100 euros par mois.
Et ce dispositif profite avant tout aux constructeurs français. Le groupe Renault tire clairement son épingle du jeu : sa Renault 5 E-Tech Electric est devenue le modèle préféré des bénéficiaires du leasing social, avec 10 000 commandes enregistrées au 30 octobre. Elle s’impose logiquement en tête des ventes du mois avec 4 551 immatriculations, loin devant la Peugeot 208 électrique (2 438) et la Renault Scénic (1 670). Le premier modèle étranger, la Tesla Model Y, arrive juste derrière avec 1 660 unités. Ces chiffres confirment une tendance lourde : la transition vers l’électrique s’accélère enfin en France. Portée par des aides publiques ciblées et une offre nationale compétitive, la voiture branchée sort du statut d’exception pour s’installer durablement dans le quotidien des automobilistes. Un virage que les constructeurs ont bien l’intention de transformer en moteur de croissance.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est officiel : depuis le 14 octobre, Microsoft a tourné la page de Windows 10. Après dix ans de bons et loyaux services, le géant de Redmond met fin au support de son système d’exploitation. Une décision technique en apparence, mais dont les conséquences s’annoncent vertigineuses. Selon les analystes de Canalys, environ 240 millions de PC deviendront obsolètes dans le monde, faute de pouvoir passer à Windows 11.
Le problème ? La nouvelle version du système est beaucoup plus exigeante. Pour migrer, il faut un processeur récent et un module de sécurité TPM 2.0, deux critères que des millions de machines, pourtant parfaitement fonctionnelles, ne remplissent pas. Résultat : un immense gâchis annoncé. Des ordinateurs encore capables de fonctionner pendant des années vont finir à la décharge, alimentant la crise mondiale des déchets électroniques. Pour Cindy Lin, chercheuse à la Georgia Tech, cette stratégie relève d’une « obsolescence logicielle à marche forcée ». Selon elle, « beaucoup d’appareils sont conçus pour vieillir prématurément », un modèle économique qui favorise la surconsommation et accentue la pollution. Et les conséquences environnementales sont lourdes : extraction de métaux rares, transport énergivore, émissions de gaz à effet de serre… Tout cela pour remplacer des machines rendues inutilisables par une simple mise à jour logicielle.
Mais le problème n’est pas seulement écologique : il est aussi cyber. Sans mises à jour de sécurité, Windows 10 deviendra une porte ouverte aux pirates informatiques. Les failles non corrigées se multiplieront, exposant particuliers, PME et institutions publiques aux ransomwares et au vol de données. Face à cette impasse, certains experts, comme Josiah Hester, défendent une alternative : Linux Mint. Un système léger, gratuit et peu gourmand, qui permet de prolonger la vie de ces machines. Mais encore faut-il avoir un minimum d’autonomie numérique pour l’adopter. Microsoft, de son côté, se retranche derrière des arguments de sécurité. Mais difficile d’y voir autre chose qu’une stratégie commerciale, maquillée en modernisation. Une page se tourne, et avec elle, des millions d’ordinateurs encore bons pour le service.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si la prochaine grande avancée de Renault venait… du laboratoire ? Le constructeur français, via sa filiale Ampere, s’associe à la start-up américaine Stratus Materials pour développer une nouvelle génération de batteries baptisée LXMO, pour Lithium X Manganese Oxide. Une technologie prometteuse, qui pourrait bien changer la donne dans la course à la mobilité électrique.
Le cœur de cette innovation repose sur un choix chimique audacieux : remplacer le cobalt par du manganèse. Le cobalt, aujourd’hui omniprésent dans les batteries, reste un métal controversé. 80 % de sa production mondiale provient de République démocratique du Congo, où les conditions d’extraction sont souvent pointées du doigt : travail artisanal, exploitation d’enfants, pollution des sols et des eaux. En s’affranchissant de ce matériau, Renault ne se contente donc pas de réduire ses coûts — il répond à un enjeu éthique et géopolitique majeur.
Le manganèse, lui, est plus abondant, moins coûteux et surtout présent en Europe. Miser sur cet élément, c’est renforcer la souveraineté industrielle européenne, tout en diminuant la dépendance à la Chine. Selon Ampere, les batteries LXMO combineraient le meilleur des deux mondes : la densité énergétique des modèles NMC (nickel-manganèse-cobalt) et la stabilité thermique des batteries LFP (lithium-fer-phosphate). Résultat attendu : plus d’autonomie, moins de risques d’incendie et des coûts maîtrisés. Les premières estimations évoquent même une densité énergétique « jusqu’à deux fois supérieure » aux packs actuels. Les premiers prototypes seront testés au Battery Cell Innovation Lab d’Ampere, inauguré à Lardy, dans l’Essonne. L’objectif : vérifier la viabilité industrielle de cette chimie avant un passage à la production. « Ces cathodes offrent un équilibre rare entre performance, coût, sécurité et durée de vie », assure Nicolas Racquet, vice-président ingénierie d’Ampere. Encore au stade expérimental, cette batterie sans cobalt pourrait équiper demain les futures Mégane, Scénic ou Twingo électriques. Renault trace donc une nouvelle voie : celle d’une batterie européenne, éthique et durable. Un pari audacieux, mais essentiel pour rester dans la course à l’innovation électrique.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’intelligence artificielle n’est pas qu’un outil de productivité ou d’innovation technologique. Elle s’impose désormais comme un levier potentiel — mais aussi un risque — pour la responsabilité sociétale des entreprises, la fameuse RSE. C’est le principal enseignement du Baromètre RSE 2025, publié le 23 octobre par le cabinet Wavestone et l’Observatoire de la responsabilité sociétale des entreprises (Orse).
« L’IA ouvre des perspectives inédites », reconnaît Cédric Baecher, associé chez Wavestone, tout en rappelant la nécessité d’un “cadrage rigoureux et d’une vigilance éthique renforcée”. Car si les opportunités sont vastes, les risques ne le sont pas moins. Seuls 37 % des responsables RSE en France estiment que plus de la moitié des collaborateurs de leur entreprise comprennent les enjeux de l’IA générative. C’est deux fois moins qu’au Royaume-Uni (83 %) et bien en dessous de l’Allemagne (65 %).
Pour l’heure, aucune application ne domine clairement. L’usage de l’IA reste en phase d’expérimentation. Mais les tendances se dessinent : 59 % des entreprises s’en servent pour mesurer et communiquer leur performance ESG, 38 % pour automatiser leurs rapports, 34 % pour collecter les données et 33 % pour sensibiliser leurs salariés. Certaines expérimentent déjà des outils très concrets : scan des plateaux-repas pour limiter le gaspillage, optimisation énergétique des bâtiments ou encore logiciel d’aide à la conduite écologique pour les trains à la SNCF.
Le baromètre souligne aussi une réalité : lorsque les directions RSE sont impliquées, les projets IA intègrent trois fois plus souvent un critère environnemental. Là où elles sont absentes, cette dimension disparaît presque totalement. Mais un autre enjeu monte en puissance : celui des risques psychosociaux. L’étude montre que 45 % des entreprises identifient la peur du remplacement de l’humain par la machine comme une source majeure de stress, suivie de la perte de reconnaissance professionnelle et du manque de transparence des décisions prises par l’IA. En somme, la course à l’intelligence artificielle ne pourra être durable que si elle s’accompagne d’une intelligence humaine éthique et responsable.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est un avertissement sévère adressé à EDF. L’Autorité environnementale, organisme indépendant chargé d’évaluer les grands projets, vient de publier un avis accablant sur les deux futurs réacteurs EPR2 de Penly, en Seine-Maritime. Dans son rapport du 15 octobre, elle estime que plusieurs volets du dossier comportent encore des zones d’ombre majeures, notamment en matière de risques climatiques, sanitaires et écologiques. L’Autorité souligne d’abord une insuffisante prise en compte du dérèglement climatique. Selon ses experts, EDF n’a pas suffisamment intégré dans sa conception les menaces liées à la montée du niveau de la mer, aux tempêtes plus violentes ou encore au risque de submersion du site. Des aléas pourtant essentiels pour une installation nucléaire située sur le littoral normand.
Autre point d’inquiétude : les rejets en mer de substances toxiques ou cancérigènes. Le rapport estime que leurs effets cumulés sur la faune, la flore et la santé humaine n’ont pas été correctement évalués « à l’échelle de la centrale ». En clair, impossible pour l’instant d’affirmer que le projet respecte pleinement la réglementation environnementale. L’avis épingle aussi la destruction d’habitats marins sensibles, jugée non compensée à la hauteur des impacts. L’Autorité regrette enfin le manque de transparence d’EDF : certaines pièces relatives à la sûreté nucléaire ont été exclues de l’analyse pour des raisons de sécurité, une restriction que l’instance juge « excessive ».
Autre omission pointée : aucune précision claire sur les montants prévus pour le démantèlement des réacteurs, la gestion des déchets ou la remise en état du site. Des lacunes financières préoccupantes pour un chantier d’une telle ampleur. Interrogé par l’AFP, EDF se veut rassurant. Le groupe assure que « la protection de l’environnement est une priorité » et que le changement climatique est bien intégré à la conception des EPR2. L’entreprise promet de répondre point par point à ces critiques lors de l’enquête publique prévue en 2026. Mais pour l’heure, l’Autorité environnementale tire la sonnette d’alarme : impossible de garantir que le futur chantier de Penly n’aura pas d’impact significatif sur la santé et l’environnement.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Elles sont perçues comme le Saint Graal de la voiture électrique. Les batteries à électrolyte solide promettent d’effacer les faiblesses des modèles actuels : plus d’autonomie, une sécurité accrue, une durée de vie prolongée. En remplaçant le liquide inflammable par un matériau solide, elles stockent davantage d’énergie sans risque d’incendie et supportent des milliers de cycles de charge. Sur le papier, c’est la révolution attendue de l’électromobilité. Mais dans les faits, le chemin reste semé d’embûches. Car ces batteries, si prometteuses soient-elles, posent encore un casse-tête technologique. Leurs matériaux à base de sulfures, rigides mais fragiles, se fissurent facilement. Ces microfractures bloquent la circulation des ions lithium et font chuter les performances. Leur fabrication, elle, exige une précision quasi chirurgicale, à des coûts prohibitifs. Quant aux composants chimiques nécessaires, ils restent rares et chers. Résultat : impossible, pour l’instant, d’envisager une production de masse.
Mais voilà que la Chine, déjà en position dominante sur le marché mondial des batteries, revendique trois percées majeures qui pourraient rebattre les cartes. Selon Pékin, ces innovations permettraient à un pack de 100 kilos d’atteindre 1 000 kilomètres d’autonomie. Première avancée : l’Académie chinoise des sciences a conçu une « colle ionique » à base d’iode. Ces ions, en suivant le champ électrique, attirent le lithium et comblent les fissures microscopiques, améliorant la conductivité interne. Deuxième innovation : l’Institut de recherche sur les métaux a développé un électrolyte polymère ultraflexible, capable d’être plié 20 000 fois sans rupture, tout en augmentant la capacité de stockage de 86 %. Enfin, l’université Tsinghua a mis au point un polyéther fluoré formant une véritable armure autour de l’électrolyte, le protégeant de la chaleur et des chocs.
Si ces prototypes passent le cap industriel, la Chine pourrait verrouiller l’avenir des batteries solides, laissant l’Occident à la traîne. Une bataille stratégique, à la croisée de la science, de l’énergie… et de la souveraineté technologique.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Face à l’urgence climatique et à la précarité énergétique, une découverte venue d’Arabie saoudite pourrait bien marquer un tournant. Des chercheurs de l’Université des sciences et technologies du roi Abdallah (KAUST), dirigés par le professeur Peng Wang, ont mis au point une technologie révolutionnaire baptisée Nescod — pour No Electricity and Sustainable Cooling On Demand. Son principe : produire du froid sans la moindre électricité.
Le secret réside dans une réaction chimique bien connue, la dissolution endothermique. Lorsqu’un sel, ici le nitrate d’ammonium, se dissout dans l’eau, il absorbe la chaleur ambiante, faisant chuter brutalement la température du liquide. Les chercheurs ont testé plusieurs sels avant d’arrêter leur choix sur celui-ci, dont la solubilité exceptionnelle confère un pouvoir réfrigérant quatre fois supérieur à ses concurrents. Accessible, peu coûteux et déjà utilisé dans les engrais, le nitrate d’ammonium présente aussi l’avantage d’être facile à stocker et à transporter, même dans les zones isolées.
Les résultats expérimentaux sont bluffants : dans un simple récipient isolé, la température est passée de 25 à 3,6 °C en vingt minutes, avant de rester sous les 15 °C pendant plus de quinze heures. Une performance qui ouvre la voie à des usages variés : refroidir des habitations rurales, conserver des aliments, protéger des médicaments sensibles à la chaleur ou encore servir en cas de coupure d’électricité.
Autre atout majeur : le système se régénère grâce au soleil. Une fois le sel dissous, l’eau s’évapore sous la chaleur solaire, reformant les cristaux de nitrate d’ammonium — prêts à être réutilisés. Le procédé crée ainsi un cycle autonome et durable, particulièrement adapté aux climats chauds et ensoleillés. Dans un monde où la climatisation consomme déjà près de 10 % de l’électricité mondiale et pourrait en mobiliser le double d’ici 2050, Nescod apparaît comme une solution d’avenir : simple, écologique et surtout accessible. Une innovation capable, peut-être, de refroidir la planète sans l’échauffer davantage.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Face à la montée inexorable des océans, l’humanité pourrait bien devoir réapprendre à vivre… sur l’eau. Selon le think tank australien Institute for Economics and Peace, plus d’un milliard de personnes risquent de perdre leur habitation d’ici la fin du siècle, englouties par la dilatation des mers et la fonte des glaces. En tout, ce sont 2 millions de kilomètres carrés – l’équivalent de trois fois la France – qui pourraient disparaître sous les flots. Pour y faire face, une idée autrefois utopique refait surface : les villes flottantes.
L’une des plus spectaculaires s’appelle Lilypad. Imaginée par l’architecte belge Vincent Callebaut, cette cité amphibie est conçue pour abriter 50 000 habitants. Totalement autosuffisante, elle combine panneaux solaires, éoliennes et turbines hydrauliques sous-marines pour produire son énergie, tout en s’alimentant grâce à l’aquaculture et à des fermes flottantes. Lilypad serait capable de naviguer lentement sur les courants marins, de l’équateur vers les pôles, au rythme des saisons.
Autre projet d’envergure : Oceanix City, soutenu par l’ONU-Habitat, le programme des Nations unies pour les établissements humains. Conçue par le cabinet d’architecture danois BIG, cette cité se compose de plateformes hexagonales modulaires de deux hectares chacune, accueillant des bâtiments de sept étages. Résistante aux ouragans de catégorie 5, autonome en énergie et capable de nourrir jusqu’à 10 000 habitants, Oceanix City incarne une vision très concrète du futur urbain. Le premier prototype est déjà en construction au large de Busan, en Corée du Sud.
Ces projets, inspirés à la fois de Jules Verne et des expériences sous-marines de Jacques-Yves Cousteau et Jacques Rougerie, ne relèvent plus de la science-fiction. Alors que les sécheresses, les canicules et les pénuries d’eau rendent déjà certains territoires inhabitables, ces villes océaniques pourraient devenir bien plus qu’un refuge pour les réfugiés climatiques. Elles annoncent peut-être une nouvelle ère de l’urbanisme planétaire — où les cités du futur flotteront, littéralement, entre ciel et mer.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Aux États-Unis, la chasse aux dépenses publiques continue, et cette fois, c’est la science qui trinque. La Maison-Blanche a décidé de réduire drastiquement le budget de la NASA, en ciblant notamment un programme jugé pourtant essentiel : les Orbiting Carbon Observatories. Ces deux instruments, un satellite lancé en 2014 et un capteur installé sur la Station spatiale internationale depuis 2019, mesurent la concentration mondiale de CO₂, son absorption par les océans et les forêts, mais aussi l’activité végétale via la détection de la photosynthèse depuis l’espace.
Problème : ces observatoires sont les seules missions spatiales américaines dédiées au dioxyde de carbone. En 2023, une évaluation interne de la NASA les qualifiait même de « scientifiquement cruciales » et de « qualité exceptionnelle ». Leurs données servent aussi bien aux chercheurs qu’au département de l’Agriculture ou aux entreprises énergétiques pour surveiller leurs émissions. Mais rien n’y fait. Selon plusieurs employés, l’administration Trump aurait donné l’ordre de préparer la “phase F”, autrement dit la fin de mission : désorbitation du satellite et arrêt complet de l’instrument embarqué sur l’ISS.
Une décision qui fait bondir la communauté scientifique et politique. « Éliminer ces satellites serait catastrophique », s’indigne Zoe Lofgren, députée démocrate, qui dénonce « une vision anti-science illégale » contournant le budget voté par le Congrès. Car la disparition de ces missions briserait une continuité de données unique, accumulée depuis dix ans, cruciale pour suivre l’évolution du climat et affiner les modèles mondiaux. À la NASA, la colère gronde. Certains ingénieurs dénoncent une mise en péril des programmes d’observation de la Terre, d’autres craignent que ces coupes ne menacent à terme la sécurité même des astronautes. Et tous s’accordent sur un point : en sacrifiant la science climatique, les États-Unis risquent aussi de perdre leur leadership mondial dans l’espace.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si l’avenir de l’énergie solaire tenait dans une feuille d’or… ou presque ? Des chercheurs du Laboratoire international ibérique de nanotechnologie viennent de présenter une avancée prometteuse : des panneaux solaires ultrafins bien plus légers, moins coûteux à produire et bientôt adaptables à presque toutes les surfaces — véhicules, bâtiments, objets connectés. Problème jusqu’ici : leur rendement limité. Trop minces, ces cellules laissaient échapper une partie de la lumière, réduisant leur efficacité. L’équipe ibérique a trouvé la parade en déposant une fine couche d’or de 25 nanomètres sous la cellule photovoltaïque, formant un « miroir nanostructuré ». Ce dernier renvoie la lumière vers la cellule pour qu’elle soit absorbée une seconde fois. Résultat : une hausse du rendement de 1,5 point de pourcentage, selon l’étude publiée dans la revue Solar RRL.
Concrètement, cette structure en forme de T, encapsulée dans de l’oxyde d’aluminium, assure une passivation de l’interface et réduit les pertes d’énergie à l’arrière. Et cerise sur le panneau : la méthode employée, la lithographie par nano-impression en une seule étape, est simple, rapide et peu coûteuse, contrairement aux procédés traditionnels utilisés en nanofabrication. Cette découverte pourrait marquer un tournant. En rendant les panneaux solaires plus fins, flexibles et abordables, les chercheurs ouvrent la voie à une production à grande échelle. Une technologie qui pourrait bien transformer n’importe quelle surface — du toit d’un bus au capot d’une voiture — en générateur d’électricité propre.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Apple passe à la vitesse supérieure sur le front de la transition énergétique. Le géant californien a annoncé un plan d’investissement de plus de 600 millions de dollars, soit un peu plus de 500 millions d’euros, pour verdir la consommation électrique de ses utilisateurs européens. L’objectif : compenser d’ici 2030 l’intégralité de l’électricité utilisée pour charger les appareils Apple sur le Vieux Continent.
Six pays sont concernés : l’Italie, l’Espagne, la Grèce, la Pologne, la Roumanie et la Lettonie. Dans chacun, la marque à la pomme finance des parcs solaires et éoliens géants, pour injecter à terme 3 000 gigawattheures d’énergie renouvelable par an dans les réseaux européens. Une manière concrète de réduire son empreinte carbone, tout en renforçant la production locale d’électricité propre. Les premiers résultats sont déjà visibles. En Grèce, une centrale solaire de 110 mégawatts, opérée par HELLENiQ Energy, tourne à plein régime. En Italie, plusieurs projets solaires et éoliens totalisant 129 MW sont en cours, dont le premier site sicilien démarre ce mois-ci. En Espagne, le parc solaire Castaño près de Ségovie, développé par ib vogt, produit déjà ses 131 MW depuis janvier.
Dans l’Est du continent, Apple concentre ses efforts sur les régions les plus carbonées. En Pologne, une installation de 40 MW verra le jour fin 2025, tandis qu’en Roumanie, un parc éolien de 99 MW est en construction dans le comté de Galați. En Lettonie, European Energy édifie l’un des plus grands parcs solaires du pays, avec 110 MW de puissance. Au total, ces projets ajouteront 650 MW de capacités vertes au réseau européen. Apple explique que 29 % de ses émissions mondiales proviennent de l’usage même de ses produits : autrement dit, de chaque recharge d’iPhone ou de Mac. « D’ici 2030, nous voulons que nos utilisateurs sachent que l’énergie qu’ils consomment est intégralement compensée par de l’électricité propre », promet Lisa Jackson, vice-présidente en charge de l’environnement. Avec 19 gigawatts de renouvelable déjà produits dans le monde, Apple veut désormais s’attaquer aux régions les plus dépendantes du charbon. Un pari ambitieux, mais peut-être le plus cohérent de sa stratégie carbone : faire rimer high-tech et énergie propre.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si la lutte contre le réchauffement climatique se jouait… depuis l’espace ? Grâce à son instrument Orbiting Carbon Observatory-3, ou OCO-3, installé à bord de la Station spatiale internationale, la Nasa peut désormais mesurer les émissions de dioxyde de carbone (CO₂) des grandes métropoles du globe avec une précision inédite. Le dioxyde de carbone, principal gaz à effet de serre, provient à 75 % des activités humaines, selon l’agence américaine. Et les grandes villes, véritables poumons économiques, sont aussi les plus gros émetteurs. La plupart se sont engagées à atteindre la neutralité carbone d’ici 2050, mais encore faut-il savoir précisément combien elles rejettent dans l’atmosphère. Or, les bilans réalisés au sol restent souvent approximatifs, voire biaisés.
C’est là qu’intervient OCO-3. En utilisant un système de miroirs orientables, il mesure les concentrations de CO₂ lorsque la Station spatiale survole une zone urbaine donnée. Une équipe de chercheurs américains a ainsi pu observer 54 villes dans le monde et comparer les résultats spatiaux avec les estimations locales. Verdict : une marge d’erreur de seulement 7 %, ce qui confirme la fiabilité du dispositif. Mais les résultats réservent quelques surprises. Les mégalopoles asiatiques, souvent pointées du doigt, émettent en réalité moins que ce que les modèles terrestres prévoyaient. À l’inverse, l’Afrique, l’Océanie, l’Europe et les Amériques ont plutôt sous-évalué leurs émissions.
Autre enseignement : la richesse d’une ville influe directement sur son empreinte carbone. Les métropoles les plus développées produisent davantage de richesse par kilo de CO₂ émis. Exemple : 0,1 kg de CO₂ par dollar de PIB pour les villes nord-américaines, contre 0,5 kg pour les villes africaines. Et plus surprenant encore : plus une ville est grande, moins ses habitants polluent individuellement. Dans les mégapoles de plus de 20 millions d’habitants, chaque citoyen émet en moyenne 1,8 tonne de CO₂ par an, contre 7,7 tonnes dans les villes plus petites.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le compte à rebours est lancé : le 1er novembre, le système des heures pleines - heures creuses, pilier du modèle énergétique français depuis les années 60, va entamer sa mue. Une réforme d’ampleur, pilotée par la Commission de régulation de l’énergie, qui vise à adapter nos habitudes de consommation à l’essor du solaire. Objectif : profiter des surplus d’électricité verte produits en journée, plutôt que la nuit.
Historiquement, ce dispositif est né avec l’ère du tout-nucléaire. À l’époque, les centrales tournaient jour et nuit, produisant la même quantité d’électricité, qu’on en ait besoin ou non. Pour lisser la demande, l’État avait instauré huit heures à tarif réduit, la nuit. Résultat : on lançait sa machine à laver à 23h, on faisait chauffer l’eau pendant le sommeil, et tout le monde y gagnait. Mais depuis quelques années, le paysage énergétique a basculé. Les toitures photovoltaïques se sont multipliées, et le réseau déborde d’électricité en milieu de journée. Désormais, entre 11h et 16h, c’est le plein soleil… et le plein d’énergie. D’où la refonte : les heures creuses glissent peu à peu vers l’après-midi.
Concrètement, 1,7 million de foyers verront leurs plages horaires modifiées d’ici juin 2026, puis 9,3 millions supplémentaires entre fin 2026 et 2027. Le principe reste huit heures à tarif réduit par jour, mais avec au moins cinq heures consécutives la nuit et jusqu’à trois heures entre 11h et 17h. Les périodes de forte demande – 7h-11h et 17h-23h – sortent définitivement du dispositif. Les compteurs Linky seront reprogrammés à distance, et les chauffe-eaux automatiques suivront le mouvement. Seule précaution : si vous rechargez une voiture électrique, vos plages nocturnes pourraient devenir trop courtes. Cette transition s’étalera jusqu’en 2027, avec un système saisonnier l’été et l’hiver. Une révolution silencieuse, mais symbolique : l’électricité française se met enfin à l’heure du soleil.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.