
Et si un modèle IA pouvait diviser la latence et la mémoire par 4… sans perdre en performance ? Dans cet épisode, Léa et Alex décryptent BitNet b1.58, le LLM ultra-efficace de Microsoft désormais open source. Une révolution discrète mais stratégique pour l’inférence locale et les devices edge.