Conosciamo Nicolò Lucchesi, Senior Machine Learning Engineer presso Red Hat, e il suo lavoro su vLLM e l'ottimizzazione delle performance. Nicolò condivide la sua esperienza nel campo dell'AI e del Machine Learning, spiegando l'importanza di strumenti come Paged Attention e le sfide legate all'integrazione di nuovi modelli. Viene anche discusso il ruolo della community e le tecnologie utilizzate nel progetto vLLM, oltre a tendenze emergenti nel settore.
Summary
Marco e Cesare discutono delle conferenze a cui hanno partecipato negli ultimi anni, evidenziando le differenze tra eventi come Codemotion, PyCon Italia, Big Data London e PY4AI. Ogni conferenza ha un focus unico, dalla varietà di temi trattati alla forza della community, fino all'importanza di eventi di nicchia.
Parliamo di benchmarking di AI e ML su CPU e GPU locali con Alberto Danese, Kaggle Grandmaster e responsabile Data Science & Advanced Analytics in Nexi.
Partendo dal suo progetto open di GPU Benchmark, esploriamo come cambiano le prestazioni tra diversi modelli, dataset e hardware, fino a scoprire soglie e comportamenti sorprendenti.
Una chiacchierata tecnica ma accessibile, tra regole empiriche, contributi open source e “vibe coding”.
La dashboard qui https://ai-ml-gpu-bench.streamlit.app/
Marco e Cesare raccontano cosa apprezzano di Youtube
Ospitiamo Stefano Iasi, Head of Engineering presso TrueLayer, per parlare di un tema cruciale per chi lavora nel mondo tech: come organizzare i team di sviluppo. Con Stefano esploriamo il modello di Team Topologies, cosa lo rende diverso da altri approcci (spoiler: il “Spotify Model” non esiste davvero), e perché è diventato uno strumento fondamentale per favorire focus, collaborazione mirata e chiarezza nei ruoli. Dalle tipologie di team alle interazioni consigliate, fino a esempi concreti di riorganizzazioni vissute in prima persona, emergono spunti pratici per riconoscere problemi ricorrenti (come team “multi-type” o troppe interazioni non necessarie) e affrontarli con un linguaggio comune.
Marco racconta a Cesare l'esperienza di insegnare a studenti di istituto tecnici superiore.
Marco e Cesare parlano dell'organizzazione di Python Milano e PyData davanti a un caffè (con analogia su Team Topologies)
Marco e Cesare parlano di FastMCP davanti a un caffè
In questa puntata con Gabriele Lombardi, CTO di ArgoVision, esploriamo lo stato dell’arte della computer vision tra approcci classici e deep learning. Parliamo di sfide reali come anomaly detection, few-shot learning e affidabilità in ambito industriale, oltre ai vincoli dell’edge computing su memoria, potenza ed energia e a come testarne modelli e pipeline. Sul fronte ingegneristico, tocchiamo organizzazione dei team R&D e prodotto, codice pulito, CI, toolchain Python e quando ha senso spingersi verso C++ per le performance.
In questo episodio di Intervista Pythonista parliamo con Diego Russo, Principal Software Engineer presso ARM e core developer di CPython. Diego ci guida attraverso il funzionamento interno dell'interprete Python, spiegando la differenza tra interpreter e runtime, e illustrando le novità come l’interprete specializzato di Python 3.11 e il futuro JIT in arrivo con Python 3.14. Condividiamo anche uno sguardo dietro le quinte dello sviluppo del linguaggio, parlando del processo per diventare core developer e dell'importanza del PEP 11 nel determinare il supporto alle piattaforme. Un episodio ricco di dettagli tecnici, storie dalla comunità EuroPython, e spunti utili anche per lo sviluppatore Python "medio".
Alla vigilia dell'inizio di PyCon Italia 2025, abbiamo l'intervista esclusiva al team di organizzatori! Scopriamo chi sono, cosa fanno e sveliamo tutte le novità della conferenza: da una location più inclusiva a Bologna, ai numerosi eventi che vanno oltre il tecnico, come workshop per principianti, talk su soft skills e momenti di networking. Si parla anche di sponsor, grant, selezione dei talk, novità sul merchandising e si dà spazio alle voci dei nuovi membri del team.
Nell'intervista: Fiorella De Luca, Ambra Tonon, Glenn Mendoza, Gaetano D'Onghia, Sabrina Scoma, Ester Beltrami, Raffaella Suardini
Parliamo di vector database e RAG con Nicola Procopio, Senior Data & AI Scientist presso AC Software e Ambassador di QDrant. Con lui esploriamo cosa significa oggi fare ricerca semantica: dalle tecniche di pre-embedding basate su keyword ai modelli transformer che trasformano il testo in vettori, fino alle applicazioni pratiche in progetti GenAI. Scopriamo come funziona il chunking, perché la similarità tra vettori è alla base delle query in linguaggio naturale e quali sono i vantaggi di usare QDrant – il vector DB open source scelto anche nello “Stregatto”, il progetto open source di cui Nicola è core developer.
Conosciamo Patrick Arminio, Founding Engineer presso FastAPI Labs, creatore di Strawberry e presidente di Python Italia. Iniziamo con una panoramica di GraphQL e REST API. Chiudiamo poi con la nuovissima FastAPI Labs, avventura imprenditoriale di Patrick Arminio e Sebastián Ramírez (tiangolo).
In questa puntata, ci immergiamo nel mondo del MLOps e dell'orchestrazione dei dati con Stefano Bosisio, Senior Software Engineer presso NVIDIA. Stefano condivide le sue conoscenze su framework popolari come Apache Beam, Kubeflow e Dagster, evidenziandone punti di forza e limitazioni. Affrontiamo anche le tendenze emergenti nel DataOps e le sfide che i team devono affrontare nella scelta degli strumenti di orchestrazione più adatti alle loro esigenze.
Con Valentino Gagliardi parliamo dello sviluppo frontend in Django e faremo un'analisi critica del ruolo di "full stack developer". Approfondiremo:
Riferimenti ai temi toccati nella puntata.
Progressive enhancement
https://thehistoryoftheweb.com/the-inclusive-web-of-progressive-enhancement/
https://www.gov.uk/service-manual/technology/using-progressive-enhancement
Accessibility tools
Django e Frontend
Social
In questa puntata speciale conosciamo gli organizzatori delle community Python locali che possiamo trovare in tante città italiane (a esempio Roma, Milano, Torino, Pescara, Campania, Bari, Catania, Biella)
Approfondiremo cosa significa essere una community Python e scopriremo le motivazioni che spingono gli organizzatori. Faremo un bilancio del 2024 e discuteremo gli obiettivi per il 2025. Condivideremo preziosi consigli pratici per chi vuole lanciare una community nella propria città, parlando di strumenti, gestione del team e ricerca di speaker.
Ringraziamo chi ha partecipato: Paolo Melchiorre (Pescara), Lelio Campanile (Campania), Mario Nardi (Biella), Stefania Delprete e Simona Mazzarino (Torino), Gateano D'Onghia e Giuseppe Birardi (Bari), Juna Salviat (Roma), Cesare Placanica (Milano), Salvatore Rapisarda (Catania)
Conosciamo Edoardo Vacchi, staff research engineer presso Dylibso. Approfondiamo WASM, Extism e l'ecosistema Python attorno. Nella seconda parte della puntata scopriamo la community Papers We Love!
Riferimenti
Conosciamo Luca Gilli, CTO e CoFounder di Clearbox. Approfondiamo con Luca i Small Language Models, un trend recente generative AI. Passiamo poi ai punti dell'AI Act dell'Unione Europea che toccano sia i data scientist in ascolto che le aziende presso cui lavorano.
Riferimenti
SmolLM di Hugging Face
Phi-3 di Microsoft
Conosciamo Daniele Zonca, Architect di Model Serving in Openshift AI. Se un modello di AI dà un output sbagliato, che strumenti ho per spiegare perché il modello ha dato quella risposta? Quali sono invece gli strumenti per un modello di ML tradizionale?
Approfondiamo poi il progetto open source InstructLab per il miglioramento collaborativo del fine-tuning di LLM.
Referenze della puntata:
https://github.com/instructlab
https://trustyai-explainability.github.io/
http://paperswelovemi.eventbrite.it/
Conosciamo Salvatore Sanfilippo, creatore di Redis e sviluppatore open source. Entriamo con Salvatore nel mondo dello sviluppo di piccoli device embedded con MicroPython e scopriamo il suo nuovo progetto FreakWAN.
Riferimenti