Questo episodio esplora il "Blueprint Economico di OpenAI", un documento strategico pubblicato a luglio 2025 che propone come l'Australia possa sfruttare il potenziale trasformativo dell'intelligenza artificiale. Scopriremo come l'AI possa accelerare la scoperta scientifica, migliorare la sanità, l'istruzione e i servizi governativi, oltre a stimolare la produttività in tutto il paese. Il report, concepito come un "documento vivente", sottolinea la necessità per l'Australia di agire con decisione per massimizzare le opportunità dell'AI, mitigando al contempo i potenziali effetti negativi.Il piano include un'azione in 10 punti per rafforzare la competitività, promuovere l'innovazione e migliorare la qualità della vita, dalla formazione delle competenze AI alla modernizzazione dei servizi pubblici e all'investimento in infrastrutture AI. L'obiettivo è posizionare l'Australia come leader fidato nell'AI nella regione Indo-Pacifico, aumentando la produttività, i salari e il tenore di vita per tutti gli australiani.
Esplora il ruolo cruciale dell'Unione Europea nella rivoluzione quantistica globale! Questo podcast ti offre una panoramica approfondita sullo stato attuale della tecnologia quantistica, esaminando i finanziamenti pubblici e privati, il potenziale di innovazione e le prospettive di mercato in aree chiave come il computing, la comunicazione e il sensing quantistico.Scopri come l'UE si posiziona con il 32% delle aziende globali nel settore, la sua crescita stabile nel brevettare, e le sfide legate alla dimensione delle sue imprese rispetto a giganti come Cina e Stati Uniti. Analizzeremo gli investimenti di capitale di rischio e il focus sulla maturazione dell'industria, oltre all'importanza delle collaborazioni internazionali e alla necessità di tradurre la ricerca in soluzioni commerciali concrete.Preparati a capire perché il 2025 è stato dichiarato l'Anno Internazionale della Scienza e Tecnologia Quantistica e come l'UE intende capitalizzare questa opportunità per la sua sicurezza economica e la crescita.
Approfondisci le rivelazioni del Reuters Institute Digital News Report 2025, lo studio più completo sul consumo di notizie a livello globale. Questo episodio analizza come il panorama dell'informazione stia cambiando rapidamente, con un declino dell'engagement con i media tradizionali (TV, stampa, siti web di notizie) a favore di piattaforme social e video, specialmente tra il pubblico più giovane. Esploreremo l'ascesa degli influencer e delle personalità come nuove fonti di notizie, e l'emergere degli AI chatbot nel consumo di notizie, nonostante lo scetticismo sulla loro affidabilità. Il report evidenzia anche la crescente importanza dei podcast di notizie e la preferenza delle nuove generazioni per i formati audio-visivi rispetto al testo. Scopri le preoccupazioni diffuse sulla disinformazione e le strategie che i media tradizionali stanno adottando per innovare, inclusa la personalizzazione tramite AI e nuovi modelli di pagamento, al fine di riconnettersi con il pubblico in un ecosistema sempre più frammentato. Un'analisi essenziale per comprendere le dinamiche attuali e future del consumo di notizie nel mondo.
In questo episodio, esploriamo uno studio rivoluzionario: le macchine possono davvero rispecchiare le nostre visioni filosofiche? Scopriremo come un'intelligenza artificiale (ChatGPT) sia stata programmata per simulare il pensiero di filosofi e fisici, rivelando sorprendenti somiglianze ma anche differenze cruciali, come una maggiore coerenza filosofica nelle AI. Preparatevi a rimettere in discussione il futuro della filosofia e della ricerca scientifica!
Benvenuti a "L'IA per l'Insegnante", il podcast che esplora l'impatto dell'Intelligenza Artificiale nel mondo dell'educazione. Basato sull'open textbook "AI for Teachers: an Open Textbook" di Colin de la Higuera e Jotsna Iyer, questo podcast è una risorsa essenziale per i docenti che desiderano sfruttare al meglio l'IA in classe. L'obiettivo è supportare gli insegnanti nel comprendere l'IA e utilizzarla per il bene dell'aula, rendendoli utenti responsabili.Approfondiremo come l'IA sia già presente nell'educazione in applicazioni come motori di ricerca, correttori grammaticali, traduttori automatici e sistemi di tutoraggio intelligenti. Il podcast discuterà le diverse applicazioni dell'IA, tra cui:• Gestione dell'apprendimento: Utilizzo di dashboard AI e sistemi di gestione dell'apprendimento (LMS) intelligenti per monitorare le prestazioni degli studenti, segnalare problemi e ottimizzare la programmazione.• Personalizzazione dell'apprendimento: Esplorazione dei sistemi di apprendimento adattivo (ALS) che offrono percorsi di apprendimento su misura per le esigenze individuali degli studenti, inclusi quelli con bisogni speciali.• Supporto alla produzione linguistica: Impiego di traduttori, strumenti di scrittura assistita dall'IA e strumenti di elaborazione del linguaggio naturale (NLP) per la scrittura, il parlato e l'ascolto.• IA Generativa: Introduzione all'IA generativa (come ChatGPT) per la pianificazione delle lezioni, la creazione di contenuti coinvolgenti, la generazione di esercizi e quiz, e per aumentare l'accessibilità per gli studenti con disabilità.Tuttavia, il podcast non ignorerà le sfide e le implicazioni etiche. Si parlerà di questioni cruciali come la protezione dei dati e la privacy degli utenti, i bias e la perpetuazione di stereotipi presenti nei dati di addestramento dell'IA, l'omogeneizzazione dei risultati e la possibile riduzione della creatività. Verrà sottolineata la necessità di un approccio critico e l'importanza della competenza sull'IA per gli insegnanti, non solo per sapere cosa fa l'IA, ma anche come funziona.Questo podcast mira a fornire agli insegnanti le conoscenze necessarie per navigare con consapevolezza e responsabilità la rapida evoluzione dell'Intelligenza Artificiale nell'istruzione, un campo in cui la tecnologia si muove così velocemente che le analisi passate possono diventare rapidamente obsolete.
Un podcast che esplora il dialogo tra Intelligenza Artificiale e discipline umanistiche, spingendoci a "pensare con l'IA" per riesaminare concetti fondamentali. Dalla "vibe" estetica al "dimenticare catastrofico", analizzeremo come il machine learning stia ridefinendo il linguaggio, la storia, l'arte e la percezione dell'intelligenza, sfidando le narrazioni dominanti sulla neutralità dei dati e sul progresso tecnologico
Esplora come l'Intelligenza Artificiale Agent (AI agent) stia trasformando la compliance nei servizi finanziari. Questo podcast presenta il Framework di Supervisione Agent (AOF) sviluppato da Sardine, un'azienda che offre una piattaforma basata su AI per la prevenzione delle frodi e la compliance. Sardine ha implementato e testato con successo i suoi agenti AI in ambienti di produzione reali in diverse istituzioni finanziarie per oltre tre mesi, specificamente nei flussi di lavoro di compliance BSA/AML.Il Framework di Supervisione Agent (AOF) di Sardine è un modello provato per l'implementazione sicura e trasparente dell'AI in ambienti regolamentati, affrontando le sfide legate alla conformità BSA/AML. Scopri i risultati concreti dell'AI agent in ambienti di produzione: dalla riduzione dei tempi di attesa KYC da un picco di 20 giorni a circa 2 minuti, migliorando drasticamente l'esperienza del cliente, all'aumento della precisione nelle decisioni, con l'AI che raggiunge il 100% di precisione nelle decisioni di approvazione e il 90% in quelle di rifiuto per il KYC.Affronteremo i benefici chiave, come la capacità di gestire un volume di falsi positivi che può arrivare al 90% in processi come lo screening delle sanzioni, e come gli agenti AI creano una capacità d'ordine di grandezza maggiore per le istituzioni finanziarie, permettendo al personale di concentrarsi su indagini complesse e attività criminali reali. Verrà discussa anche l'importanza della supervisione umana continua attraverso il principio dei "quattro occhi", garantendo che ogni decisione proposta dall'AI sia soggetta ad approvazione umana, mantenendo l'accountability e una validazione dinamica del modello. Il podcast spiegherà come l'AOF assicura un percorso pratico per le istituzioni finanziarie per adottare l'AI in modo responsabile, con linee guida chiare per l'allineamento normativo e la gestione del rischio.
Molte aziende sperimentano il "paradosso della Gen AI": un'ampia adozione di questa tecnologia non si traduce in un impatto significativo sui risultati economici. Questo audio svela come l'AI agentica sia il catalizzatore per superare questa fase, trasformando l'AI da strumento reattivo a collaboratore autonomo e orientato agli obiettivi.Scopri come gli agenti possono automatizzare flussi di lavoro complessi, potenziando l'agilità operativa e creando nuove opportunità di ricavo, ben oltre la semplice efficienza. Verrà evidenziata la necessità di reimmaginare i processi aziendali con gli agenti al centro e perché la sfida maggiore risiede nell'aspetto umano: costruire fiducia, guidare l'adozione e definire una governance efficace. Infine, esplora il ruolo indispensabile del CEO nel guidare l'organizzazione da una fase di pura sperimentazione a una trasformazione AI scalabile e industrializzata.
Scopri come l'Intelligenza Artificiale Generativa (GenAI) sta trasformando il settore bancario. Questo podcast esplora il suo potenziale impatto, dai vantaggi operativi e il miglioramento del servizio clienti alle applicazioni concrete come la riduzione dei chargeback, la categorizzazione delle transazioni e la reportistica automatica. Affronteremo anche le sfide cruciali quali la conformità, la sicurezza e la gestione dei bias, offrendo uno sguardo completo sul futuro della GenAI nelle banche.
Esplora l'impatto trasformativo dell'Intelligenza Artificiale nel settore bancario con un'analisi approfondita del report "FINANCIAL INSTITUTIONS AI IN FI REPORT 2025". Questo podcast rivela come l'IA predittiva, generativa e agentiva stia ridefinendo radicalmente il business bancario, erodendo i pilastri che hanno a lungo sostenuto il vantaggio delle banche. Imparerai come l'IA stia smantellando i "fossati" tradizionali, rendendo più facile per i clienti cambiare fornitore e spostando il controllo dalle banche verso le piattaforme digitali.Il podcast sottolinea l'urgenza per le istituzioni finanziarie di agire ora, poiché i prossimi cinque anni saranno cruciali per definire i successivi trenta. Approfondiremo le sfide attuali, inclusa la tendenza della maggior parte delle banche a sperimentare ai margini o a destinare investimenti a miglioramenti isolati della produttività, anziché a una trasformazione più ampia.Verranno delineate le strategie essenziali per le banche che desiderano vincere in questa nuova era:• Ripensare la propria strategia e l'IA vision per identificare un vantaggio durevole.• Modernizzare l'infrastruttura tecnologica e i dati, mettendo l'IA al centro (integrazione dei workflow, disponibilità dei dati, infrastruttura ibrida e modernizzazione dei core layer).• Potenziare la governance dell'IA, affrontando proattivamente la regolamentazione e sviluppando framework di gestione del rischio che vadano oltre le semplici checklist.• Preparare l'organizzazione per i cambiamenti imminenti, affrontando le carenze di talento e sviluppando le competenze interne.Il podcast evidenzierà anche l'importanza cruciale di una leadership forte dal top management e di investimenti mirati per assicurare un vantaggio competitivo sostenibile in un panorama finanziario in rapida evoluzione. Non perdere questa guida indispensabile per le banche che vogliono plasmare il loro futuro, anziché essere plasmate da esso.
Le tecnologie di intelligenza artificiale (IA) offrono un potenziale immenso, ma la loro rapida implementazione solleva questioni etiche cruciali. Ignorare l'etica dell'IA non è solo un errore morale, ma una decisione strategica di business rischiosa, che può portare a significative conseguenze finanziarie, reputazionali e operative.Questo podcast svela come l'integrazione di principi etici nelle strategie di IA non solo mitigare i rischi, ma trasformare l'IA in un vantaggio competitivo chiave. Esploreremo il concetto di ROI dell'IA Etica, un approccio olistico che va oltre i semplici profitti, includendo la gestione del rischio, la fiducia dei clienti e la sostenibilità a lungo termine.Scoprirete:• I costi di non affrontare l'etica: esempi come Boeing (20 miliardi di dollari di perdite), IBM Watson per l'oncologia (perdita di 50-60 milioni di dollari), e multe salate per violazioni della privacy. I progetti di IA hanno un tasso di fallimento elevato, dall'82 al 93 percento.• I benefici tangibili: Le aziende che adottano audit etici sull'IA riportano un ROI doppio rispetto a quelle che non lo fanno. Organizzazioni con una strategia etica sull'IA ottengono un ROI medio del 13 percento, contro il 5,9 percento per chi ne è privo. L'IA etica costruisce fiducia con clienti e investitori, attrae talenti e aiuta a navigare in un panorama normativo complesso come l'EU AI Act.• Come l'IA etica sia, in sostanza, una sofisticata strategia di gestione del rischio finanziario e di generazione di entrate con ritorni economici misurabili e sostanziali.Unitevi a noi per capire perché l'etica dell'IA non è un costo, ma un imperativo strategico per il successo e la creazione di valore sostenibile nel futuro dell'IA.
Benvenuti a "L'IA Generativa: Trasformazione e Futuro", il podcast che esplora la rivoluzione dell'intelligenza artificiale generativa. Scoprirete come questa tecnologia stia rapidamente ridefinendo il business e la società, con una crescita e un'adozione aziendale senza precedenti.Approfondiremo l'impatto dell'IA sulla produttività, che offre un notevole ritorno sull'investimento alle organizzazioni. Verranno analizzate le sfide all'adozione, come la carenza di competenze e le questioni di sicurezza, e come superarle.Il podcast presenterà le strategie di successo per l'implementazione dell'IA, delineando le fasi di prontezza e i fattori chiave per generare valore. Esploreremo chi sta guidando l'innovazione, dal ruolo delle startup "AI-native" all'importanza degli agenti AI, e come l'intelligenza artificiale stia contribuendo alla sostenibilità globale.Infine, discuteremo come costruire fiducia nell'IA, sottolineando l'importanza di sicurezza, privacy e affidabilità. Unitevi a noi per comprendere come l'IA generativa stia portando a un'efficienza senza precedenti, a modelli di business innovativi e a una crescita immaginabile, fornendovi una guida per massimizzare le opportunità di questa era trasformativa.
Questo podcast esplora "Una Strategia AI per la Svezia", un documento fondamentale sviluppato da AI Sweden con il supporto di gruppi di riferimento nazionali e internazionali. La strategia è una guida essenziale per politici, dirigenti aziendali, decisori, attori della società civile e tutti i leader del cambiamento che ambiscono a sviluppare la Svezia in modo responsabile attraverso l'Intelligenza Artificiale.Scoprirai come la Svezia intende sfruttare il potenziale dell'AI per risolvere le sfide sociali chiave, rafforzare la competitività e preservare e sviluppare una società democratica con un'elevata qualità di vita. Il cuore di questa strategia è la necessità di una leadership audace che si concentri sulla creazione di valore tramite l'AI, una maggiore collaborazione tra i settori e investimenti congiunti guidati dalle relazioni internazionali.Affronteremo l'urgente bisogno di agire ora, con un focus sull'adozione dell'AI piuttosto che sulla sola ricerca. Il podcast evidenzierà come l'uso dell'AI sia diventato una necessità per affrontare sfide come il cambiamento climatico, la crescente domanda di energia e l'invecchiamento della popolazione, garantendo un futuro prospero e sicuro per la Svezia e con un impatto positivo a livello globale.
In questo podcast, esploreremo le priorità globali di ricerca per la sicurezza dell'Intelligenza Artificiale, così come definite nel Consenso di Singapore, un documento cruciale emerso dalla Conferenza di Singapore sull'IA del 2025.Il nostro obiettivo è approfondire come la comunità globale stia lavorando per costruire un ecosistema AI affidabile, sicuro e protetto, un passo fondamentale per garantire che le persone possano adottare l'IA con fiducia e massimizzare l'innovazione, evitando al contempo ripercussioni negative. Questo richiede un investimento accelerato nella ricerca per tenere il passo con la crescita delle capacità dei sistemi.Il Consenso di Singapore è il risultato di un ampio sforzo collaborativo, che ha riunito oltre 100 partecipanti da 11 paesi, inclusi ricercatori di importanti istituzioni accademiche, sviluppatori di IA, rappresentanti di governi e della società civile. Questo documento si basa su un modello di "difesa in profondità" e organizza le aree di ricerca sulla sicurezza dell'IA in tre categorie principali.La prima categoria è la Valutazione del Rischio. L'obiettivo primario è comprendere la gravità e la probabilità di un potenziale danno, informando così le decisioni di sviluppo e implementazione. Questo include lo sviluppo di metodi per misurare l'impatto dei sistemi AI e il miglioramento della metrologia per garantire misurazioni precise e ripetibili.La seconda categoria è lo Sviluppo di Sistemi Affidabili, Sicuri e Robusti. Questa sezione si concentra sulle tecniche per creare sistemi AI che siano intrinsecamente affidabili fin dalla progettazione. Si tratta di specificare il comportamento desiderato, progettare il sistema per soddisfare tale specifica e verificarne il corretto funzionamento.La terza categoria è il Controllo: Monitoraggio e Intervento. Dopo l'implementazione, è fondamentale disporre di meccanismi per gestire il comportamento del sistema. Questa area di ricerca sviluppa tecniche di monitoraggio e intervento per i sistemi AI, estendendole all'ecosistema AI più ampio e includendo la ricerca sulla resilienza sociale.Scoprirete come queste aree di ricerca si sovrappongono e perché la cooperazione globale su meccanismi di verifica, standard di gestione del rischio e valutazioni è un'area di interesse reciproco cruciale. Nessuna organizzazione o paese beneficia di incidenti legati all'IA, e la condivisione di informazioni è essenziale per la sicurezza collettiva. Il focus del Consenso è principalmente sui sistemi di IA per scopi generali (GPAI), compresi i modelli linguistici e gli agenti autonomi, sottolineando che le soluzioni tecniche sono necessarie ma non sufficienti per la sicurezza complessiva dell'IA.
Ti sei mai chiesto chi controlla realmente i dati generati dai tuoi dispositivi intelligenti? Il **Regolamento (UE) 2023/2854**, noto come **Data Act dell'UE**, è una legge fondamentale destinata a ridefinire l'economia digitale europea [1].
In questo episodio, esploriamo come il Data Act stabilisce **norme armonizzate per l'accesso equo e l'utilizzo dei dati**, promuovendo innovazione e concorrenza [1-3]. Vedremo come:
* **Rafforza gli utenti** con nuovi diritti di accesso, utilizzo e condivisione dei dati dai loro prodotti e servizi connessi, spesso **gratuitamente** [6, 131(a), 163].
* Obbliga i **detentori dei dati** a condividere le informazioni a condizioni eque, ragionevoli e non discriminatorie, affrontando problemi come i silos di dati e gli squilibri contrattuali [3, 4].
* Facilita il **passaggio agevole tra i servizi di elaborazione dati** (es. fornitori di cloud), eliminando ostacoli come i costi eccessivi di uscita dei dati [6, 88, 132(d), 244]. La maggior parte di questi costi sarà abolita dal 12 gennaio 2027 [5, 6].
Un ascolto essenziale per chiunque operi in **AI e Data Science**. La maggior parte delle regole si applica dal **12 settembre 2025** [7, 8].
🤖 **Esplora il documento completo con l'AI:** https://lonardonifabio.github.io/tech_documents/document/144d044cec182dfdef65cdcbea6b0e39
Nel contesto di una crescita economica debole e degli straordinari progressi nell'intelligenza artificiale, il G7 si trova di fronte a una svolta decisiva. Questo podcast esplora come l'AI possa essere un motore cruciale per la produttività, analizzando le sfide e le opportunità che essa presenta.Discuteremo i tre canali principali attraverso i quali l'AI può influenzare la produttività:• Capacità tecnologiche: Dalle infrastrutture dati all'hardware, alla ricerca e sviluppo (R&S) e agli strumenti software.• Applicazioni e mercati: Esaminando gli investimenti, l'adozione nei vari settori e la maturità del mercato.• Politiche e regolamentazioni: Dal pool di talenti alle normative nazionali e all'influenza internazionale.Approfondiremo le posizioni dei paesi del G7 (e di Cina e India per confronto), evidenziando i loro punti di forza nella ricerca e sviluppo e nelle infrastrutture dati, ma anche le loro debolezze, in particolare per quanto riguarda la disponibilità di talenti qualificati e l'accesso ai capitali privati per le Piccole e Medie Imprese (PMI) al di fuori degli Stati Uniti.Esploreremo quattro scenari futuri plausibili per l'impatto dell'AI sulla produttività globale:• AI piatta (Flat AI): Uno scenario di stagnazione con progressi limitati e benefici concentrati.• AI a guida statunitense (US-led AI): Dove gli Stati Uniti dominano l'innovazione e stabiliscono gli standard globali, con vantaggi principalmente per sé e i suoi alleati.• AI multipolare (Multipolar AI): Caratterizzato da una più ampia diffusione dei benefici, con diverse regioni che sviluppano le proprie capacità AI.• Intelligenza artificiale generale (AGI - Artificial General Intelligence): Una rivoluzione che trasforma radicalmente le strutture economiche e i mercati del lavoro a livello globale.Infine, discuteremo le azioni chiave che i responsabili politici del G7 possono intraprendere per massimizzare i benefici dell'AI, inclusa la necessità di una maggiore coordinazione sulla sicurezza e integrità dei dati AI e di potenziali investimenti congiunti nelle infrastrutture.
Benvenuti nell'episodio che svela il vero valore dell'IA generativa (Gen AI) per le imprese globali. Basato su un sondaggio di 2.500 leader senior di aziende con ricavi superiori a 10 milioni di dollari, condotto da Google Cloud e National Research Group, questo podcast esplora come la Gen AI sia molto più di una tecnologia: è un potente motore di crescita finanziaria e trasformazione aziendale.Scoprirete che il 74% delle aziende che utilizzano la Gen AI in produzione ottiene un ritorno sull'investimento (ROI) entro il primo anno, con l'86% che vede un aumento dei ricavi del 6% o più. Approfondiremo come la Gen AI stia raddoppiando la produttività dei dipendenti per il 45% delle organizzazioni, stimolando direttamente la crescita aziendale per il 63%, migliorando l'esperienza utente (con l'85% che riporta un maggiore coinvolgimento) e rafforzando la postura di sicurezza (il 56% delle organizzazioni riporta miglioramenti).Analizzeremo il ruolo cruciale della leadership C-suite, in particolare il supporto esecutivo completo, nel massimizzare questi benefici, con il 91% delle organizzazioni con un forte sostegno a livello C-suite che stima un aumento dei ricavi del 6% o più. Verrà discussa anche la velocità sorprendente con cui le idee Gen AI si trasformano in produzione, con l'84% delle organizzazioni che completano il processo in meno di sei mesi, accelerando significativamente il tempo di acquisizione del valore.Faremo luce sulle "Gen AI Leaders", quel 16% di organizzazioni d'élite che hanno raggiunto le performance finanziarie più elevate grazie alle iniziative Gen AI. Queste aziende superano i loro pari per guadagni di ricavo e miglioramenti dell'efficienza operativa. Le Gen AI Leaders scommettono in grande con investimenti finanziari sostanziali, allineano gli obiettivi tecnologici ai risultati di business e creano team dedicati all'IA generativa.Infine, vi forniremo sette strategie fondamentali per la vostra azienda, basate sui risultati della ricerca globale:• Costruire un supporto C-suite unificato.• Concentrarsi sulle aree centrali del business.• Iniziare con "vittorie rapide" che offrano benefici misurabili.• Tenere d'occhio i propri dati.• Investire in progetti di trasformazione.• Mirare a rafforzare la sicurezza aziendale con la Gen AI.• Sviluppare il proprio talento AI.Non perdete questa panoramica essenziale su come l'IA generativa stia rivoluzionando il panorama del business, rendendola uno strumento indispensabile per la competitività futura.
L'Italia si sta posizionando come leader responsabile nel panorama globale dell'Intelligenza Artificiale, adottando un approccio duplice che unisce l'implementazione dell'EU AI Act allo sviluppo di una propria legislazione nazionale. Questo include il proposto "Provisions and Delegations to the Government Concerning Artificial Intelligence" (AI Bill o DDL 1146), approvato dal Senato il 20 marzo 2025 e modificato dalla Camera dei Deputati il 25 giugno 2025. Il DDL 1146 delinea principi fondamentali come la centralità umana, la trasparenza, la proporzionalità, la sicurezza, la protezione dei dati personali, la non discriminazione, la parità dei sessi e la sostenibilità, con applicazioni specifiche in settori cruciali come la giustizia, il lavoro, la pubblica amministrazione, la sanità e le professioni intellettuali. La cybersicurezza è riconosciuta come precondizione essenziale lungo tutto il ciclo di vita dei sistemi di intelligenza artificiale. Il DDL mira inoltre a garantire il pieno accesso all'AI per le persone con disabilità.La strategia nazionale per l'AI (2022–2024) e iniziative strategiche come il programma Future Artificial Intelligence Research (FAIR) promuovono un ecosistema multidisciplinare orientato ai valori. Si pone enfasi su sistemi AI robusti, socialmente simbiotici, ambientalmente sostenibili ed eticamente affidabili. L'Italia punta sulla ricerca di frontiera, inclusa l'AI centrata sull'uomo, l'AI verde, l'AI bio-socio-cognitiva e l'AI edge/exascale. Lo sviluppo dell'innovazione è supportato da modelli di ricerca hub-and-spoke, programmi di dottorato come PhD-AI.it e avanzate infrastrutture di High-Performance Computing (HPC), tra cui il supercomputer Leonardo e iniziative come IT4LIA AI Factory e AI4Industry Foundation a Torino.Vengono promossi investimenti fino a un miliardo di euro per sostenere le piccole e medie imprese (PMI) e le startup nei settori AI, cybersecurity e tecnologie abilitanti. Le autorità nazionali designate per la supervisione dell'AI includono l'Agenzia per l'Italia Digitale (AgID) e l'Agenzia per la Cybersicurezza Nazionale (ACN). AgID è responsabile della promozione dell'innovazione e dello sviluppo dell'AI, oltre a definire procedure per notifica, valutazione, accreditamento e monitoraggio. ACN è responsabile della vigilanza, incluse ispezioni e sanzioni, e della promozione dell'AI per i profili di cybersicurezza. Tuttavia, la loro indipendenza è oggetto di attenzione da parte della Commissione Europea. L'Autorità Garante per la Protezione dei Dati Personali (DPA) svolge un ruolo centrale nella supervisione e nelle azioni di enforcement relative all'AI, avendo mantenuto un'unità AI dedicata dal 2021 e avendo intrapreso azioni di enforcement per l'abuso di dati legati all'AI.Nonostante i notevoli progressi, permangono delle sfide strutturali, in particolare nella commercializzazione dei risultati della ricerca e nell'adozione dell'AI da parte delle PMI. Le piccole e medie imprese incontrano difficoltà tecniche e operative, esperienza aziendale limitata, capacità di investimento ridotta, mancanza di quadri interni e infrastrutture adeguate, difficoltà nel trovare partner tecnologici affidabili, cultura digitale limitata tra i dirigenti e resistenza al cambiamento nella forza lavoro. L'Italia, con un punteggio complessivo di 71.22 nell'AI Readiness Index e performance particolarmente forti nella Governance (78.64) e in Data & Infrastructure (81.88), mira a costruire un ecosistema AI responsabile, rispettoso dei diritti e favorevole all'innovazione, allineando il progresso tecnologico con i valori democratici e gli obiettivi di sostenibilità.
Esplora l'approccio di Microsoft all'intelligenza artificiale responsabile, focalizzandoti sul suo Report di Trasparenza sull'AI Responsabile 2025. Scopri come l'azienda costruisce sistemi AI generativi, supporta i propri clienti e fa evolvere queste tecnologie, basandosi su quasi un decennio di esperienza consolidata nella governance. Approfondiremo le quattro funzioni chiave del framework NIST per la gestione dei rischi nel ciclo di vita dello sviluppo AI: Govern, Map, Measure e Manage.Il podcast illustrerà gli investimenti cruciali effettuati nel 2024 in strumenti avanzati per la misurazione e la mitigazione dei rischi, l'implementazione proattiva delle nuove normative emergenti come l'EU AI Act e una gestione rigorosa dei casi d'uso più sensibili. Ascolterai come la ricerca continua, le collaborazioni con gli stakeholder globali e l'impegno per la trasparenza e la sicurezza guidano l'innovazione responsabile di Microsoft. Saranno discussi esempi pratici come lo sviluppo dei modelli Phi, le funzionalità di Microsoft 365 Copilot e l'applicazione di Smart Impression in ambito medico, evidenziando come Microsoft equipaggi i suoi clienti con gli strumenti e le conoscenze necessarie per navigare il panorama dell'IA in continua evoluzione, garantendo che la tecnologia AI sia affidabile e benefica per tutti.
Benvenuti al nostro podcast, un'esplorazione approfondita dello stato attuale della sicurezza dell'Intelligenza Artificiale (IA) in Cina. Basandoci sul rapporto "State of AI Safety in China (2025)" di Concordia AI, analizziamo come la Cina stia affrontando le sfide poste dall'IA di uso generale, in particolare l'uso improprio pericoloso, gli incidenti e la perdita di controllo, rischi che richiedono una cooperazione internazionale senza precedenti.In questo episodio, copriremo cinque aree chiave per fornirvi una comprensione completa:• Governance Interna: Il governo cinese ha elevato formalmente la sicurezza dell'IA a priorità nazionale, come evidenziato al Terzo Plenum del 2024 e in una sessione di studio del Politburo nell'aprile 2025, richiedendo sistemi di monitoraggio, allerta precoce e risposta alle emergenze. Questo approccio sottolinea la complementarità tra sicurezza e sviluppo dell'IA, descritta come l'accelerazione di un'auto solo quando i freni sono sotto controllo. Esamineremo come la Cina stia implementando le normative attraverso un sistema di standard in rapida espansione, con l'intenzione di affrontare anche rischi severi come l'impatto sulla cybersecurity o la perdita di controllo.• Governance Internazionale: La Cina ha posto l'accento sulla sicurezza dell'IA e lo sviluppo delle capacità globali nella sua diplomazia, promuovendo una governance centrata sulle Nazioni Unite e mettendo in guardia contro una corsa agli armamenti dell'IA. Vi illustreremo i dialoghi bilaterali con paesi chiave come Stati Uniti (dove si è concordato sulla necessità di mantenere il controllo umano sui sistemi nucleari) e Regno Unito, e le iniziative di capacity-building nel Sud globale.• Ricerca Tecnica sulla Sicurezza: La produzione di ricerca sulla sicurezza dell'IA "di frontiera" in Cina è raddoppiata rapidamente nell'ultimo anno. Discuteremo l'espansione dell'interesse in aree precedentemente poco esplorate come l'allineamento dei sistemi superumani e l'interpretabilità meccanicistica, oltre a studi su inganno, disapprendimento e uso improprio in scenari CBRN (chimici, biologici, radiologici e nucleari).• Visioni degli Esperti: L'interesse per la sicurezza e la governance dell'IA è cresciuto significativamente tra gli esperti cinesi. Analizzeremo le discussioni approfondite sui rischi dell'IA per la biosicurezza, l'impatto sulla cybersecurity (considerando l'IA una "spada a doppio taglio") e le dinamiche di governance dell'IA open source, riconoscendo sia i benefici che i potenziali rischi di uso improprio.• Governance dell'Industria: Esploreremo gli "Impegni per la Sicurezza dell'IA" volontari firmati dalla maggior parte degli sviluppatori cinesi di modelli fondazionali. Sebbene le aziende implementino misure di sicurezza standard, la trasparenza sulle valutazioni di sicurezza rimane limitata. Inoltre, discuteremo l'emergente settore del "safety as a service", dove fornitori di terze parti offrono strumenti e infrastrutture per aiutare le aziende a conformarsi alle normative.Questo podcast offre una comprensione essenziale del ruolo cruciale della Cina nella sicurezza globale dell'IA, un campo che richiede comprensione reciproca e coordinamento internazionale in un contesto geopolitico complesso.