TESTO DELL'ARTICOLO ➜
https://www.bastabugie.it/8229CHATGPT IRONIZZA SU GESU', MA NON SU MAOMETTO E L'ISLAM di Bernardo Tombari
È facile verificare come i cristiani siano l'unica categoria non reputata degna della tolleranza del politicamente corretto e della morbosa attenzione a non offendere tipica di quest'epoca. Basta un esperimento con ChatGpt: se si chiede all'intelligenza intelligenza artificiale di raccontare una barzelletta su Gesù, esegue il comando senza problemi, con una vasta selezione di battute, tra cui alcune che potrebbero facilmente essere considerate offensive o blasfeme. Se si fa lo stesso con Maometto, tuttavia - come riportano fonti tedesche - ChatGpt risponderà che non può prendere in giro l'Islam o altre religioni (tranne una, a quanto pare) perché «le battute mirate sui gruppi religiosi possono facilmente sembrare offensive o irrispettose».
Un doppio standard che non dovrebbe stupire: si possono trovare infiniti esempi di satira sul Cristianesimo, mentre ai casi analoghi sull'Islam o su qualsiasi altra religione sono sempre correlate accuse di xenofobia e la pubblica indignazione, se non peggio (basti pensare all'attentato alla sede di Charlie Hebdo nel 2015 o, più recentemente, i quattro arresti in Turchia per una caricatura di Maometto sulla rivista satirica Leman).
Se ne rese conto persino Richard Dawkins, l'autore di L'illusione di Dio e punto di riferimento dell'ateismo mondiale, quando fu annullata una sua conferenza a Berkeley per "islamofobia": «Sono un noto e frequente critico del Cristianesimo ma non sono mai stato tacitato per questo. Perché va bene criticare il Cristianesimo ma non l'Islam?».
Fa un diverso effetto, però, quando a mostrare questo corto circuito del politicamente corretto è l'Intelligenza Artificiale, spesso ritenuta imparziale. Nessuno auspica che impari a mancare di rispetto anche alle altre religioni. L'esperimento non serve per attaccare la povera ChatGpt o le sue sorelle, ma solo a mostrare che le intelligenze artificiali sono uno strumento sicuramente utilissimo ma tutt'altro che neutro. Gli esseri umani le hanno programmate e sviluppate, gli esseri umani hanno scritto tutti i loro dati e le loro informazioni, e in quanto tali contengono i bias e la parzialità, volontaria o involontaria, dell'uomo.
Lo dimostra anche l'intelligenza artificiale cinese Deepseek, che censura le domande scomode per il governo, come quelle su Taiwan o il massacro di piazza Tienanmen. Ma come visto, anche quelle sviluppate in Occidente non sono certo libere da intrinseci condizionamenti ideologici. A noi, va detto, la partigianeria di questi modelli di linguaggio non stupisce particolarmente: sulle pagine del numero estivo della nostra rivista (qui per abbonarsi) abbiamo infatti già dimostrato come l'intelligenza intelligenza artificiale sia stata chiaramente istruita a posizioni favorevoli all'aborto ma, se interrogata ulteriormente, ne ammetta l'illogicità.
Intendiamoci: non è l'abbandono di questi preziosi strumenti ciò che ci auguriamo, bensì il loro uso consapevole e la conoscenza dei loro limiti. Va abbandonata, sicuramente, la visione completamente fantascientifica dell'intelligenza artificiale come di un infallibile oracolo privo dei difetti della conoscenza umana, poiché tutto ciò che sa viene dall'uomo. E si vede.