Home
Categories
EXPLORE
True Crime
Comedy
Society & Culture
Business
Sports
Technology
Health & Fitness
About Us
Contact Us
Copyright
© 2024 PodJoint
Podjoint Logo
US
00:00 / 00:00
Sign in

or

Don't have an account?
Sign up
Forgot password
https://is1-ssl.mzstatic.com/image/thumb/Podcasts221/v4/86/9d/8d/869d8daf-5a3f-9728-07ec-8f4bbca6d1ed/mza_2938023317847416143.jpg/600x600bb.jpg
Attualità - BastaBugie.it
BastaBugie
119 episodes
6 days ago
Commenti controcorrente delle notizie della settimana
Show more...
News
RSS
All content for Attualità - BastaBugie.it is the property of BastaBugie and is served directly from their servers with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
Commenti controcorrente delle notizie della settimana
Show more...
News
https://d3wo5wojvuv7l.cloudfront.net/t_rss_itunes_square_1400/images.spreaker.com/original/1cb74b51716880cffd35538d56eabdab.jpg
Chi si affida all'intelligenza artificiale scrive meno, pensa peggio e perde se stesso
Attualità - BastaBugie.it
8 minutes
1 month ago
Chi si affida all'intelligenza artificiale scrive meno, pensa peggio e perde se stesso
TESTO DELL'ARTICOLO ➜ https://www.bastabugie.it/8284

CHI SI AFFIDA ALL’INTELLIGENZA ARTIFICIALE SCRIVE MENO, PENSA PEGGIO E PERDE SE STESSO di Manuela Antonacci
 
ChatGPT è un chatbot che sfrutta l’intelligenza artificiale, progettato per comprendere e generare messaggi di testo simili a quelli umani, consentendo agli utenti di ottenere risposte a domande di vario tipo, dettagliate e coerenti. In teoria sarebbe una gran cosa, ma studi recenti hanno rivelato che gli studenti che utilizzano ChatGPT per la scrittura di saggi mostrano un coinvolgimento cerebrale molto più debole di chi non ne fa uso, arrivando anche ad erodere le capacità di pensiero critico, secondo un nuovo studio del MIT (Massachusetts Institute of Technology).
Lo studio ha diviso 54 soggetti, di età compresa tra i 18 e i 39 anni dell’area di Boston, in tre gruppi e ha chiesto loro di scrivere diversi saggi utilizzando rispettivamente ChatGPT di OpenAI, Google o semplicemente la propria testa. I ricercatori hanno, poi, usato un encefalogramma per registrare l’attività cerebrale degli scrittori scansionando 32 diverse regioni del cervello e hanno scoperto che dei tre gruppi, gli utenti di ChatGPT presentavano l’attività cerebrale più scarsa ed erano «costantemente sottoperformanti a livello neurale, linguistico e comportamentale».
Non solo, il gruppo che ha scritto saggi utilizzando ChatGPT ha consegnato elaborati estremamente simili che mancavano di pensiero originale, perché venivano impiegate le stesse idee e le stesse espressioni. Due insegnanti di inglese che hanno valutato i saggi li hanno definiti «senz’anima». Gli esami hanno, poi, rivelato un basso controllo esecutivo e un basso coinvolgimento attentivo. E al loro terzo saggio, molti degli scrittori  hanno semplicemente fatto fare quasi tutto il lavoro a ChatGPT. Ciò conferma i danni dell’Intelligenza artificiale già evidenziati sulle pagine della nostra rivista.
In più, il MIT Media Lab ha recentemente dedicato risorse significative allo studio dei diversi impatti degli strumenti di intelligenza artificiale generativa, che hanno rilevato anche che in generale, più tempo gli utenti trascorrono a parlare con ChatGPT, più si sentono soli. Probabilmente perché Il rischio maggiore è quello di perdere di vista innanzitutto il rapporto con noi stessi, la consapevolezza delle nostra capacità, convincendoci di «non essere più in grado» di affrontare sfide complesse senza l’aiuto della tecnologia.
Infine, affidarsi tanto all’intelligenza artificiale nell’elaborazione di compiti che la mente umana può tranquillamente svolgere da sola, a ben vedere, porta a perdere anche il gusto del fare, del creare e dunque mina lo sviluppo della creatività stessa. Dunque la tecnologia può aiutarci, questo è fuori discussione; non deve sostituirci, ecco il punto. Anche perché la strada del miglioramento, se ci pensiamo, è quella che percorriamo quando ci mettiamo alla prova e impariamo ad accettare i nostri errori.
Nota di BastaBugie: Daniele Ciacci nell'articolo seguente dal titolo "Intelligenza artificiale per i bambini. Gemini apre ai minori di 13 anni" si chiede quali siano i rischi per i bambini. Come cresceranno se avranno a che fare sin da subito con un software che imita l'uomo? La conclusione è che questo sia un esperimento sociale pericoloso.
Ecco l'articolo completo pubblicato su La Nuova Bussola Quotidiana il 16 maggio 2025:
In un'era digitale dove la tecnologia avanza più velocemente della nostra capacità di comprenderne le conseguenze, Google ha annunciato l'apertura del suo sistema di intelligenza artificiale Gemini ai bambini sotto i 13 anni. Una mossa che solleva profonde preoccupazioni sul benessere psicologico ed emotivo dei più giovani, già vulnerabili agli effetti dei social network.
Il gigante tecnologico permetterà l'accesso al suo sistema di intelligenza...
Attualità - BastaBugie.it
Commenti controcorrente delle notizie della settimana