
نشر فريق من باحثي OpenAI بقيادة "آدم تاومان كالاي" و"إدوين زانغ" و"أوفير ناخوم"، بالتعاون مع "سانتوش س. فيمبالا "من جامعة جورجيا للتكنولوجيا، دراسة علمية في الرابع من سبتمبر 2025.
قدمت الدراسة إطاراً رياضياً شاملاً يفسر لماذا تنتج أنظمة الذكاء الاصطناعي معلومات تبدو منطقية لكنها خاطئة، حتى عند تدريبها على بيانات مثالية.
وصف الباحثون الظاهرة بتشبيه مشكلة الهلوسة : “مثل الطلاب الذين يواجهون أسئلة امتحان صعبة، فإن النماذج اللغوية الكبيرة تخمن أحياناً عندما تكون غير متأكدة، وتنتج عبارات معقولة، ولكنها غير صحيحة بدلاً من الاعتراف بعدم اليقين”.
*الرابط لقراءة مقال المدونة NewsFrontPage
هذا البودكاست بصوتٍ مولّدٍ باستخدام تقنيات الذكاء الاصطناعيNoteBookLM النص : من مدونة NewsFrontPage
إشارة البودكاست أصوات مولدة بتقنياتText To Speech من موقع ElevenLabs
المقدمة الموسيقية :منTony Vodnik from Pixabay