Home
Categories
EXPLORE
True Crime
Comedy
Society & Culture
Business
Sports
History
TV & Film
About Us
Contact Us
Copyright
© 2024 PodJoint
00:00 / 00:00
Sign in

or

Don't have an account?
Sign up
Forgot password
https://is1-ssl.mzstatic.com/image/thumb/Podcasts116/v4/27/57/57/27575790-2a89-cef1-6e11-b0ab6ddd3102/mza_10826954763634757347.jpg/600x600bb.jpg
Besser Früh als Nie
Fritz Espenlaub & Marc Stöckli
58 episodes
1 week ago
Ungewöhnliche Themen aus Wissenschaft, Technik, und Gesellschaft, locker und humorvoll präsentiert. Egal ob es sich um grundlegende Menschheitsfragen handelt oder spezialisierte Nischenthemen — wir gehen in die Recherche, denken uns ein, und machen die Dinge verständlich für euch. Dabei greifen wir oft auf unser Hintergrundwissen aus der VWL zurück, denn erstaunlich viele Themen lassen sich klarer strukturieren, wenn man sie durch eine ökonomische Linse betrachtet.
Show more...
Science
RSS
All content for Besser Früh als Nie is the property of Fritz Espenlaub & Marc Stöckli and is served directly from their servers with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
Ungewöhnliche Themen aus Wissenschaft, Technik, und Gesellschaft, locker und humorvoll präsentiert. Egal ob es sich um grundlegende Menschheitsfragen handelt oder spezialisierte Nischenthemen — wir gehen in die Recherche, denken uns ein, und machen die Dinge verständlich für euch. Dabei greifen wir oft auf unser Hintergrundwissen aus der VWL zurück, denn erstaunlich viele Themen lassen sich klarer strukturieren, wenn man sie durch eine ökonomische Linse betrachtet.
Show more...
Science
https://d3t3ozftmdmh3i.cloudfront.net/production/podcast_uploaded_nologo/8817114/8817114-1681159031027-d17ff62fe898c.jpg
#55 Schluss mit "gefährlichen Experimenten"? Warum die KI-Untergangspropheten Recht haben könnten.
Besser Früh als Nie
1 hour 2 minutes 3 seconds
2 years ago
#55 Schluss mit "gefährlichen Experimenten"? Warum die KI-Untergangspropheten Recht haben könnten.

Ein sofortiges KI-Moratorium, damit wir nicht bald alle drauf gehen - das ist die Forderung in einem neuen offenen Brief, unterzeichnet von zahlreichen KI-Spitzenforscher:innen, sowie unter anderem von Apple-Mitgründer Steve Wozniak, Elon Musk oder Yuval Noah Harari. Wir blicken (schon wieder) auf die rasanten aktuellen Entwicklungen im Bereich der künstlichen Intelligenz und fragen: Was ist dran an den Argumenten im offenen Brief der "AI-Safety"-Befürworter? Wie gut sind die Gegenargumente? Und wie soll das alles weitergehen?


Linkliste

Der offene Brief: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

OpenAI über AGI: https://openai.com/blog/planning-for-agi-and-beyond

Mehr Argumente, dass AGI gefährlich werden könnte: https://www.cold-takes.com/ai-could-defeat-all-of-us-combined/

Sparks of Artificial General Intelligence: Early experiments with GPT-4: https://arxiv.org/abs/2303.12712

Besser Früh als Nie
Ungewöhnliche Themen aus Wissenschaft, Technik, und Gesellschaft, locker und humorvoll präsentiert. Egal ob es sich um grundlegende Menschheitsfragen handelt oder spezialisierte Nischenthemen — wir gehen in die Recherche, denken uns ein, und machen die Dinge verständlich für euch. Dabei greifen wir oft auf unser Hintergrundwissen aus der VWL zurück, denn erstaunlich viele Themen lassen sich klarer strukturieren, wenn man sie durch eine ökonomische Linse betrachtet.