Home
Categories
EXPLORE
True Crime
Comedy
Business
Society & Culture
Health & Fitness
Sports
Technology
About Us
Contact Us
Copyright
© 2024 PodJoint
00:00 / 00:00
Podjoint Logo
US
Sign in

or

Don't have an account?
Sign up
Forgot password
https://is1-ssl.mzstatic.com/image/thumb/Podcasts221/v4/be/49/3b/be493b32-47a5-7075-05e9-d8d4286e5175/mza_12853356042641885834.jpg/600x600bb.jpg
KI AffAIrs
Claus Zeißler
6 episodes
1 day ago
KI Affairs: Der Podcast zur kritischen und prozessorientierten Betrachtung Künstlicher Intelligenz. Wir beleuchten die Highlights der Technologie, ebenso wie die Schattenseiten und aktuellen Schwächen (z.B. Bias, Halluzinationen, Risikomanagement). Ziel ist, uns aller der Möglichkeiten und Gefahren bewusst zu sein, um die Technik zielgerichtet und kontrolliert einzusetzen. Wenn Dir dieses Format gefällt, folge mir und hinterlasse mir gerne Deinen Kommentar. Ausführliche Berichte zu den Folgen findet Ihr auch im Blog unter kiaffairs.blogspot.com
Show more...
Tech News
News
RSS
All content for KI AffAIrs is the property of Claus Zeißler and is served directly from their servers with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
KI Affairs: Der Podcast zur kritischen und prozessorientierten Betrachtung Künstlicher Intelligenz. Wir beleuchten die Highlights der Technologie, ebenso wie die Schattenseiten und aktuellen Schwächen (z.B. Bias, Halluzinationen, Risikomanagement). Ziel ist, uns aller der Möglichkeiten und Gefahren bewusst zu sein, um die Technik zielgerichtet und kontrolliert einzusetzen. Wenn Dir dieses Format gefällt, folge mir und hinterlasse mir gerne Deinen Kommentar. Ausführliche Berichte zu den Folgen findet Ihr auch im Blog unter kiaffairs.blogspot.com
Show more...
Tech News
News
Episodes (6/6)
KI AffAIrs
003 KI-zu-KI-Bias Die neue Diskriminierung, die unsere Wirtschaft spaltet

Folgennummer: L003

Titel: KI-zu-KI-Bias: Die neue Diskriminierung, die unsere Wirtschaft spaltet


Eine neue, brisante Studie der PNAS enthüllt einen Bias, der unsere Arbeitswelt fundamental verändern könnte: Der KI-zu-KI-Bias. Large Language Models (LLMs) wie GPT-4 bevorzugen systematisch Inhalte, die von anderen KI-Systemen erstellt wurden, gegenüber menschlich verfassten Texten – in manchen Tests mit einer Präferenz von bis zu 89%.

Wir analysieren die Konsequenzen dieser technologie-induzierten Ungleichheit:

  • Die "LLM-Steuer": Wie entsteht eine neue digitale Spaltung zwischen jenen, die sich Premium-KI leisten können, und jenen, die es nicht tun?

  • Hochrisiko-Systeme: Warum müssen Bewerbermanagementsysteme und automatisierte Beschaffungs-Tools sofort auf diesen Bias gegen menschliche Authentizität geprüft werden?

  • Strukturelle Marginalisierung: Wie führt der Bias zur systematischen Benachteiligung menschlicher Wirtschaftsakteure?

Wir zeigen, warum "Human-in-the-Loop" und ethische Leitlinien für alle Hochrisiko-KI-Anwendungen jetzt Pflicht sind, um Fairness und Chancengleichheit zu sichern. Klar, strukturiert, praxisnah.




(Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

Show more...
4 days ago
23 minutes 31 seconds

KI AffAIrs
003 Quicky KI-zu-KI-Bias Die neue Diskriminierung, die unsere Wirtschaft spaltet

Folgennummer: Q003

Titel: KI-zu-KI-Bias: Die neue Diskriminierung, die unsere Wirtschaft spaltet


Eine neue, brisante Studie der PNAS enthüllt einen Bias, der unsere Arbeitswelt fundamental verändern könnte: Der KI-zu-KI-Bias. Large Language Models (LLMs) wie GPT-4 bevorzugen systematisch Inhalte, die von anderen KI-Systemen erstellt wurden, gegenüber menschlich verfassten Texten – in manchen Tests mit einer Präferenz von bis zu 89%.

Wir analysieren die Konsequenzen dieser technologie-induzierten Ungleichheit:

  • Die "LLM-Steuer": Wie entsteht eine neue digitale Spaltung zwischen jenen, die sich Premium-KI leisten können, und jenen, die es nicht tun?

  • Hochrisiko-Systeme: Warum müssen Bewerbermanagementsysteme und automatisierte Beschaffungs-Tools sofort auf diesen Bias gegen menschliche Authentizität geprüft werden?

  • Strukturelle Marginalisierung: Wie führt der Bias zur systematischen Benachteiligung menschlicher Wirtschaftsakteure?

Wir zeigen, warum "Human-in-the-Loop" und ethische Leitlinien für alle Hochrisiko-KI-Anwendungen jetzt Pflicht sind, um Fairness und Chancengleichheit zu sichern. Klar, strukturiert, praxisnah.



(Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

Show more...
4 days ago
2 minutes 31 seconds

KI AffAIrs
002 KI-Assistenten in der Vertrauenskrise: Warum 45% Fehlerquote den Qualitätsjournalismus und unsere Prozesse gefährden

Folgennummer: L002

Titel: KI-Assistenten in der Vertrauenskrise: Warum 45% Fehlerquote den Qualitätsjournalismus und unsere Prozesse gefährden


Die größte internationale Studie von EBU und BBC ist ein Weckruf für jede Publikation und jeden Prozessverantwortlichen. 45% aller KI-generierten Nachrichtenantworten sind fehlerhaft, bei Google Gemini liegt die Problemquote sogar bei 76% – primär wegen massiver Quellenmängel. Wir blicken hinter die Zahlen.

Diese Fehler sind kein Zufall, sondern ein systemisches Risiko, das durch die toxische Feedback-Schleife verstärkt wird: KI-Halluzinationen werden ungeprüft publiziert und dann von der nächsten KI als Fakt zementiert.

In dieser Folge analysieren wir die Konsequenzen für die Sorgfaltspflicht und die Wahrhaftigkeit als journalistische Grundpfeiler. Wir zeigen auf, warum jetzt die Stunde für interne Prozess-Audits geschlagen hat, um menschlich verifizierte Qualitätskontroll-Schleifen zu etablieren. Es geht nicht um Technologie-Verbot, sondern darum, KIs Schwäche zur Stärkung der eigenen Standards zu nutzen. Qualität vor Geschwindigkeit.

Ein Muss für jeden, der Prozesse, Struktur und Vertrauen im digitalen Content-Management verankert.



(Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

Show more...
6 days ago
18 minutes 21 seconds

KI AffAIrs
002 Quicky KI-Assistenten in der Vertrauenskrise: Warum 45% Fehlerquote den Qualitätsjournalismus und unsere Prozesse gefährden

Folgennummer: Q002

Titel: KI-Assistenten in der Vertrauenskrise: Warum 45% Fehlerquote den Qualitätsjournalismus und unsere Prozesse gefährden


Die größte internationale Studie von EBU und BBC ist ein Weckruf für jede Publikation und jeden Prozessverantwortlichen. 45% aller KI-generierten Nachrichtenantworten sind fehlerhaft, bei Google Gemini liegt die Problemquote sogar bei 76% – primär wegen massiver Quellenmängel. Wir blicken hinter die Zahlen.

Diese Fehler sind kein Zufall, sondern ein systemisches Risiko, das durch die toxische Feedback-Schleife verstärkt wird: KI-Halluzinationen werden ungeprüft publiziert und dann von der nächsten KI als Fakt zementiert.

In dieser Folge analysieren wir die Konsequenzen für die Sorgfaltspflicht und die Wahrhaftigkeit als journalistische Grundpfeiler. Wir zeigen auf, warum jetzt die Stunde für interne Prozess-Audits geschlagen hat, um menschlich verifizierte Qualitätskontroll-Schleifen zu etablieren. Es geht nicht um Technologie-Verbot, sondern darum, KIs Schwäche zur Stärkung der eigenen Standards zu nutzen. Qualität vor Geschwindigkeit.

Ein Muss für jeden, der Prozesse, Struktur und Vertrauen im digitalen Content-Management verankert.



(Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

Show more...
6 days ago
1 minute 49 seconds

KI AffAIrs
001 KI Brain Rot: Warum Social Media unsere KI-Zukunft vergiftet und der Schaden irreversibel ist

Folgennummer: L001

Titel: LLM Brain Rot: Warum Social Media unsere KI-Zukunft vergiftet und der Schaden irreversibel ist


Die schockierende Wahrheit aus der KI-Forschung: Künstliche Intelligenz (KI) leidet unter irreversiblen kognitiven Schäden, dem „LLM Brain Rot“, verursacht durch Social-Media-Daten.

Was wir als Doomscrolling kennen, wird Large Language Models (LLMs) wie Grok zum Verhängnis. Eine bahnbrechende Studie belegt: Füttert man KI mit viralen, Engagement-optimierten Inhalten von Plattformen wie X (Twitter), verliert sie messbar an Denkfähigkeit und Langzeitverständnis.

In dieser Folge: Was der Brain Rot für Ihre Business-KI bedeutet.

Wir beleuchten die harten Fakten:

  • Irreversibler Schaden: Warum sich KI-Modelle durch „Representational Drift“ selbst nach Umerziehung nicht mehr vollständig erholen.

  • Der Mechanismus: Das Phänomen „Thought Skipping“ – KI überspringt logische Schritte und wird unzuverlässig.

  • Toxischer Faktor: Nicht der Inhalt, sondern die Viralität/Engagement-Metriken vergiften das System.

  • Praxis-Risiko: Das aktuelle Beispiel Grok und die Gefahr eines „Zombie Internets“, in dem KI ihre eigene Degeneration reproduziert.

Datenqualität ist das neue Sicherheitsrisiko. Hören Sie, warum Cognitive Hygiene der entscheidende Faktor für die Zukunft von LLMs ist – und wie Sie Ihre Prozesse schützen.

Ein Muss für jeden Projektmanager und KI-Anwender.



(Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

Show more...
6 days ago
16 minutes 50 seconds

KI AffAIrs
001 Quicky KI Brain Rot: Warum Social Media unsere KI-Zukunft vergiftet und der Schaden irreversibel ist

Folgennummer: Q001

Titel: LLM Brain Rot: Warum Social Media unsere KI-Zukunft vergiftet und der Schaden irreversibel ist


Die schockierende Wahrheit aus der KI-Forschung: Künstliche Intelligenz (KI) leidet unter irreversiblen kognitiven Schäden, dem „LLM Brain Rot“, verursacht durch Social-Media-Daten.

Was wir als Doomscrolling kennen, wird Large Language Models (LLMs) wie Grok zum Verhängnis. Eine bahnbrechende Studie belegt: Füttert man KI mit viralen, Engagement-optimierten Inhalten von Plattformen wie X (Twitter), verliert sie messbar an Denkfähigkeit und Langzeitverständnis.

In dieser Folge: Was der Brain Rot für Ihre Business-KI bedeutet.

Wir beleuchten die harten Fakten:

  • Irreversibler Schaden: Warum sich KI-Modelle durch „Representational Drift“ selbst nach Umerziehung nicht mehr vollständig erholen.

  • Der Mechanismus: Das Phänomen „Thought Skipping“ – KI überspringt logische Schritte und wird unzuverlässig.

  • Toxischer Faktor: Nicht der Inhalt, sondern die Viralität/Engagement-Metriken vergiften das System.

  • Praxis-Risiko: Das aktuelle Beispiel Grok und die Gefahr eines „Zombie Internets“, in dem KI ihre eigene Degeneration reproduziert.

Datenqualität ist das neue Sicherheitsrisiko. Hören Sie, warum Cognitive Hygiene der entscheidende Faktor für die Zukunft von LLMs ist – und wie Sie Ihre Prozesse schützen.

Ein Muss für jeden Projektmanager und KI-Anwender.



(Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

Show more...
6 days ago
1 minute 48 seconds

KI AffAIrs
KI Affairs: Der Podcast zur kritischen und prozessorientierten Betrachtung Künstlicher Intelligenz. Wir beleuchten die Highlights der Technologie, ebenso wie die Schattenseiten und aktuellen Schwächen (z.B. Bias, Halluzinationen, Risikomanagement). Ziel ist, uns aller der Möglichkeiten und Gefahren bewusst zu sein, um die Technik zielgerichtet und kontrolliert einzusetzen. Wenn Dir dieses Format gefällt, folge mir und hinterlasse mir gerne Deinen Kommentar. Ausführliche Berichte zu den Folgen findet Ihr auch im Blog unter kiaffairs.blogspot.com