Heute geht es zum einen um Nachhaltigkeitsaspekte bei der Nutzung und dem Training von ChatGPT und zum anderen darum, warum das eigentlich so ist. Woher kommen diese zum Teil sehr hohen Hardware-Anforderungen zum Betreiben von Sprachmodellen?
Am Ende der Folge kennt ihr den Unterschied zwischen einer CPU und einer GPU, wisst, warum GPU energieintensiver sind und welche Einheiten wir zum Messen verwenden.
Außerdem nenne ich ein paar Zahlen zum Energie- und Wasserverbrauch aus dieser Studie:
https://www.lbbw-am.de/fileadmin/Studien/2024-06-14_Blickpunkt_KI_und_Nachhaltigkeit.pdf
Viel Spaß beim Zuhören! :)
KI gibt es doch erst seit ChatGPT - oder? Nein! Wie lange beschäftigt uns das Thema Künstliche Intelligenz eigentlich schon? Was waren die Anfänge und was gilt als die Geburtsstunde der KI?
Mit diesem Thema befassen wir uns in dieser Folge. Schreibt gerne, welche Meilensteine ihr als nächstes erwartet und ob es vielleicht bald einen dritten KI-Winter geben könnte.
Viel Spaß beim Hören! :)
Wow - was für eine erste Staffel. Wir haben so viele Themen angeschnitten. Umso sinnvoller fand ich es, zum Abschluss ein kleines Quiz für euch vorzubereiten. So könnt ihr euer Grundlagenwissen rund um Künstliche Intelligenz, Machine Learning und Deep Learning einmal testen.
Das Quiz findet ihr hier: https://forms.gle/SybnpVx8ZwGeUof76
Löst es gerne selbstständig und hört ggfs. nochmal in die einzelnen Folgen.
Von mir ein fettes Dankeschön bis hierher. Es war eine spannende Reise und ich bin extrem motiviert weiterzumachen. In der nächsten Staffel erwarten euch neue und interessante Themen. Bleibt wie immer neugierig und kritisch.
Bis zur nächsten Staffel! :) Euer Marc.
Künstliche Intelligenz bietet scheinbar grenzenlose Möglichkeiten. Doch auch solche Systeme haben Schwächen. Genau darüber sprechen wir in dieser Folge. Einige Herausforderungen moderner KI- und Machine-Learning-Systeme sind bspw.:
Bias & Fairness
Distribution Shift
Overfitting & Underfitting
Halluzinationen von Sprachmodellen
Anhand praktischer Beispiele und reallen Fällen, erfahrt ihr was diese Schwächen sind und was für Folgen sie haben können.
Link zum ProPublica-Artikel:
https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm
Link zum Artikel mit dem Rechtsanwalt: https://www.tagesschau.de/wissen/technologie/ki-rechtsanwalt-100.html
Wofür nutzen Menschen ChatGPT eigentlich wirklich? Im Alltag und im Job?
Eine neue Studie des National Bureau of Economic Research (September 2025) liefert erstmals detaillierte Zahlen zur weltweiten Nutzung von ChatGPT. Die Ergebnisse sind überraschend.
In dieser Folge von „KI – kurz und informativ“ erfährst du, warum ChatGPT längst nicht nur ein Produktivitätstool ist, sondern sich immer mehr zum Alltagshelfer entwickelt. Und was das für Unternehmen, Verwaltungen und unseren persönlichen Umgang mit KI bedeutet.
Artikel von OpenAI: https://openai.com/index/how-people-are-using-chatgpt/
Full PDF zur Studie: https://www.nber.org/papers/w34255
Generative KI (GenAI) ist ein Hype-Thema - keine Frage. Aber wann ist es wirklich sinnvoll, diese Technologie einzusetzen? Und bei welchen Anwendungsszenarien eignet sie sich eher weniger?
Das erfahrt ihr in dieser Folge von "KI - kurz und informativ". Leider sehe ich viele Unternehmen den Fehler machen, schnell irgendetwas mit GenAI zu realisieren, damit sie mit dem Trend gehen können. Aber das funktioniert nur in seltenen Fällen. Macht euch lieber gründlich Gedanken, welches Problem ihr lösen wollt und betrachtet alle möglichen Methoden. Wenn (generative) KI dann passt: super! Wenn nicht: auch gut, dann gibt es eine bessere Alternative.
Viel Spaß beim Zuhören!
Europa, KI und ein anderer Weg?
Ausgangspunkt ist Apertus, ein neues, vollständig Open-Source-Sprachmodell – made in Switzerland. Ein Gegenentwurf zu den großen, geschlossenen Systemen. Aber was kann Open Source leisten? Liegt hier eine Chance für Europa?
Auch diese Fragen lassen sich nicht leicht beantworten. Und ähnlich wie die letzte Folge, sollen sie in erster Linie zum Nachdenken anregen.
Wir sprechen über den Unterschied zwischen Open Source und proprietären Modellen, einer möglichen europäischen Perspektive auf KI und warum es mehr als nur Forschung braucht, um mithalten zu können.
Viel Spaß beim Hören und schreibt gerne eure Meinung in die Kommentare!
Über Apertus: https://www.swiss-ai.org/apertus und https://ethz.ch/en/news-and-events/eth-news/news/2025/09/press-release-apertus-a-fully-open-transparent-multilingual-language-model.html
Die nächste Folge wird wieder etwas technischer und informativer. :) Bleibt neugierig und kritisch!
Deepfakes, die mit Hilfe von KI generiert werden, sind längst mehr als ein Tech-Gimmick. Sie bedrohen Vertrauen, Demokratie und unsere Vorstellung von Wahrheit. In dieser Folge von „KI – kurz und informativ“ spreche ich über die Macht künstlich erzeugter Inhalte, ihre Risiken für Gesellschaft, Medien und Rechtssysteme und darüber, welche Chancen und Schutzmechanismen es trotzdem gibt.
Wir schauen uns an:
Positive Einsatzfelder: von Barrierefreiheit bis Filmproduktion.
Strategien gegen Missbrauch: Medienkompetenz, technische Erkennungstools, Regulierung.
Wenn ihr wissen wollt, wie ihr Desinformation erkennt, welche Rolle KI-Tools in Zukunft spielen und warum kritisches Denken wichtiger ist denn je, dann ist diese Folge für euch.
Bleibt neugierig und kritisch!
Artikel zum Berliner Wahldebakel: https://www.tagesschau.de/inland/berlin-wahl-wiederholung-106.html
Quelle Video Greta Thunberg: https://www.youtube.com/watch?v=uRkxYrW5q4c
Wie funktioniert eigentlich ein neuronales Netz? In dieser Folge von „KI – kurz und informativ“ schauen wir uns die Grundlagen des Deep Learning an, einem Teilgebiet des Machine Learning und der Künstlichen Intelligenz.
Wir sehen, warum künstliche neuronale Netze von unserem Gehirn inspiriert sind, wie sie aufgebaut sind und wie sie lernen – Schritt für Schritt. Das Thema ist nicht einfach und daher brechen wir es in mehrere kleinere Teile auf. Hier findet ihr den ersten Teil.
Viel Spaß bei dieser Folge!
Was genau ist eigentlich ein Modell im Kontext von Künstlicher Intelligenz und Machine Learning? In dieser Folge von "KI – kurz und informativ" gehen wir etwas mehr ins Detail und schauen uns die mathematischen und intuitiven Grundlagen an.
Anhand dessen können wir besser erklären, welche Unterschiede es zwischen den Modellfamilien gibt. Außerdem werden wir dank dieses Wissens in der Lage sein, neuronale Netze zu beschreiben und zu verstehen.
Was ist eigentlich der Unterschied zwischen Google und ChatGPT?In dieser Folge von „KI – kurz und informativ“ klären wir eine der häufigsten Fragen aus meinen Schulungen: Worin unterscheiden sich Sprachmodelle von klassischen Suchsystemen wie Google und warum ist ChatGPT keine Suchmaschine?
Wir sprechen unter anderem über den sogenannten Knowledge Cutoff der Modelle und warum Suchmaschinen tagesaktuell sind - im Gegensatz zu Sprachmodellen. Oder etwa nicht?
Ich habe für euch das neue Bildgenerierungs- und Bearbeitungsmodell von Google ausprobiert und es ist wirklich gut geworden. Die Konsistenz, eine der größten Schwächen der Modelle bisher, ist hervorragend. An einem praktischen Beispiel zeige ich euch, wie ihr Google AI Studio für kreative Bildideen und KI-gestützte Bildbearbeitung nutzen könnt.
Zum Google AI Studio gelangt ihr hier: https://aistudio.google.com/
Probiert es aus und lasst mich wissen, wie ihr das findet! Lasst gerne auch einen Kommentar da, wie ihr solche ungeplanten Spezialfolgen zwischendurch findet und was ihr von dem Videoformat haltet.
In dieser ersten Folge einer Mini-Reihe zu generativer KI schauen wir uns an, was generative Modelle eigentlich sind, wie sie funktionieren und was sie von anderen Modellen unterscheidet.
Speziell in dieser Folge sprechen wir über die riesigen Datenmengen, die GPT-3 fürs Training verwendet hat. Sie soll ein bisschen als kleine Einführung dienen - 5 Min. sind eben leider nicht so lange. Darauf aufbauend besprechen wir Themen zur Nachhaltigkeit, Datenschutz und Urheberrecht, und vieles mehr.
Bleibt gespannt und neugierig!
Wie funktioniert Netflix, Amazon & Co.? Was hat ein MRT mit KI zu tun? Wie funktionieren Spam-Filter?
Solche und weitere Fragen klären wir in der heutigen Folge, in der wir uns einige spannende Beispiele aus der Praxis anschauen, die ihr alle kennt oder schonmal gesehen habt. All das sind interessante Lösungen für Probleme, in denen Machine Learning dabei hilft, Dinge schneller, besser und manchmal auch fairer zu machen.
Lernen ohne Anleitung?
In dieser Folge schauen wir uns zwei Lernmethoden an, bei denen Modelle ohne explizite Anleitung lernen: Reinforcement Learning – bei dem Feedback wie in einem Belohnungssystem wirkt – und Unsupervised Learning, wo Muster in Daten erkannt werden, ohne dass jemand vorgibt, was zu sehen ist. Wir erklären die Konzepte anschaulich und mit Beispielen aus dem Alltag – von Saugrobotern bis zum Online-Shopping.
Auch wenn wir im Titel von Künstlicher Intelligenz reden, wisst ihr, wenn wir ihr die anderen Folgen gesehen habt, dass wir eigentlich Machine Learning meinen.
Wie lernen Maschinen eigentlich?
In dieser Folge schauen wir uns an, wie ein Machine-Learning-Modell im sogenannten überwachten Lernen (Supervised Learning) trainiert wird – anschaulich erklärt am Beispiel von Katzen- und Hundebildern. Wir klären, was gelabelte Daten sind, wie der Trainingsprozess funktioniert und warum ein Modell auch mit neuen, unbekannten Daten umgehen können muss.
Denkt daran: Künstliche Intelligenz ist der Oberbegriff. Wir beschäftigen uns mit Daten, deshalb: Machine Learning.
In dieser Folge räumen wir den KI-Buzzword-Dschungel auf: Was ist eigentlich der Unterschied zwischen Künstlicher Intelligenz, Machine Learning und Deep Learning? Wir erklären die Begriffe klar, zeigen, wie sie zusammenhängen, und geben einen Überblick über wichtige Anwendungsfelder wie Computer Vision, Natural Language Processing und Robotik.