
Zum großen Staffelfinale von FTT nehmen wir euch mit auf einen Deep Dive in die Welt der Large Language Models und versprechen: Nerd*innen-Herzen werden höher schlagen!
Wir klären, was es mit Begriffen wie Embeddings, Softmax, Transformer und Self-Attention auf sich hat und wie genau eigentlich Tools wie ChatGPT unter der Haube funktionieren. Wie kommt ein KI-Modell auf das nächste Wort? Warum ist “large” nicht einfach nur groß? Und was hat es mit dem Begriff “stochastischer Papagei” auf sich?
Diese Folge ist eine intensive, aber verständliche Reise durch neuronale Netze, Wahrscheinlichkeiten und mathematische Magie, perfekt für alle, die im Sommer nicht nur Sonne tanken wollen, sondern auch Wissen.
Und wenn ihr verstehen wollt, warum eine „künstliche Intelligenz“ eigentlich gar nicht intelligent ist – hier entlang zur Folge!