Wie verhalten sich große Sprachmodelle (LLMs), wenn es nicht nur um Fakten, sondern um Fairness geht? In dieser Folge geht es um eine neue Studie, die zeigt, dass Sprachmodelle in sozialen Dilemmata überraschend menschlich reagieren – und nicht immer zum Guten. Wenn Modelle wie GPT-o1 dazu gebracht werden, bewusst nachzudenken (etwa über Chain-of-Thought-Techniken), steigt ihre Neigung, egoistisch zu handeln. Die Modelle beginnen zu rechnen, kalkulieren ihren Nutzen – und verzichten auf Kooperation. Damit spiegeln sie ein altes menschliches Muster: spontanes Geben versus strategisches Nehmen. Gruppen mit „denkenden“ Modellen erzielen in Simulationen geringere Gesamterträge. Was das über KI, Moral und kollektives Verhalten aussagt – und warum soziale Intelligenz in Zukunft mittrainiert werden muss, das erfahrt ihr in dieser Episode.