Fake News 2.0 â Wie Deepfakes unsere Wahrnehmung hacken!!
In unserer neuen Podcastfolge nehmen wir euch mit in die Welt der Deepfakes â also KI-generierter Videos, die echte Aussagen oder Handlungen tĂ€uschend echt fĂ€lschen.
Laut BR sind Deepfakes âaudio-visuelle FĂ€lschungen mithilfe kĂŒnstlicher Intelligenzâ. Klingt technisch? Ist aber vor allem psychologisch hochbrisant.
Warum glauben wir Fake-Bilder selbst dann noch, wenn wir wissen, dass sie manipuliert sind?
Wir sprechen ĂŒber psychologische Effekte wie den Confirmation Bias, False Memories und den Illusory Truth Effect, die uns anfĂ€llig fĂŒr visuelle Fakes machen.
Und wir fragen: Was macht das eigentlich mit unserem Vertrauen in Medien â und mit unserer psychischen Gesundheit?
Jetzt reinhören & mitdenken!
Habt ihr noch 2-3 Minuten Zeit? Dann lasst uns gern Feedback da, damit wir die nÀchsten Folgen noch besser auf euch zuschneiden können:
https://ls1.psychologie.uni-wuerzburg.de/so/trustissuespodcast/?q=Deepfakes
Quellen:
Bernhard, M. (2025, 30. Juni). KI-Videos auf Tiktok verbreiten Fake zu angeblichem âinternationalenâ Soli-Zuschlag. correctiv.org. https://correctiv.org/faktencheck/2025/06/30/ki-videos-auf-tiktok-verbreiten-fake-zu-angeblichem-internationalen-soli-zuschlag/
Hiebert, K. (2024, Februar 26). Deepfakes will break democracy: The fragmenting of shared reality is fuelling political extremism and dysfunction. The Walrus. https://thewalrus.ca/deepfakes-will-break-democracy/?utm_source=substack&utm_medium=email
Johnson, D.G., & Verdicchio, M. (2017). AI anxiety. Journal of the Association for Information Science and Technology, 68(9), 2267-2270. Â
Kyrychenko, Y., Koo, H. J., Maertens, R., Roozenbeek, J., Van der Linden, S. & Götz, F. M. (2025). Profiling misinformation susceptibility. Personality And Individual Differences, 241, 113177. https://doi.org/10.1016/j.paid.2025.113177
Pawelec, M. (2025). Wenn der Schein trĂŒgt â Deepfakes und Wahlen. Bundeszentrale fĂŒr politische Bildung. https://www.bpb.de/system/files/dokument_pdf/bpb_UM_DeepFakes_WEB.pdf
Richter, M. E. & Rohrmeier, S. (2025, 12. Februar). Faktenfuchs: Was steckt hinter dem KI-Wahlkampfvideo der AfD? BR24. https://www.br.de/nachrichten/netzwelt/faktenfuchs-was-steckt-hinter-dem-ki-wahlkampfvideo-der-afd,Uc7jZKZ
Speckmann, F. & Unkelbach, C. (2024). Illusions of knowledge due to mere repetition. Cognition, 247, 105791. https://doi.org/10.1016/j.cognition.2024.105791
KI belÀstigt Nutzer*innen?!
Was nach Clickbait klingt, ist der Vorwurf einer aktuellen Studie. Replika, eine Chat-KI fĂŒr emotionale NĂ€he, soll sich wiederholt ĂŒbergriffig verhalten haben â sogar gegenĂŒber MinderjĂ€hrigen.
In unserer ersten Folge von Trust Issues â KI trifft Psychologie fragen wir:
Wie kann eine KI ĂŒberhaupt Grenzen ĂŒberschreiten?
Warum fĂŒhlen sich diese Interaktionen fĂŒr viele real an?
Und was bedeutet das fĂŒr unser Vertrauen in KI?
Wir sprechen ĂŒber parasoziale Beziehungen, psychologische Verletzlichkeit â und warum uns KI manchmal nĂ€her kommt, als uns lieb ist.
Jetzt reinhören & mitdenken!
Habt ihr noch 2-3 Minuten Zeit? Dann lasst uns gern Feedback da, damit wir die nÀchsten Folgen noch besser auf euch zuschneiden können:
https://ls1.psychologie.uni-wuerzburg.de/so/trustissuespodcast/?q=Replika
Quellen:
Pauwels, H., & Razi, A. (2025). AI-induced sexual harassment: Investigating Contextual Characteristics and User Reactions of Sexual Harassment by a Companion Chatbot. arXiv preprint arXiv:2504.04299.
Bickmore, T. W., & Picard, R. W. (2005). Establishing and maintaining long-term human-computer relationships. ACM Transactions on Computer-Human Interaction (TOCHI), 12(2), 293-327.
Cave, S., Coughlan, K., & Dihal, K. (2019, January). " Scary Robots" Examining Public Responses to AI. In Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society (pp. 331-337).
Ciriello, R., Hannon, O., Chen, A. Y., & Vaast, E. (2024). Ethical tensions in human-AI companionship: A dialectical inquiry into Replika.
Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W., Pataranutaporn, P., ... & Agarwal, S. (2025). How ai and human behaviors shape psychosocial effects of chatbot use: A longitudinal randomized controlled study. arXiv preprint arXiv:2503.17473.
Ho, A., Hancock, J., & Miner, A. S. (2018). Psychological, relational, and emotional effects of self-disclosure after conversations with a chatbot. Journal of Communication, 68(4), 712-733.
Horton, D., & Richard Wohl, R. (1956). Mass communication and para-social interaction: Observations on intimacy at a distance. psychiatry, 19(3), 215-229.
Johnson, D.G., & Verdicchio, M. (2017). AI anxiety. Journal of the Association for Information Science and Technology, 68(9), 2267-2270. Â
Laestadius, L., Bishop, A., Gonzalez, M., IllenÄĂk, D., & Campos-Castillo, C. (2024). Too human and not human enough: A grounded theory analysis of mental health harms from emotional dependence on the social chatbot Replika. New Media & Society, 26(10), 5923-5941.