Beschreibung
Die Outputs von Deepfake Technologien werden zunehmend ein Teil unseres Alltags: durch Einsatz von künstlicher Intelligenz (KI) ist es möglich online virtuell Kleidung anzuprobieren, Kunstwerke zu erstellen oder auch verstorbene Schauspieler:innen auf dem Bildschirm wieder zum Leben erwecken zu lassen (vgl. Seibert, 2023, S. 145–146). KI-generierte Bilder haben aber auch das Potential zu manipulieren, zu desinformieren und zu deskreditieren (vgl. Bray et al., 2023, S. 3). Es kann außerdem davon ausgegangen werden, dass die Präsenz von Deepfakes in den nächsten Jahren weiter steigen wird (vgl. Seibert, 2023, S. 149). Dennoch gibt es bislang nur einige wenige Studien, die sich mit der Frage befassen, inwiefern Menschen KI-generierte Bilder als solche erkennen. Bislang vorliegende Forschungsergebnisse deuten darauf hin, dass Menschen diese kaum von nicht-KI-generierten Bildern unterscheiden können (Bray et al., 2023; Köbis et al., 2021; Lago et al., 2021; Nightingale & Farid, 2022).
Da diese Studien nur erwachsene Personen in den Blick genommen haben, können nur Vermutungen darüber angestellt werden, inwieweit Jugendliche KI-generierte Bilder als solche erkennen und sich medienkritisch mit diesen auseinandersetzen. Weil diese immer mehr Zeit im Internet und somit auch auf Social Media (vgl. Medienpädagogischer Forschungsverbund Südwest, 2023, S. 145–146) verbringen, liegt es nahe, dass Jugendliche potentiell vor allem auf sozialen Netzwerken (unbemerkt) mit Deepfakes in Berührung kommen, denn Bild- und Videoinhalte sind ein zentraler Bestandteil dieser Plattformen. Hierbei stellt sich die grundlegende Frage, inwiefern Jugendliche im Kontext von KI-generierten Bildern medienkritisch handeln. Um dieser Frage auf den Grund zu gehen, wird in der geplanten Dissertation ein qualitativ-exploratives Forschungsdesign gewählt: In Gruppendiskussionen mit Jugendlichen werden die medienkritischen Kompetenzen mittels unterschiedlicher Inputs und Aufgaben (Zuordnung verschiedener Bilder in KI-generiert/nicht-KI-generiert, Instagram Feed mit Deepfakes in verschiedenen Kontexten, Schlagzeilen zum Deepfake Nacktbilder-Skandal von Taylor Swift) anhand der gezeigten medienkritischen Performanzen rekonstruiert. Die verschiedenen Inputs dienen dazu, einen möglichst umfangreichen Blick auf die medienkritischen Fähigkeiten der Jugendlichen zu erhalten. Zum einen soll deutlich werden, ob Jugendliche KI-generierte Bilder von nicht-KI-generierten Bildern unterscheiden können und welche Strategien sie dabei anwenden. Zum anderen sollen auch ethische und reflexive Fähigkeiten beleuchtet werden. Ziel der Arbeit ist es, medienkritische Performanzen bei Jugendlichen zu erfassen und Kompetenzerwartungen zu formulieren, welche für einen verantwortungsvollen Umgang mit KI-generierten Bildern erforderlich sind.
Ich möchte das Doktorand:innenforum zur Vorstellung meines Promotionsprojektes sowie zum Austausch über methodische und methodologische Fragen zu einem frühen Zeitpunkt des Projektes nutzen. Prof.‘in Dr. Michaela Kramer (Universität zu Köln) hat bereits zugesagt, den Vortrag als „critical friend“ zu kommentieren.
Literaturverzeichnis
Bray, S. D., Johnson, S. D. & Kleinberg, B. (2023). Testing human ability to detect ‘deepfake’ images of human faces. Journal of Cybersecurity, 9(1), Artikel tyad011, 1–18. https://doi.org/10.1093/cybsec/tyad011
Köbis, N. C., Doležalová, B. & Soraperra, I. (2021). Fooled twice: People cannot detect deepfakes but think they can. iScience, 24(11), 1–17. https://doi.org/10.1016/j.isci.2021.103364
Lago, F., Pasquini, C., Böhme, R., Dumont, H., Goffaux, V. & Boato, G. (2021). More Real than Real: A Study on Human Perception of Synthetic Faces, 1–15.
Medienpädagogischer Forschungsverbund Südwest. (2023). JIM-Studie: Jugend, Information, Medien [Basisuntersuchung zum Medienumgang 12- bis 19-Jähriger].
Nightingale, S. J. & Farid, H. (2022). AI-synthesized faces are indistinguishable from real faces and more trustworthy. Proceedings of the National Academy of Sciences of the United States of America, 119(8), 1–3. https://doi.org/10.1073/pnas.2120481119
Seibert, D. (2023). Deepfakes: Temporary Hype or Long-Term Innovation Driver? In A. Godulla & S. Böhm (Hrsg.), Future of Business and Finance. Digital Disruption and Media Transformation: How Technological Innovation Shapes the Future of Communication (S. 143–152). Springer International Publishing; Imprint Springer.
Kurzvita:
Seit Mai 2023: Wissenschaftliche Mitarbeiterin an der Professur für Medienpädagogik an der Justus-Liebig-Universität Gießen (50%)
Seit Oktober 2023: Wissenschaftliche Mitarbeiterin an der Professur für Empirische Bildungsforschung mdS Schulpädagogik an der Justus-Liebig-Universität Gießen (25%)
2017-2022: Studium Lehramt an Gymnasien (L3) mit den Fächern Biologie und Geschichte an der Justus-Liebig-Universität Gießen, Abschluss 1. Staatsexamen, ab Studium Erweiterungsfach Mathematik für das Lehramt an Haupt- und Realschulen (L2)
Name des aktuellen Betreuers: Prof. Dr. Julian Ernst
Poster | Nein |
---|