Über Intelligenz, Verantwortung, Empathie und Emotion

Der MEDIENTAGE-Gipfel 2023

Evolution oder Revolution, Transformation oder Disruption – oder ein bisschen von allem?
Zum Auftakt der 37. MEDIENTAGE MÜNCHEN haben Vertreter:innen aus den Bereichen Politik,
Medien und Wirtschaft die Folgen der Künstlichen Intelligenz (KI) ausgelotet. Dabei ging es vor
allem um Chancen und Risiken, die mit der sogenannten generativen KI verbunden sind. Im Mittelpunkt
der Keynotes und Debatten, die beim Medientage-Gipfel von Aline Abboud („Tagesthemen“)
moderiert wurden, standen nicht nur technologische und ökonomische Perspektiven, sondern auch
moralische Aspekte und Begriffe wie Verantwortung und Empathie.

Dr. Thorsten Schmiege, Präsident der Bayerischen Landeszentrale für neue Medien (BLM) und Vor-sitzender der Gesellschafterversammlung der Medien.Bayern GmbH, erklärte, Künstliche Intelligenz werde unsere Welt nachhaltig verändern. Sie werde uns zwar nicht „auslöschen“, lasse sich aber auch nicht aussitzen. Deshalb gehe es darum, Chancen zu nutzen, aber auch Leitplanken zu set-zen. Notwendig sei ein Spagat „zwischen dem Ermöglichen von Innovation einerseits und dem ver-antwortungsvollen Umgang mit einer neuen Technologie andererseits“. Dr. Florian Herrmann, Leiter der Bayerischen Staatskanzlei und bayerischer Staatsminister für Bundesangelegenheiten und Me-dien, betonte, KI könne eine „sehr gute Unterstützung für die Medien-Branche“ sein. Neue Techno-logie sei oft „janusköpfig“. Dies dürfe aber nicht bedeuten, KI-Chancen nicht zu nutzen. Bei der Re-gulierung komme es darauf an, keine Regeln aufzustellen, die später Innovationen verhindern könn-ten. Andernfalls werde die entsprechende Wertschöpfung am Ende in Indien oder den USA gene-riert, warnte der bayerische Medienminister vor dem Hintergrund der aktuellen Trilog-Verhandlungen auf dem Weg zum Artificial Intelligence Act (AI Act) der Europäischen Union.

Prof. Dr. Björn Ommer, der den Text-zu-Bild-Generator „Stable Diffusion“ entwickelt hat, bei dem Künstliche Intelligenz aus eingegebenen Befehlen Bilder erschafft, machte deutlich, worin die neue Qualität von generativer KI liegt. Jetzt sei es mit Sprachbefehlen möglich, dass leistungsfähige Technologie auch von Laien genutzt werden könne. KI-Algorithmen würden dann „interpolieren und extrapolieren“, selbstüberwacht lernen und Menschen dabei helfen, Zeit und Geld zu sparen. Wäh-rend die Medien-Logik der digitalen Welt bislang darauf ausgerichtet sei, hohe Reichweiten zu erzie-len, könnten Algorithmen nun Angebote personalisieren und so differenzierte Kommunikationspro-zesse ermöglichen. Ommer, der als Professor an der Universität München die Forschungsgruppe „Computer Vision & Learning“ leitet, machte auch Ausführungen zum Thema Mensch und Maschine. Menschen müssten mit KI effektiver agieren können als ohne, lautete seine Forderung. „Wenn Men-schen wie Maschinen arbeiten sollen, können diese Aufgabe auch von Maschinen besser erledigt werden.“ Wichtig sei herauszufinden, was den Menschen von der Maschine unterscheide, sagte der Wissenschaftler. Beispielsweise ließen sich viele Fakten auch künftig nur durch journalistische Re-cherchen vor Ort prüfen. Für die Massenkommunikation im KI-Zeitalter lautete Ommers Empfehlung an die Medien-Branche: Menschen seien soziale Wesen und direkte Beziehung nicht austauschbar.

Dass erfolgreiche Kommunikation von Vertrauen, Glaubwürdigkeit und Empathie abhängig ist, wur-de deutlich, als die Handpuppen Ernie und Bert in einem Sketch die Grenzen synthetischer Wirk-lichkeiten aufzeigten und blödelten, die Buchstaben KI ständen vielleicht einfach für „Keine Idee“. Wie wichtig Kreativität und Authentizität für Kommunikation sind, machte Dr. Peter Haller als Grün-der und Aufsichtsratsvorsitzende der Serviceplan Group, in deren House of Communication die MEDIENTAGE MÜNCHEN in diesem Jahr stattfinden, deutlich: Die Räume der größten deutschen inhabergeführten Werbeagenturgruppe würden absichtlich keine Werbeprodukte zieren, sondern vor allem Werke renommierter Künstler.
Philipp Justus, der das Geschäft von Google in Zentral- und Osteuropa leitet, erläuterte, KI sei eine Technologie, die Muster erkenne, Vorhersagen mache und aus Beobachtungen lerne. Dieses ma-schinelle Lernen habe etwa ermöglicht, dass Google binnen kürzester Zeit etwa 200 Millionen Prote-ine entschlüsseln konnte. Dieses Beispiel zeige, wie KI dem Menschen helfen könne. Maschinen-Intelligenz, die ausgehend von den Daten, mit denen sie trainiert wurde, automatisiert verschiedene Arten von Inhalten generieren kann, bedeute für den Journalismus eine Reihe von Vorteilen in punc-to Effizienz, Produktivität und Kreativität. Medienakteur:innen erhielten so neue Freiräume. „KI ist zu wichtig, um sie nicht zu regulieren“, betonte Justus, ergänzte aber gleich: „KI ist zu wichtig, um sie nicht gut zu regulieren.“ Deshalb komme es beim AI Act der Europäischen Union darauf an, genü-gend Raum für Innovationen zu lassen. Der Google-Manager warnte in diesem Zusammenhang davor, einige Angelegenheiten etwa durch den Digital Services Act, das EU-Urheberrecht und den AI Act „gleich doppelt und dreifach“ zu regulieren. Ähnlich wie Ommer wies auch Justus darauf hin, KI könne nicht nur künstliche Welten schaffen, sondern auch dazu beitragen, Desinformationen zu enttarnen oder zu bekämpfen. So lasse sich die Zuverlässigkeit von Informationen prüfen. Auf Kritik, dass KI-Programme mit Werken fremder Urheber trainiert würden, reagierte der Google-Geschäftsführer mit dem Hinweis, dank des neuen Angebotes Google-Extended könnten Website-Anbieter Inhalte für KI-Anwendungen freigeben. Insgesamt, so lautete das Fazit von Justus, gehe es bei KI darum, Risiken zu verstehen und zu beherrschen. So entstehe eine „Kraftquelle“ für Wirt-schaft und Medienunternehmen.

Bei der abschließenden Diskussion unterstrich Niddal Salah-Eldin, die im Vorstand der Axel Sprin-ger SE für den Bereich Talent & Culture verantwortlich ist, KI müsse im Journalismus eingesetzt werden, um Journalist:innen von „repetitiven und redundanten Dingen“ zu entlasten. Die Axel Sprin-ger SE setze deshalb auf eine entsprechende Aus- und Weiterbildung, auf die Optimierung von Pro-zessen und die Entwicklung neuer Geschäftsmodelle für die „größte Disruption seit Jahrzehnten“. Eines aber könne KI nie leisten: Empathie. Es gehe im Journalismus um die Frage „Was sind die Bedürfnisse meines Gegenüber?“. Prof. Dr. Kai Gniffke, Intendant des Südwestrundfunks und Vor-sitzender der ARD, stimmte zu. Auch er plädierte dafür, dass KI „Freiräume für direkte Kommunika-tion“ schaffen müsse. Würde die Technologie beispielsweise für synthetische Audio-Elemente mit bekannten Stimmen eingesetzt, sei dies unproblematisch, wenn es transparent geschehe. Künstli-che Intelligenz nicht zu nutzen, komme für die ARD nicht in Frage, weil die Zukunft ohne KI-Anwendungen nicht denkbar sei. Dr. Nina Gerhardt, Vorsitzende der Geschäftsführung von RTL Radio Deutschland, erläuterte, KI müsse einen funktionalen Nutzen für die Programmmacher:innen haben, könne bei der Verbreitung von Programmen helfen und eine Marke bekannt machen. Einem komplett synthetischen Radioprogramm aber fehle es an Emotionen und Nähe zu den Hörer:innen, urteilte die stellvertretende Vorsitzende des Fachbereichs Radio und Audiodienste des Verbands VAUNET.