Im heutigen digitalen Zeitalter können wir dank neuer Technologien ermöglichen, was früher als ausgeschlossen galt. Künstliche Intelligenz (KI) spielt hierbei eine essentielle Rolle: Vom virtuellen Assistenten auf dem Smartphone über automatische Finanztransaktionen bis hin zu militärischen Raumfahrtanwendungen trägt KI dazu bei, Abläufe in allen Bereichen effizienter, leistungsfähiger und kreativer zu gestalten.
Laut der Zeitung „Welt“ [1] will Deutschland die KI-Branche bis 2025 mit einer Summe von insgesamt drei Milliarden Euro unterstützen, was pro Jahr 500 Millionen Euro wären. Die Konsequenzen werden besonders in der Medien- und Unterhaltungsbranche spürbar sein, da PwC zufolge KI jährlich etwa 150 Milliarden US-Dollar zu diesem Sektor beisteuert [2]. KI birgt ein enormes Potenzial für die Art und Weise, wie Medienunternehmen Inhalte beschaffen, bearbeiten und verteilen. Sie kann Vorgänge effizienter gestalten, Inkonsistenzen reduzieren und zu einer gesteigerten Wertschöpfung beitragen. Die Kombination von Spitzeninhalten mit der Personalisierung von Zielgruppen rund um den Globus ermöglicht es, nahtlose und aussagekräftige Nachrichten bereitzustellen.
Da eine Zukunft mit KI unausweichlich scheint, ist es von größter Bedeutung, sie richtig einzusetzen – und zwar in erster Linie nach ethischen Regeln. Der Drang, die neuesten KI-Technologien zu entwickeln oder zu übernehmen – von der Content-Erstellung bis hin zu deren Nutzung – nimmt an allen Stellen rapide zu. Dies geht mit der wachsenden Verantwortung für Nutzer sowie Anbieter solcher Technologien einher, deren ethische Auswirkungen zu berücksichtigen sind. Wie können wir sicherstellen, dass die Nutzung von KI allen Beteiligten, von Urhebern bis hin zu Nutzern von Inhalten zugutekommt, aber zugleich den geltenden Grundsätzen und
Werten des Journalismus treu bleibt?
Der Kampf gegen Fake News Aktuellen Recherchen von Reuters zufolge prüfen derzeit nahezu drei Viertel der Medienunternehmen, wie KI mit Sprach- und Gesichtserkennungs- oder Korrekturanwendungen die effiziente Erstellung und Verteilung von Inhalten erleichtern kann. Nachrichtenagenturen wie Bloomberg sind für die Standardberichterstattung (wie z. B. Finanzmarktberichte) bereits auf Automatisierung angewiesen, damit Journalisten mehr Zeit für andere Themen haben [3]. Laut Schätzungen werden bis 202790 Prozent aller Artikel weltweit mithilfe von Künstlicher Intelligenz erstellt.
Für die positive Transformation der Produktion von Nachrichten und Inhalten birgt KI ein klares Potenzial. So wird sie in den kommenden Jahren eine zentrale Rolle bei der Entscheidung übernehmen, welche Inhalte wir tagtäglich wahrnehmen und lesen. Aber wie viel Macht und Einfluss sollte KI haben? „Denkende“ Technologien erden zwar zusehends nützlicher, dennoch sollte man sie an gewissen ethischen Grundsätzen ausrichten. Dem kommt insbesondere bei der Bekämpfung von Fake News eine wichtige Rolle zu.
Unter Maschinellem Lernen (ML) versteht man die Wissenschaft von Computern, die unter minimalem menschlichen Eingreifen anhand von Daten, Mustererkennung und Entscheidungsfindung lernt und für die KI-basierte Bekämpfung von Fake News von zentraler Bedeutung ist. Die Idee dahinter ist, dass Maschinen mit der Zeit ihre Leistung steigern und schrittweise autonom werden sollen. Es überrascht daher wenig, dass KI genutzt wird, um Inhalte automatisch zu generieren und auszuwählen.
Bevor dieser Punkt jedoch erreicht werden kann, müssen die ML-Algorithmen zunächst von Menschen trainiert und programmiert werden, um die KI-Genauigkeit zu verbessern. Dieser Schritt ist ungemein wichtig, denn Maschinen ohne menschlichen Input mangelt es an grundlegenden menschlichen Fähigkeiten wie gesundem Menschenverstand, Einsicht und kontextabhängiger Betrachtung der Dinge. Dies bedingt viele Schwierigkeiten, zum Beispiel beim Feststellen, ob eine Information wahr oder falsch ist. Nachrichtenagenturen riskieren mit dem Einsatz von Künstlicher Intelligenz ohne menschliche Kontrolle, dass die Grenze zwischen Nachricht und Meinung verschwimmt. Dadurch begünstigen die Unternehmen Fake News eher als sie einzudämmen.
Personalisierung ohne Filterblasen
Durch die Personalisierung von Inhalten können für die Nutzer qualitativ hochwertigere Erlebnisse erzielt werden, wie dies beispielsweise bei Streamingdiensten wie Netflix der Fall ist, die Empfehlungen für Shows auf Basis des individuellen Konsumverlaufs und -verhaltens geben. Auch Medienunternehmen sind keine Ausnahme und nutzen KI bereits, um der Nachfrage nach Personalisierung zu entsprechen.
Beispielsweise haben die Times und Sunday Times für News UK „James“ entwickelt. Dieser relativ neue Empfehlungsdienst merkt sich individuelle Vorlieben und personalisiert davon ausgehend automatisch Format, Zeitpunkt und Häufigkeit jeder Ausgabe. Im Wesentlichen werden die Algorithmen von Menschen programmiert, sie verbessern sich aber mit der Zeit, da der Computer selbst auf eine Reihe von festgelegten Ergebnissen hinarbeitet.
Das Prinzip der Personalisierung klingt attraktiv. Was aber passiert, wenn Nutzer nur noch die Nachrichten hören und lesen, die sie hören und lesen wollen, anstatt sich über das zu informieren, was tatsächlich um sie herum und in der Welt vorgeht? Dieses Phänomen wird als „Filterblase“ bezeichnet. Plattformen entwickeln gezielt lgorithmen zur Nutzerbindung, die dazu führen können, dass die Nutzer ausschließlich Inhalte wahrnehmen, die mit ihren Überzeugungen und Meinungen konform sind. Medienunternehmen sind in der Pflicht, das richtige Gleichgewicht zwischen der Bereitstellung von In alten für Nutzer zu finden, die zum einen deren besonderen Interessen und Bedürfnissen entsprechen, aber zum anderen auch eine sachliche Berichterstattung ermöglichen.
KI eröffnet vielversprechende Möglichkeiten, aber wie jede Medaille hat auch sie zwei Seiten. Wir müssen sicherstellen, dass der Einsatz von KI allen Beteiligten, von den Urhebern bis zu den Nutzern von Inhalten, zugutekommt – und zwar unter Wahrung der ethischen Grundsätze und Werte des Journalismus. Dazu müssen wir Medienunternehmen in die Pflicht nehmen und Ethik zur Bedingung der KI-Nutzung machen – mit den richtigen Trainings und Transparenz bei der Datenerfassung. Andernfalls könnte der Einsatz von Künstlicher Intelligenz auf lange Sicht gesehen mehr Probleme verursachen, als er von Vorteil ist.