Wie hilft euer KI-Tool Journalist:innen, sensibler über häusliche Gewalt zu berichten?

Wie können wir dazu beitragen, dass Journalist:innen problematische Formulierungen in der Berichterstattung über häusliche Gewalt vermeiden und bei der Erstellung ihrer Artikel fachliche Leitlinien einhalten? Diese Frage stand am Anfang des Projektes LanguageLens von Victoria Waldersee, Ba Linh Le und Johanna Weiß. In der MIZ-Innovationsförderung hat das Team ein KI-gestütztes Check-up-Tool für Journalist:innen entwickelt und sein KI-Modell für eine umfassende Analyse der Berichterstattung über häusliche Gewalt in Deutschland genutzt. Zum Abschluss der Förderung haben wir mit Victoria und Ba Linh über das Projekt gesprochen.


Ba Linh Le und Victoria Waldersee vom Projektteam LanguageLens

„Unsere Recherche umfasst die Analyse jedes Artikels, der zwischen 2018 und 2022 in der deutschen Presse zum Thema Partnerschaftsgewalt erschienen ist.“

Liebe Victoria, liebe Ba Linh, für euer Projekt LanguageLens habt ihr journalistische Artikel zum Thema Partnerschaftsgewalt analysiert. Wie seid ihr dabei vorgegangen?

Victoria Waldersee: Unsere Recherche, die es in Deutschland in einem so umfangreichen Maß bisher nicht gab, umfasst die Analyse jedes Artikels, der zwischen 2018 und 2022 in der deutschen Presse zum Thema Partnerschaftsgewalt erschienen ist.

Die Recherche basiert auf einem Datensatz von ca. 60 Millionen Texten zu allen möglichen Themen aus 258 deutschsprachigen Zeitungen im Zeitraum von 2018 bis 2022. Zunächst haben wir eine erste Filterung durchgeführt, um Texte speziell zum Thema Partnerschaftsgewalt zu isolieren. Dieser Prozess führte zu einem Datensatz von rund 63.500 Texten, wovon ungefähr die Hälfte nicht Artikel sondern z. B. Leserbriefe oder Newsticker-Texte waren, in denen es um Partnerschaftsgewalt ging.

Aus dem übriggebliebenen Datensatz von rund 32.000 Artikeln haben wir 12.550 Artikel nach dem Zufallsprinzip für die Erstellung des Trainingsdatensatzes ausgewählt und manuell annotiert, um konstruktive Ansätze und problematische Formulierungen in der Berichterstattung über häusliche Gewalt herauszuarbeiten. Mit dem daraus resultierenden KI-Modell analysierten wir den kompletten Datensatz von 63.500 Texten, um die Häufigkeit unserer ausgewählten Merkmale in allen Texten zu Partnerschaftsgewalt in den deutschen Medien zu ermitteln.

Auf die Erkennung welcher Aspekte in der Berichterstattung über häusliche Gewalt habt ihr euer KI-Modell trainiert und wie habt ihr diese Aspekte festgelegt?

Victoria: Unsere Definition einer Berichterstattung über Partnerschaftsgewalt, die mit fachlichen Leitlinien übereinstimmt, lautet wie folgt:

  • die Vermeidung von sensationalistischer oder bagatellisierender Sprache
  • die Vermeidung von unnötig verstörenden Gewaltdarstellungen
  • die Vermeidung von Vorurteilen wie z. B. die Nennung der Nationalität der beteiligten Personen in Fällen, in denen dies nicht unbedingt relevant ist
  • die Verwendung von Statistiken, um den systemischen Charakter häuslicher Gewalt zu verdeutlichen
  • die Angabe einer Hotline für den Fall, dass Betroffene den Artikel lesen und Unterstützung benötigen

Um diese Definition festzulegen, haben wir Interviews mit Betroffenen von Partnerschaftsgewalt durchgeführt, um deren Wahrnehmung der Berichterstattung zum Thema besser zu verstehen, mit mehreren Leiterinnen von Frauenhäusern gesprochen und uns Recherchen aus Ländern wie Australien, Großbritannien oder Deutschland über den Einfluss der Berichterstattung über häusliche Gewalt auf das Bewusstsein der Leser:innen angeschaut.

„Rund ein Viertel der Artikel über Partnerschaftsgewalt in diesem Zeitraum enthält Formulierungen, die laut Fachleuten das Verständnis und das Einfühlungsvermögen der Öffentlichkeit für dieses Problem beeinträchtigen können.“

Welche Ergebnisse hat eure Analyse ergeben?

Victoria: Die Studie offenbart, dass rund ein Viertel der Artikel über Partnerschaftsgewalt, die in diesem Zeitraum veröffentlicht wurden, Formulierungen enthält, die laut Fachleuten das Verständnis und das Einfühlungsvermögen der Öffentlichkeit für dieses Problem beeinträchtigen können.

Erfreulicherweise zeigt unsere Analyse, dass sich die Qualität der Berichterstattung in Deutschland zwischen 2018 und 2020 verbessert hat: Der Anteil der Artikel mit problematischer Sprache ist zwischen 2018 und 2020 von 40% auf 20% gesunken. Besorgniserregend ist jedoch, dass der Anteil seitdem wieder ansteigt und im Jahr 2022 26% erreicht hat.


Journalist:innen können das Check-up-Tool von LanguageLens im Rahmen von Workshops kennenlernen.

Welche technische Lösung habt ihr entwickelt, um die Berichterstattung zu verbessern und wie funktioniert sie?

Ba Linh Le: Unsere technische Lösung heißt LanguageLens – ein Check-up-Tool, das durch die Verwendung eines NLP (Natural Language Processing)-basierten Modells Zeitungsartikel über Partnerschaftsgewalt analysiert und zu jedem Absatz ein kurzes Feedback gibt, ob der Text die von Expert:innen ausgewiesenen Kriterien erfüllt.

Das Tool sucht und gibt Feedback zu sensationalistischer Sprache, unnötig verstörenden Gewaltbeschreibungen, der Nennung der Nationalität der beteiligten Personen in Fällen, in denen dies nicht unbedingt relevant ist, der Verwendung von Statistiken, um den systemischen Charakter häuslicher Gewalt zu verdeutlichen und der Angabe einer Hotline für den Fall, dass Betroffene die Geschichte lesen und Unterstützung benötigen.

„Wir wollten ein Tool entwickeln, das potenziell problematische Inhalte schnell erkennen und Medienschaffende darauf hinweisen kann, damit sie diese verbessern können.“

Wie kommt künstliche Intelligenz bei eurem Projekt zum Einsatz und warum ist die Technologie für euch hilfreich

Ba Linh: Der Kern dieses Projekts sind mehrere Natural-Language-Processing-Modelle, die darauf trainiert wurden, problematische Formulierungen in dem annotierten Trainingssatz zu verstehen und in einem neuen, nicht-annotierten Datensatz zu erkennen. Angesichts der täglichen Informationsflut, mit der sich Medienschaffende auseinandersetzen müssen, wollten wir ein intelligentes Sprachmodell entwickeln, das potenziell problematische Inhalte schnell erkennen und Medienschaffende darauf hinweisen kann, damit sie diese verbessern können.

Das leistungsfähigste Modell mit der höchsten Trefferquote wurde am Ende des Forschungsprojekts zur Kategorisierung des gesamten Datensatzes verwendet. Ein Team von Menschen hätte für diese Aufgabe entweder mehr Annotator:innen oder einen längeren Zeitraum benötigt.

Wie können Journalist:innen LanguageLens einsetzen?

Victoria: Medienschaffende können ihre Artikel in unser Tool einfügen und in nur wenigen Sekunden Rückmeldungen zu den von unserem Modell identifizierten positiven und negativen Aspekten der Berichterstattung erhalten – von der Verwendung expliziter Sprache bis hin zur Angabe von Notrufnummern. Dies ermöglicht ihnen, ihre Artikel zu überarbeiten, bevor sie diese zur Veröffentlichung an die Redaktion weiterleiten.

Das Tool steht sowohl Medienschaffenden als auch Bürger:innen kostenlos zur Verfügung, darüber hinaus veröffentlichen wir auch das KI-Modell mit einer Open-Source-Lizenz auf GitHub.

„Berücksichtigt die potenziellen Auswirkungen eurer Artikel auf Betroffene und eure Leser:innenschaft.“

Wie geht es mit eurem Projekt jetzt nach der MIZ-Förderung weiter?

Ba Linh: Die Ergebnisse unserer Forschung wurden am 25. November 2023 anlässlich des Internationalen Tages zur Beseitigung von Gewalt gegen Frauen und häuslicher Gewalt veröffentlicht. Zudem organisieren wir Workshops mit Medienschaffenden, in denen wir das Sprachmodell und unsere Forschungsergebnisse sowie Empfehlungen für eine verantwortungsvollere Berichterstattung über häusliche Gewalt vorstellen.

Das Sprachmodell könnte sowohl in die Tiefe (mehr Kategorien) als auch in die Weite (andere Themenbereiche) weiterentwickelt werden. In jedem Falle bräuchten wir an dieser Stelle jedoch eine Anschlussfinanzierung.

Welche drei Ratschläge würdet ihr Journalist:innen geben, die über Partnerschaftsgewalt berichten?

Victoria:

  • Berücksichtigt die potenziellen Auswirkungen eurer Artikel auf Betroffene und eure Leser:innenschaft.
  • Vergesst nicht, dass Partnerschaftsgewalt ein strukturelles Problem ist, welches besondere Sorgfalt erfordert.
  • Fügt immer eine Triggerwarnung ein, wenn ihr Gewalt beschreibt – Leser:innen sollten aktiv entscheiden können, ob und wann sie sich mit so einem Thema befassen wollen.


>>> Link zum Tool von LanguageLens
>>> Analyse von LanguageLens: Deutsche Mediensprache zu Partnerschaftsgewalt 2018 - 2022
>>> Projektseite von LanguageLens

Ansprechperson

Photo

Marion Franke

Förderung

Marion leitet den Bereich Innovationsförderung. Sie ist Ansprechpartnerin für alle Fragen zu den Förderbedingungen, der Antragstellung und verantwortlich für die Betreuung der Projekte.

+49 331 58 56 58-26

Zurück