KI aus Darmstadt will vergiftete Texte erkennen

Ein Forscherteam der HDA arbeitet an einer Software, die Hate Speech und Fake News erkennt.

Anzeige

DARMSTADT. (epd). Die Hochschule Darmstadt entwickelt bis Mitte 2022 ein Verfahren zur Erkennung und Klassifikation von Hate Speech und Fake News unter Anwendung Künstlicher Intelligenz. Das vom hessischen Innenministerium geförderte Projekt „DeTox – Detektion von Toxizität und Aggressionen in Postings und Kommentaren im Netz“ spüre aber nicht nur toxische Inhalte auf, sondern ermittle auch, wie stark verbreitet sie seien und ob sie gegen Gesetze verstießen, teilte die Hochschule am Montag mit.

Die Grundlage bildeten 2500 deutschsprachige Twitter-Postings, die dem Forscherteam um die Computerlinguistin und Informationswissenschaftlerin Melanie Siegel von der Meldestelle „Hessen gegen Hetze“ vorklassifiziert zur Verfügung gestellt wurden. Hinzu kommen mehrere tausend Tweets, die das Team mit Programmen zum Auffinden und Indexieren von Webseiten gesammelt habe.

Für „DeTox“ hat nach Angaben der Hochschule das Fraunhofer Institut für sichere Informationstechnologie in Darmstadt ein Software-Tool entwickelt. Es werde über das Füttern mit Tweets immer weiter trainiert, um relevante Merkmale in Texten automatisch erkennen zu können.

Laut Hochschule gibt es linguistische Aspekte, die auf Fake News schließen lassen. So weise die Verwendung vieler Personalpronomen, Ausrufezeichen oder Emojis auf eine subjektive, emotionale Sprache hin, wie sie in seriösen wissenschaftlichen oder journalistischen Texten nicht verwendet werde. Auffällig seien auch große Headlines, unter denen nur wenig Text stehe.

Anzeige

Die am Forschungsprojekt „DeTox – Detektion von Toxizität und Aggressionen in Postings und Kommentaren im Netz“ beteiligten Akteure trügen eine große Verantwortung, sagte Professorin Siegel. „Man muss die Menschen, die mit dem System arbeiten, schulen und miteinander diskutieren.“ Jeder Tweet werde von drei Personen bewertet. „DeTox“ sei lediglich ein Tool zur Vorklassifizierung, betonte Siegel. „Die Meinungsfreiheit ist ein hohes Gut, daher würde ich die Filterung niemals komplett automatisiert Maschinen überlassen.“