Eingabe löschen

Kopfbereich

Hauptnavigation

DOSSMA – Erkennung von verdächtigem Verhalten in Social Media

Beschreibung

Das Projekt DOSSMA wird verdächtiges und bösartiges Verhalten auf Social-Media-Plattformen untersuchen. In einer ersten Phase werden wir einen umfangreichen Übersichtsbericht über die Bereiche erstellen, die derzeit erforscht werden, einschließlich des jeweiligen Stands der Technik, bestehender Lösungen und Initiativen. Dieser Bericht wird als Grundlage dienen, um ein oder zwei geeignete Themen zu identifizieren, bei denen unsere Expertise im Bereich NLP gut passt, und wir werden in einer zweiten Phase des Projekts einen wissenschaftlichen Beitrag leisten, um den Stand der Technik voranzutreiben. In Vorarbeiten haben wir die folgenden Themen und Fragen als relevant und interessant für die Umfrage identifiziert:

  • Hijacked Accounts: Wie können gekaperte Accounts automatisch identifiziert werden, wenn es keine eingereichte Beschwerde des ursprünglichen Benutzers gibt?
  • Impersonation: Wie können Konten von Nutzern, die vorgeben, jemand anderes zu sein, identifiziert und vom tatsächlichen Konto des verkörpernden Nutzers unterschieden werden? Können falsche demografische Informationen (z. B. falsche Altersangaben) anhand von Eigenschaften des Sprachgebrauchs aufgedeckt werden?
  • Bösartige Inhalte: Was sind die aktuellen Probleme und Hindernisse bei der automatischen Erkennung von Propaganda, toxischen Diskursen, Hate Speech, Belästigung, Verschwörungstheorien und Rassismus in sozialen Medien?
  • Astro-Turfing, Fake-Bewegungen und False-Flag-Operationen: Wie lassen sich Social-Media-Aktivitäten erkennen, die bewusst als fremdinitiiert eingefädelt werden?
  • Fake News: Wie kann das Posten und Verbreiten von Fake News erkannt werden und was sind aktuelle Bemühungen von z.B. großen Unternehmen?
  • Radikalisierung: Können Techniken zur Erkennung bösartiger Inhalte angewendet werden, um Netzwerke der Radikalisierung aufzudecken?
  • Bot-Erkennung: Wie können ein Bot-Account oder Bot-Netzwerke, die darauf abzielen, bösartige Inhalte zu verbreiten, entdeckt werden?

Eckdaten

Projektleitung

Stellv. Projektleitung

Projektteam

Projektstatus

abgeschlossen, 05/2021 - 12/2021

Institut/Zentrum

Institut für Informatik (InIT); Centre for Artificial Intelligence (CAI)

Drittmittelgeber

Bundesamt für Rüstung armasuisse / Kompetenzzentrum Wissenschaft und Technologie

Projektvolumen

149'703 CHF