Social Bots entlarven

Volkswagen Stiftung fördert Forschungsprojekt der Universität Bielefeld 

In der US-Präsidentschaftswahl 2016 sollen Social Bots die öffentliche Meinung beeinflusst haben. Und vor der Wahl zum Europäischen Parlament warnte eine EU-Kommissarin vor Desinformationskampagnen mit Social Bots: spezialisierte Computerprogramme, die dafür gemacht sind, in sozialen Medien zu kommunizieren. Welche Effekte haben Social Bots auf gesellschaftliche Debatten? Wie können technische Systeme gegen solche Bots eingesetzt werden? Das sind zwei der Fragen, mit denen sich Forschende der Universität Bielefeld, der Fachhochschule Bielefeld und der Australian National University beschäftigen. Das Forschungsprojekt wird von der Volkswagen Stiftung gefördert.

Wie lassen sich Social Bots und ihre Wirkung auf politische Diskussionen erkennen? Daran forschen (v.l.) Prof. Dr. Philipp Cimiano, Dr. Ole Pütz und PD Dr. Florian Muhle von der Universität Bielefeld zusammen mit ihren Kooperationspartnern im Projekt „Unbiased Bots That Build Bridges“. Foto: CITEC/Universität Bielefeld „Die öffentliche Meinungsbildung läuft heute zunehmend über das Internet. Damit wächst die Bedeutung von Twitter, Facebook und Co. als Medien der politischen Kommunikation“, sagt Professor Dr. Philipp Cimiano vom Exzellenzcluster Kognitive Interaktionstechnologie (CITEC) der Universität Bielefeld. Der Informatiker leitet das Projekt „Unbiased Bots That Build Bridges“ (U3B, deutsch: Unparteiische Roboter als Brückenbauer) gemeinsam mit Dr. Ole Pütz und Privatdozent Dr. Florian Muhle. Sie untersuchen in dem Projekt, wie automatisierte Systeme und Social Bots die Meinungsbildung im Internet beeinflussen. Dafür arbeiten die Forschenden unter anderem an maschinellen Lernverfahren, um virtuelle Roboter zu erkennen, die sich in sozialen Medien als Menschen ausgeben. „Wir gehen davon aus, dass es eine Dunkelziffer von Profilen gibt, die bislang nicht als Bots erkannt werden. Zudem weisen aktuelle Systeme zur Boterkennung noch recht hohe Fehlerraten auf“, sagt Cimiano. 

„Soziale Medien können zwar den politischen Dialog zwischen Bürgerinnen und Bürgern unterstützen“, sagt Florian Muhle von der Fakultät für Soziologie. „Aber es besteht auch die Gefahr, dass sich Menschen in sozialen Medien vor allem mit Gleichgesinnten austauschen und sich so vorgefertigte Meinungen verfestigen. Automatisierte Systeme in den sozialen Medien können die Bildung solcher ,Echokammern‘ bestärken und Nutzerinnen und Nutzern Impulse geben, die ihre Weltsicht bestätigen.“

„Die Herausforderung ist, Social Bots von anderen Accounts zu unterscheiden. Um dies in verlässlicher Weise leisten zu können, arbeiten wir in einem interdisziplinären Team aus Sozial- und Technikwissenschaften“, sagt Dr. Ole Pütz. Der Soziologe arbeitet in der Forschungsgruppe von Philipp Cimiano und ist Koordinator des Projekts U3B. „So kombinieren wir qualitative Methoden der Sozialwissenschaft mit technikwissenschaftlichen Ansätzen des maschinellen Lernens. Zudem setzen wir psychologische Experimente ein, um die Wirkung von Social Bots zu untersuchen“, so Pütz. Versuchspersonen sehen dann beispielsweise Beiträge, wie sie bei Twitter veröffentlicht wurden und sollen unterscheiden, ob diese von Menschen oder Bots kommen. Auch sollen sie beurteilen, wie überzeugend oder auch emotional sie einzelne Beiträge finden.

„Menschen reagieren unterschiedlich auf Social Bots, manche nehmen sie ernst, andere durchschauen sie direkt. Die Tests sollen uns helfen, Typen von Nutzerinnen und Nutzern zu unterscheiden“, erklärt Dr. Florian Muhle. „Dies kann dazu beitragen, Informationen und Hilfestellungen zum Umgang mit Social Bots an die Bedarfe der unterschiedlichen Typen von Nutzerinnen und Nutzern anzupassen“. 

Insgesamt geht es dem Team darum, auf Basis eines besseren Verständnisses von Social Bots und ihrer Wirkungsweisen technische Systeme zu entwickeln, die die Aktivitäten von Social Bots aufdecken und Brücken zwischen fragmentierten Öffentlichkeiten im Internet bilden. Solche Systeme könnten zum Beispiel in Wahlkampfzeiten Nutzerinnen und Nutzer warnen, bevor sie Nachrichten von Bots weiterverbreiten. 

Das Projekt heißt mit vollem Namen „Unbiased Bots That Build Bridges (U3B): Technical Systems That Support Deliberation and Diversity as a Chance for Political Discourse” (Unparteiische Roboter als Brückenbauer: Technische Systeme zur Unterstützung von Deliberation und Vielfalt als Chance für den politischen Diskurs). Die Volkswagen Stiftung fördert es innerhalb ihrer Initiative „Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen“. Die Förderung läuft bis März 2020. 

Weitere Informationen:
Das Projekt: http://portal.volkswagenstiftung.de/search/projectDetails.do?ref=95920
„Systeme mit Argumenten füttern“ (Pressemitteilung vom 20.04.2018): https://ekvv.uni-bielefeld.de/blog/uniaktuell/entry/systeme_mit_argumenten_f%C3%BCttern

Kontakt:
Prof. Dr. Philipp Cimiano, Universität Bielefeld
Exzellenzcluster Kognitive Interaktionstechnologie (CITEC)
Tel: 0521-106 12249
E-Mail: cimiano@techfak.uni-bielefeld.de