Dieser Beitrag entstand als Teil eines studentischen Praktikums in unserer Abteilung im Sommer 2017.

Ob nun beim Blick in die Wetter-App, beim Ärgern über Spam, beim Buchen des Urlaubs über ein Vergleichsportal oder beim Wundern über die seltsame Formulierung der Antwort des Kundendienstes, überall sind Bots beteiligt. Und wenn es um den politischen Diskurs und das Internet geht, dann gibt es neben Fake News auch nur noch ein weiteres Thema: Social Bots. Aber können Bots auch in der Wissenschaftskommunikation behilflich sein?

Roboter
(Bild: Peter Lindberg/flickr.com, Lizenz: CC BY 2.0)

Was sind eigentlich Bots?

Das Wort Bot leitet sich vom englischen Wort „robot“ ab und bezeichnet ein Programm, das (sich wiederholende) Aufgaben automatisiert ausführt. Bots können ohne Unterlass auf riesigen Datenmengen oft repetitive Arbeiten erledigen oder durch eine Eingabe aktiviert eine Routine starten. Sie erledigen ihre häufig gleichförmigen Aufgaben schneller und ausdauernder als ein Mensch es je könnte und kommen daher heute in vielen verschiedenen Bereichen zum Einsatz:

Sogenannte Search Bots (auch bekannt als Webcrawler oder Spider) unterstützen Suchmaschinen bei der Indexierung von Webseiten, Data Bots sind mitverantwortlich dafür, dass Wetter- oder Nachrichtenanwendungen immer aktuell sind, Trader Bots vergleichen Angebote verschiedener Webseiten, um den günstigsten Preis zu finden, Copyright Bots durchsuchen das Internet nach Plagiaten, um Verstöße aufzudecken und geistiges Eigentum zu schützen, usw.

Zusätzlich zu diesen nützlichen Bots gibt es aber auch noch solche mit weniger guten Absichten:

Scraper Bots sammeln Inhalte von Webseiten, um sie an anderen Stellen ungefragt weiterzuverwenden, Spam Bots verbreiten Spam per E-Mail oder in allen möglichen Kommentarspalten, Spy Bots sammeln unbemerkt Daten über Nutzer und deren Verhalten, Click Bots generieren künstliche Klicks auf Werbungen oder Webseiten und verzerren so Analysen, etc.

Laut des jährlichen Bot Traffic Report der Firma Imperva Incapsula sind Bots für über die Hälfte aller Seitenaufrufe im Internet verantwortlich (2016: 51,8 %).

Neben diesen „unsichtbaren“ Bots, kennen die meisten wohl eher Chatbots, also Programme, die einen Dialog zwischen Mensch und Maschine in natürlicher Sprache ermöglichen. Diese werden, dank des von Alan Turing erdachten Turing Tests, häufig mit dem Thema Künstliche Intelligenz in Verbindung gebracht. Dabei sind Chatbots auch sehr simpel realisierbar, wie das von Joseph Weizenbaum entwickelte Programm ELIZA zeigt. Dieses trat bereits 1966 in einem Experiment sehr überzeugend als Psychotherapeut auf, obwohl es nur, mittels eines strukturierten Wörterbuchs, in Eingaben nach Synonymen und Oberbegriffen suchte, um in einer vorgefertigten Liste eine möglichst passende Antwort zu finden.

TayTweets
(Quelle: twitter.com)

Solche einfachen Beispiele werden von heutigen Bemühungen um Chatbots in den Schatten gestellt, die sich mittels maschinellen Lernens die menschliche Sprache aneignen sollen, um möglichst realistische Gesprächspartner zu werden. Auch wenn es hierbei zu Zwischenfällen kommen kann wie bei dem vom Microsoft entwickelten und im März 2016 für 16 Stunden auf Twitter aktiven Chatbot Tay.

Tay war darauf programmiert, ihr Antwortverhalten, basierend auf den mit ihr geführten Gesprächen, anzupassen. Schon nach kurzer Zeit hatte Tay in ihren Unterhaltungen so viel rassistische und sexistische Antworten erhalten, dass sich dies in ihren eigenen Tweets widerspiegelte, weswegen das Experiment vorzeitig beendet wurde, Microsoft viele der erzeugten Tweets löschte und sich entschuldigte. Im Gegensatz hierzu verläuft ein ähnlicher Versuch in China mit einem Chatbot names Xiaolce (ebenfalls von Microsoft und schon seit 2014, unter anderem auf Weibo, aktiv) ohne derartige Vorfälle.

Aber Chatbots sind nicht nur zum Plaudern da. Viele Unternehmen setzen Chatbots im Bereich Kundensupport ein, um die Hilfesuche möglichst natürlich und leicht zu gestalten. Eines der ersten Unternehmen, das auf ein solches System setzte, war Ikea mit der Funktion „Frag Anna“, die, bevor sie 2016 abgeschaltet wurde, für über zehn Jahre auf Nachfrage rund um die Uhr Informationen zu Ikea-Produkten lieferte.

Ein weiteres populäres Beispiel für einen Service Bot ist der automatische Helfer DoNotPay, der bei Rechtsanliegen behilflich ist. Ursprünglich dafür programmiert, Bußgelder wegen nicht bezahlter Strafzettel zu vermeiden, indem er half, das richtige Formular zu finden und auszufüllen, wurde seine Funktionalität immer weiter ausgebaut. Beispielsweise kann DoNotPay nun bei Schadensersatzforderungen bezüglich des Datendiebstahls von 2017 beim Finanzdienstleistungsunternehmen Equifax helfen, indem es den passenden Antrag liefert und sogar, basierend auf einem vorherigen Gespräch, bestimmte Abschnitte ausfüllt. Nach demselben Prinzip hilft DoNotPay Flüchtlingen, Einwanderungsanträge in den USA und Kanada zu stellen sowie Asyl in Großbritannien zu beantragen.

Expertenstimmen

Markus Kaiser ist Professor für Praktischen Journalismus. Im September 2017 leitete er, gemeinsam mit Dr. Sebastian Haas, die Tuzinger Journalistenakademie „Wie Technik den Journalismus verändert“ und hielt dort einen Impulsvortrag zum Thema „Künstliche Intelligenz, Chatbots und die automatisierte Kommunikation mit den Nutzern – aktuelle Projekte, Möglichkeiten und Visionen“.

„Bots und Künstliche Intelligenz sind im Jahr 2017 die neuen großen Themen in der Medienbranche und haben den Hype um Virtual und Augmented Reality auf den Medienkonferenzen etwas in den Hintergrund gedrängt. Bots sind in allen Branchen, für nahezu alle Lebenssituationen einsetzbar. Chatbots überzeugen heute leider noch nicht, man muss sich nur mal zum Beispiel den der Lufthansa oder des “Guardian” auf Facebook anschauen. Dies liegt weniger an der Programmierung als an den Konzepten und Inhalten, ohne die diese Anwendungen nicht spannend sind. Deshalb ist es für viele Bereiche derzeit noch eine Spielerei.

In der Wissenschaftskommunikation können Bots vielfältig für verschiedenste Zielgruppen eingesetzt werden: Man kann Forschungsergebnisse dem Bürger im Dialog erklären, andere Wissenschaftler können damit durch den Wust und die teils schlecht strukturierten Websites von Forschungseinrichtungen und Universitäten navigiert werden. Was in meinen Augen generell bei Chatbots zu kurz kommt: Wenn man hier im Dialog nicht weiterkommt, muss eine einfache Schnittstelle geschaffen werden, um dann den Dialog mit echten Menschen weiterzuführen.

Sehr gut kann ich mir vorstellen, dass Bots zum Beispiel (analog zum Informationsdienst Wissenschaft IDW) arbeitet und von allen Hochschulen, Universitäten und Forschungseinrichtungen die neuen Pressemeldungen auswerten. Allerdings darf man nicht vergessen: Bevor die automatisierte Kommunikation mittels eines Bots klappt, muss man viel individuelle Arbeit als Mensch auch in die Aufbereitung der Inhalte hineinstecken.“

Was sind Social Bots?

Wenn es um Social Bots geht, dann sind allerdings andere Anwendungen gemeint. Und zwar solche, die eigene Accounts bei Social Media Plattformen wie z. B. Facebook und Twitter haben. Einer Studie der Indiana University und der University of Southern California zufolge, stecken Bots hinter bis zu 15 % der gut 319 Millionen aktiven Twitteraccounts (= 48 Millionen).

Außer reinen Bots gibt es auf den diversen Plattformen auch noch Hybride aus menschlichem Nutzer und Bot, also Bots, die Menschen unterstützen, und Menschen, die von Bots unterstützt werden, sogenannte Cyborgs. Hierunter fallen sowohl automatisierte Accounts, die nur gelegentlich von Menschen mitbetreut werden, als auch Accounts, bei denen der eigentlich Content von einem Menschen stammt, der aber bestimmte Aufgaben automatisiert hat, wie z. B. das Retweeten von Erwähnungen.

Gerade im Hinblick auf jede größere Wahlveranstaltung tauchen Social Bots nun immer wieder mit Negativschlagzeilen auf.  Das Büro für Technikfolgen-Abschätzung beim deutschen Bundestag (TAB) definiert diese in seinem Thesenpapier zum öffentlichen Fachgespräch über Social Bots wie folgt:

„Social Bots sind Computerprogramme, die eine menschliche Identität vortäuschen und zu manipulativen Zwecken eingesetzt werden, indem sie wie Menschen im Internet kommunizieren“

Ziele dieser Bots sind laut dem TAB die inhaltliche Verzerrung von Diskussionen und die Überhöhung der Wichtigkeit gewisser Themen, Personen und Produkte. Dabei sind weniger einzelne Bots besorgniserregend, sondern ihr massenweises Auftreten oder sogar ihr Zusammenschluss zu sogenannten Botnets, die darauf programmiert sind, ein gemeinsames Ziel zu verfolgen. Das bisher größte Social Botnet wurde Anfang 2017 von Londoner Informatikern gefunden und umfasste 356.000 Accounts.

Noch beruhen die Aussagen über tatsächliche Effekte dieser Meinungsroboter auf Spekulationen, da bisher keine Studie „einen gesicherten Nachweis der Wirkung und Efffekte von Social Bots liefern konnte“. Daher hat das Projekt die Debatte von Wissenschaft im Dialog (WiD), dem Science Media Center Germany (SMC) und der Technischen Universität Braunschweig zwei Wochen lang Experten zu Wort kommen lassen, die sich mit den Thema Social Bots befassen.

Da Social Bots ein gewisses destruktives Potenzial haben und mit fortschreitender Entwicklung immer schwieriger zu erkennen sind, fördert beispielsweise das Bundesministerium für Bildung und Forschung (BMBF) Projekte wie PropStop und Social Media Forensics, die sich unter anderem mit dem Aufspüren von Social Bots befassen.

Was hat das mit Wissenschaftskommunikation zu tun?

Die Social Bots haben auch harmlose Verwandte, die zwar auf denselben Grundlagen aufbauen, sich jedoch in Zielsetzung und Verhalten deutlich unterscheiden. Für die allermeisten dieser Programme gilt, dass sie nicht zur „Meinungsmache“ geschaffen wurden und nicht versuchen sollen, eine menschliche Identität vorzutäuschen. Sie verfolgen keine manipulativen Absichten, sondern zielen vor allem auf die Bereiche Assistenzsystem und Entertainment ab. Solche Bots haben viele Gesichter:

Als Assistenten können sie alle möglichen Fragen beantworten (@DearAssistant), nach Aufforderung an Termine und Aufgaben erinnern (@mnemosynetron) oder zu bestimmten Themen auf dem Laufenden halten (@netflix_bot). Sie sind fähig, mittels Algorithmen Bilder (@JuliaSetBot) und Texte (@poem_exe) zu generieren. Andere Bots unterhalten, indem sie stummen Zimmerpflanzen eine Stimme und die Möglichkeit für hunderte Selfies verleihen (@luegenkresse) oder basierend auf den Daten der amerikanischen Volkszählung regelmäßig kurze Lebensgeschichten tweeten (@censusAmericans). Wieder andere sind der Ausdruck kreativer Medienkritik (@SPIEGELCaptions) oder helfen anonyme Änderungen an Wikipedia-Artikeln, die von IP Adressen in Regierungsgebäuden stammen, zu überwachen (@parliamentedits/ @congressedits).

Doch können Bots auch Wissenschaft kommunizieren? Einige wenige versuchen sich daran:

@fly_papers: Dieser Bot entstand aus der Not heraus, mit den Unmengen an ständig erscheinender Forschungsliteratur Schritt zu halten. @flypapers durchsucht Pubmed und arXiv nach Neuem zum Thema Drosophila und tweetet dann Links zu passenden Abstracts und Preprints. Die Idee hat schon einige Nachahmer gefunden, sodass es eine wachsende Zahl an Bots dieser Art gibt, z.B. @BioPapers, @EcoEvoJournals, @PlantEcologyBot und @CultEvoBot

@treewatchbritz ist der deutsche Beitrag zum Projekt STReESS (Studying Tree Responses to extreme Events: a SynthesiS) des European Cooperation in Science and Technology (COST) Programms. Dabei handelt es sich um einen twitternden Baum auf der Versuchsfläche Britz des Thünen-Instituts in Eberswalde. Ungefähr dreimal täglich berichtet die Birke von ihrem Wachstum und dem Wasserfluss in ihrem Inneren. Insgesamt twittern aktuell vier Bäume für das Projekt (https://treewatch.net/#).

TreeWatchBitz
(Quelle: twitter.com)
Expertenstimmen

Dr. Daniel Lingenhöhl ist Redaktionsleiter von spektrum.de. 2011 war er am Projekt „Talking Tree“ beteiligt, einem der ersten Versuche eines Twitterbots für die Wissenschaftskommunikation:

„Der Talking Tree war damals schon so etwas wie Neuland, den wir nach einem Vorbild in Belgien zusammen mit der Uni Erlangen umgesetzt haben. In der Praxis erwies sich das Unterfangen allerdings als deutlich schwieriger. Denn die Software war entgegen der Versprechungen doch nicht in der Lage automatisch mehr als banale Tweets wie “Hallo, mir geht es gut” oder “Ich produziere Sauerstoff” abzusetzen. Die eingehenden Daten der Messinstrumente mussten also quasi händisch weitergegeben werden – der “Bot” war also ich: Ich habe mehrmals täglich die Daten aus Erlangen in Echtzeittweets übersetzt und konnte dabei auf die tatsächlichen Wetter- und Umweltsituationen eingehen.

Heute ist die Technik da sicherlich weiter – was man auch daran sehen kann, dass die unterschiedlichsten Lebewesen (wieder Bäume, aber auch Kühe) mit Sensoren ausgestattet wurden, die wiederum live ins Internet übermittelt werden. Dahinter steckt zwar weiterhin immer ein Mensch, aber der Transfer läuft automatisierter als damals. Das ist etwas ganz anderes als Meinungsbots, die bestimmte Aussagen immer und immer wieder retweeten und damit eine Scheinöffentlichkeit schaffen.“

@shark_girls: Mehrmals täglich liefert dieser Account mittels Google Map visuell die Geodaten der beiden Haie Mary Lee und Katharine. So ist es möglich, die mit Peilsendern versehenen weißen Haie auf ihrer Wanderung durchs Meer zu begleiten.

@pomological tweetet alle drei Stunden ein zufällig ausgewähltes Bild von alten Obst-Aquarellen aus der Sammlung des Landwirtschaftsministeriums der Vereinigten Staaten. Ähnlich verhält sich @MuseumBot, der zufällig ausgewählte Open Access Bilder tweetet, die Stücke aus der Sammlung des Metropolitan Museum of Art in New York zeigen sowie @MOMARobot, der Bilder von Objekten aus dem Museum of Modern Art tweetet. Alle drei Bots sind inoffiziell.

@werabot, ein Akronym für Weltraum Bot, liefert über ein Dutzend Mal am Tag Informationen zum Thema Astronomie, die von reinen Fakten bis zum Verweis auf interessante Blogbeiträge, Videos und Experimente reichen.  Außerdem kann er auf Anfrage die Uhrzeit des Sonnenuntergangs und -aufgangs für einen Standort liefern, sowie darüber Auskunft geben, wann die Internationale Raumstation eine bestimmte Stadt überquert. Die Funktionen dieses Bots werden stetig ausgebaut. Ankündigen zufolge soll @werabot bald auf Veranstaltungen hinweisen und auf Anfragen zu Mondphasen reagieren.

Tweet WeRaBot
(Quelle: twitter.com)
Expertenstimmen

Stefan Gotthold ist Astronomie-Blogger, Astrofotograf und Social Media Manager. Außerdem ist er der Programmierer des @WeRaBot:

„@WeRaBot hat gezeigt, dass vor allem wiederkehrende Aufgaben auch in der Wissenschaftskommunikation mit Automatisierung viel einfacher zu bewerkstelligen sind. Das lässt sich so ziemlich in jeden Wissenschaftszweig übertragen, da hier immer wieder Standard-Fragen auftreten, die eben sehr gut von einem Bot erklärt werden können. Beachtet man die Entwicklung in der NLP (Natural Language Processing) und im ML (Machine Learning) wird in Kombination mit KI-Algorithmen in Zukunft die Häufigkeit von Bots in den Social-Media-Netzwerken zunehmen.“

Aber ist das ein sinnvolles Werkzeug für die Wissenschaftskommunikation? Werden Tweets, die von einem Bot stammen, genauso ernst genommen, als hätte sie ein Mensch verfasst? Dies haben Edwards et al in einem Experiment untersucht, in dem Probanden in zwei Gruppen eine Attrappe der Twitter Timeline des Centers for Disease Control and Prevention (CDC) mit Tweets zum Thema sexuell übertragbare Krankheiten gezeigt wurden, die sie anschließend bewerteten. Die Tweets waren für alle Probanden identisch, jedoch zeigte die Timeline der einen Gruppe an, dass der Account von einem Mitarbeiter des CDC betreut wurde und für die andere Gruppe, dass es sich um automatisch durch einen Bot generierte Tweets handelte. Die Auswertung des Experiments ergab, dass ein Twitterbot als glaubwürdige Informationsquelle wahrgenommen wird und dass er bezüglich seiner Kommunikationskompetenz nicht schlechter eingeschätzt wird. Edwards et al erklären ihre Ergebnisse mit Verweis auf die Computers are Social Actors (CASA)-Theorie, die besagt, dass Menschen bei einer Interaktion mit Computern (in diesem Fall mit Bots), falls diese menschlichen Züge an den Tag legen, zunächst dieselben Heuristiken anwenden als würden sie mit einem Mensch interagieren. Es ist allerdings anzumerken, dass die Studie aus dem Jahr 2013 stammt, also vor den ersten Negativschlagzeilen über Socialbots während des Ukraine-Konflikts.
Der CASA-Theorie gegenüber stehen Ergebnisse von Spence et al, die basierend auf der Social-Sript-Theorie davon ausgehen, dass Menschen nur die Interaktion zwischen Menschen kennen und sie daher in der Interaktion mit Bots verunsichert sind und geringere Erwartungen an die sozialen Fähigkeiten des Gegenübers haben.

Zu solchen Ergebnissen kommen auch Murgia et al, die einen Bot für die Q&A Website Stack Overflow programmierten, um die Mensch-Bot-Interaktion genauer zu untersuchen. In ihrem Feldexperiment ließen sie ihren Bot auf typische Fragen eines Typus antworten. In einer ersten Runde ließ der Bot nicht erkennen, dass er kein Mensch war und agierte unter dem Nickname Joey Dorrani, in einer zweiten Runde dagegen nannte er sich Answer_Bot und sein Profil erklärte deutlich, dass er ein kein Mensch war. Obwohl jedes Mal dieselbe Funktionalität zur Verfügung stand, wurden die Antworten des Bots durch die Stack Overflow Community schlechter bewertet.

Und nun?

(Quelle: https://xkcd.com/1646/)

Überzeugende und spannende Chatbots zu programmieren ist eine schwierige und langwierige Aufgabe, kleine Twitterbots dagegen sind leicht zu realisieren. Wer eine kreative Art sucht, Wissenschaftskommunikation zu betreiben, könnte in Bots das passende Mittel dafür finden. Das Internet ist voller Tutorials (hier eine Liste für Twitterbots und eine Liste für Facebookbots) und es gibt auch Unmengen fertiger Codebeispiele, die darauf warten, auf die eigenen Bedürfnisse zugeschnitten zu werden.
Voraussetzung für die Entwicklung eigener Bots ist zum einen das von der Plattform, auf der der Bot agieren soll, bereitgestellte Application Programming Interface (API) und zum anderen die von der Plattform vorgegebenen Richtlinien. Ein dritter Faktor, der momentan noch vernachlässigbar ist, in der Zukunft aber vielleicht maßgeblich sein könnte, sind die rechtlichen Rahmenbedingen. So fordern aktuell verschiedene Politiker eine Kennzeichnungspflicht für Bots.

Steht eine API bereit, sollte man sich allerdings auch mit den Nutzerrichtlinien der Plattform vertraut machen. Denn nicht alles was möglich ist, ist von der Plattform auch erlaubt. Verstöße können dazu führen, dass Accounts gesperrt werden. Twitter z. B. hat nicht nur eine Reihe von Nutzerrichtlinien, sondern auch eine ganze Liste an Automatisierungsregeln und Best Practices. So sind z. B. automatisierte Direktnachrichten nur mit ausdrücklicher Genehmigung des Angeschriebenen erlaubt und es ist verboten, Tweets automatisch zu favorisieren.

Einem leblosen oder stummen Forschungsgegenstand oder sogar einem ganzen Forschungsfeld eine Stimme in Form eines Bots zu verleihen, ist eine neue Möglichkeit, mehr Leuten die eigene Forschung näher zu bringen.

Wer auf die immer bedeutender werdenden Instant Messaging Dienste blickt, wird Bots ebenfalls interessant finden. Wie zu Zeiten der alten IRC (Internet Relay Chat) Quiz-Bots lassen sich auch heute Bots über die API der verschiedenen Messenger Dienste einbinden und stellen so eine Möglichkeit dar, auch über diese Kanäle ein großes Publikum zu erreichen.

Natürlich können Bots genauso wenig einen Social Media Beauftragten ersetzen wie sie auch keinen Wissenschaftsjournalisten ersetzen können, dazu fehlt es ihnen an der Fähigkeit, Tatsachen und Ereignisse einzuordnen. Aber Bots sind in der Lage, auf vielfältige Weisen zu unterstützen.

Yannic Scheuermann

Akademische Mitarbeiterin in der Abteilung Wissenschaftskommunikation (Institut für Germanistik) des Karlsruher Instituts für Technologie (KIT).
Bots für die Wissenschaftskommunikation
Markiert in:                 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.