21.6.2022
Am 02. Juni fand das Swiss Internet Governance Forum in Bern statt. Unter anderem wurde dort über die rechtliche Situation bei der Regulierung von künstlicher Intelligenz bzw. algorithmen-basierter Entscheidungsmechanismen diskutiert. Auch die Bedeutung von Social Media im Bereich (politischer) Meinungsbildung, deren negative Seiten und die Frage, welche Herausforderungen sich diesbezüglich für die Regulierung stellen, wurde besprochen. Wir waren mit von der Partie - und haben den Tag in Bern in diesem Text für Sie zusammengefasst.
Dem Web 2.0 – und mit ihm den darin aufblühenden Sozialen Medien – wurde viel demokratisches Potential nachgesagt. War das Internet davor noch grösstenteils als unidirektionales Medium angelegt (Produzenten > Konsumenten), so stand das 2.0 für die Vervielfältigung der Richtungen, in der Inhalte flossen. Damit verbunden wurde die Dichotomie von Produzent:in und Konsument:in aufgebrochen. Auch dank Social Media konnte nun im Prinzip jede:r Inhalte produzieren und in die weite Welt hinaus senden. Das Internet wurde demokratisch, hiess es, weil nun alle aktiv partizipieren konnten.
Was ist geblieben vom demokratischen Potential?
Diese Euphorie scheint mittlerweile verpufft zu sein. Wurden vor noch nicht allzu langer Zeit die demokratisierenden Effekte und Partizipationsmöglichkeiten des Web 2.0 betont, scheint man sich heute eher darum zu sorgen, dass die darin gross gewordenen Plattformen den politischen Diskurs beschädigen und Einfallstor für allerlei Manipulation darstellen. Diese Bedenken wurden am IGF ausführlich im Plenum zum Thema “Plattformen: Politische/wirtschaftliche Herausforderungen und Regulierung” diskutiert.
Ursachen
Aber woran liegt es, dass sich das einstige Potential ins Gegenteil verkehrt zu haben scheint? Dafür hatte Franziska Öhmer-Pedrazzi, Kommunikationswissenschaftlerin an der FH Graubünden, einige Hinweise geliefert. Einerseits bevorzugen die Algorithmen Inhalte, die viel Interaktion erzeugen, und das sind zumeist solche, die polarisieren und emotionalisieren. Andererseits können sich auf den sozialen Plattformen leicht intransparente Akteure mit negativen Absichten breit machen. Hierbei muss es sich nicht einmal um echte Personen handeln, auch Bots können – automatisiert und 24 Stunden täglich – digitale Brandstiftung begehen.
Jacques Beglinger, der zusammen mit Livia Walpen das Forum moderiert, bringt es in der Eröffnungsansprache folgendermassen auf den Punkt: “Es ist ebenso leicht, bösartige Inhalte wie Hassrede und Fakenews zu teilen, wie gutartige”.
Verzerrung des gesellschaftlichen Abbilds
Dass die Algorithmen polarisierende Inhalte verstärken, führt zu einem aus gesellschaftlicher Sicht nicht wünschenswerten Ungleichgewicht, das die Wahrnehmung auf das reale Stimmungsbild verzerrt und trübt. Dieses düstere Bild droht zur “self fulfilling prophecy” zu werden. Eine scheinbar zunehmend hasserfüllte und polarisierte Welt, die anfängt, dieser verzerrten Darstellung von sich selbst zu glauben und sich am Ende tatsächlich zunehmend polarisiert – Stoff für ein Drama, leider aber eben auch Realität. Die Algorithmen der Plattformen wirken aufgrund ihrer Vorliebe für Reaktionen wie ein digitales Megafon für die lautesten Schreihälse.
Wie reagieren?
Das Plenum beschäftigte sich deshalb mit der Frage: Wie angemessen reagieren, bzw. regulieren? Damit verbunden müsste geklärt werden, wer überhaupt in Verantwortung zu ziehen ist?
Diesbezüglich herrschte keineswegs Einigkeit. Von einigen wurde mehr Verantwortungsübernahme durch die Plattformbetreiber:innen gefordert, andere entgegneten, dass eigentlich Gerichte entscheiden müssten, was zu löschen sei und was nicht. Dies wiederum warf die Frage auf, wer die mit diesem aufwändigen Prozess verbundenen Mehrkosten zu tragen habe. Sind die User:innen am Ende gar die einzigen Verantwortlichen?
Ein Teilnehmer ging sogar soweit zu sagen, dass die Schweiz gar nichts erfolgreich regulieren könne, schliesslich handle es sich um internationale Konzerne mit Sitz im Ausland. Diese Aussage ist im Ansatz zwar verständlich, jedoch kommt sie einer Kapitulation gleich und scheint somit auch für das Gros des Plenums keinen gangbaren Weg darzustellen. Zudem ist zu bedenken, dass wir nicht das einzige Land mit Interesse an einer Regulierung sind und anderen Ländern diesbezüglich sogar hinterher hinken. Auch wenn das Internet und die grossen Akteure darin global sind, ist es dennoch sinnvoll, eine Rechtsgrundlage für die Schweiz zu schaffen.
Mehrere Verantwortliche - wo ansetzen?
Vielleicht gibt es aber auch nicht den/die alleinige Verantwortliche. Auf den Plattformen spielen mehrere Akteure zusammen. Vielleicht können wir sagen: Als User bin ich für das verantwortlich, was ich poste. Die Plattform ist einerseits für den Algorithmus verantwortlich, der bestimmte Inhalte über andere bevorzugt, andererseits für die Aufstellung von Nutzungsregeln (Guidelines, was gepostet werden darf und was nicht). Für die gesetzlichen Rahmenbedingungen hingegen ist der Souverän verantwortlich.
Darüber, welche Inhalte illegal sind, besteht wahrscheinlich bereits vergleichsweise grosser Konsens. Offen ist, inwiefern die Verzerrung der Meinungsbildung durch einen Algorithmus durch das Gesetz reguliert werden kann? In diesem Sinne ist die Frage nach der Regulierung der Plattformen ebenfalls zu einem Teil die Frage nach der Regulierung von algorithmen-basierten Entscheidungsmechanismen.
Offen ist, wie die Regulierung von illegalen Inhalten praktisch umgesetzt werden kann.Gerichte sind für eine derartige Praxis nicht ausgerüstet. Das liegt aber nicht etwa an ihrer Rückständigkeit, sondern an der Funktionsweise des Internets und seiner für tradierte juristische Prozesse viel zu hohen Entwicklungsgeschwindigkeit. Bis ein Gericht nur schon von einem illegalen Inhalt erfahren hat, ist dieser bereits millionenfach geteilt – und der Schadenangerichtet.
Das Problem: ein Algorithmus - die Lösung: ein Algorithmus?
Eine Antwort könnte sein, wiederum einen Algorithmus zu bemühen, die Inhalte herauszufiltern, die nicht wünschenswert sind. Gegen Uploadfilter besteht jedoch grosser Widerstand. Diese Vorbehalte sind durchaus berechtigt. Denn: Solange Algorithmen diskriminierend angelegt sind, wasin einem Plenum diskutiert wurde, können diese ebenfalls nur eine Verzerrung des “echten Abbilds” der Gesellschaft produzieren. Diese wäre zwar weniger explizit als beispielsweise ein Hassbeitrag heute, dafür aber tiefer verankert und subtiler. Noch wichtiger aber: sie wäre systematisch angelegt und von menschlichen Entscheiden und situativer Abwägung entkoppelt.
Was aber die Gesellschaft heute schon von den Plattformen einfordern könnte, wäre die Entkopplung der Priorisierung von Inhalten von deren Likes und Shares. Dadurch würden polarisierende Inhalte nicht mehr gegenüber sachlichem, informierendem, positivem und unaufgeregtem Content bevorzugt werden. Vielleicht wäre dadurch ein wichtiger Teil des Problems schon gelöst. Die Schreihälse hätten zumindest kein Megafon mehr zur Hand, das ihre einseitigen Inhalte ungeprüft und massenhaft verbreitet.
+++
Beitragsbild: Screenshot von der igf.swiss Website.