Moral und Algorithmen

LfM-Medienversammlung: Diskussion über die Möglichkeiten einer digitalen Ethik 

Von Reinhard Lüke
14.07.2016 •

Gepöbelt wurde schon immer. Wo allerdings unflätige Meinungsäußerungen zu Themen und Personen früher eher im Kreise der Familie oder am Stammtisch getätigt wurden und über diese begrenzten Räume auch selten hinausgelangten, kann heute jeder Nutzer des Internets nahezu die ganze Welt an seiner besonderen Sicht der Dinge teilhaben lassen. Laut einer neuen, von der Landesanstalt für Medien Nordrhein-Westfalen (LfM) in Auftrag gegebenen Forsa-Studie sind zwei Drittel aller User in Deutschland bereits Zeugen sogenannter Hass-Kommentare im Netz geworden. Unter den 14- bis 24-Jährigen, die sich überdurchschnittlich in den sozialen Netzwerken tummeln, sind es gar 91 Prozent. Nach seriösen Schätzungen ist hierzulande jeder fünfte Jugendliche selbst schon einmal Opfer von Cyber-Mobbing geworden.

Allemal Grund genug für die in Düsseldorf ansässige LfM, sich am 28. Juni im Rahmen ihrer 10. Medienversammlung in Köln mit dem Thema ‘Moral im Netz’ zu beschäftigen. Die Überschrift dazu lautete: „Von Meinungsmachern und Meinungsmacht im Internet – Welche digitale Ethik brauchen Mensch und Maschine?“ Dabei spielte die sogenannte Hate Speech auf der Veranstaltung letztlich jedoch eine eher untergeordnete Rolle. Schließlich gelten auch für Beleidigungen im Internet grundsätzlich dieselben Persönlichkeitsschutzrechte wie im sonstigen Leben. Auch Äußerungen, die den Tatbestand der Volksverhetzung erfüllen, lassen sich strafrechtlich verfolgen. Sie müssen allerdings zur Anzeige gebracht werden – was bislang, so der Rechtsanwalt und Medienexperte Niklas Haberkamm in Köln, noch viel zu selten geschehe. Bei den Strafverfolgungsbehörden, so der Anwalt weiter, sehe er jedoch eine zunehmende Bereitschaft, sich solcher Rechtsbrüche anzunehmen.

Verantwortungsdiffusion

Haberkamm betonte, dass aber auch die Betreiber der entsprechenden Netzwerke und Plattformen eigene Verantwortung tragen würden. Wenngleich man von ihnen schlechterdings nicht verlangen könne, alles zu lesen und gegebenenfalls zu löschen, was auf ihren Seiten passiere, stünden sie jedoch in der Pflicht, bei konkreten Hinweisen auf strafbare Äußerungen zu reagieren. Das noch immer häufig vorgebrachte Argument, für die Inhalte seien ausschließlich die User verantwortlich, sei so nicht akzeptabel. Politischen Handlungsbedarf sah Haberkamm vor allem bei anonymen Beleidigungen und Pöbeleien im Netz, denen mit den geltenden Gesetzen juristisch derzeit kaum beizukommen sei. Hier bedürfe es dringend der Nachbesserung, um solchen anonymen Online-Prangern einen Riegel vorzuschieben.

Izabela Koza, Online-Redakteurin beim „Kölner Stadt-Anzeiger“, berichtete von einer eklatanten Zunahme von Hass-Kommentaren zu bestimmten Artikeln in ihrer Zeitung. Zugleich schilderte Koza ihren Eindruck, dass immer weniger User kein Problem mehr damit hätten, rassistische Pöbeleien unter ihrem Klarnamen abzusondern – eine auch eher beunruhigende Entwicklung.

Doch die Frage nach einer Ethik im Zeitalter des omnipräsenten Internets umfasst weit mehr als das Moment der individuellen Verantwortung. Schließlich werden die Folgen des eigenen Handelns im Netz von Programmen gesteuert, die der einzelne Nutzer gar nicht mehr überschauen bzw. beeinflussen kann. So erklärte Petra Grimm, Leiterin des Instituts für Digitale Ethik der Hochschule der Medien in Stuttgart, dass die Grundlagen der Ethik von Aristoteles und Kant hier nur noch zum Teil greifen, da sie einen freien Willen und den Vorsatz zur Bedingung moralischen Handelns machten. Big Data hingegen führe zu einer „Verantwortungsdiffusion“, der es eine „werteorientierte Digitalkompetenz“ entgegenzusetzen gelte.

Das Transparenz-Problem

Doch diese Digitalkompetenz zu erlangen, ist selbst für interessierte Laien inzwischen nahezu ein Ding der Unmöglichkeit. Das machte Katharina Zweig vom Fachbereich Informatik der Technischen Universität Kaiserslautern in ihrem Impulsvortrag deutlich. Im Zentrum standen dabei jene Algorithmen der Programmierungen von Suchmaschinen und Netzwerken, die darüber entscheiden, welche Information uns im Internet erreichen und welche nicht. Letztlich handelt es sich dabei um Selektionsinstrumente, die von Vorteil für den Nutzer sind, wo sie ihn nur mit den für ihn relevanten Daten beliefern.

Doch die Kriterien der Selektion von Informationen sind für den Nutzer nicht transparent, da die Betreiber dieser Plattformen ihre komplexen Algorithmen als Betriebsgeheimnisse natürlich nicht preisgeben. Dabei seien diese Instrumente, so Zweig, die auch Mitbegründerin der Plattform ‘Algorithm Watch’ ist, keine wertfreien, technischen Mechanismen, sondern von Menschen mit bestimmten Intentionen entwickelte Programme. Damit könnten nicht nur Wahlen beeinflusst werden, indem man bestimmte Nachrichten oder Personen ausblende; denkbar sei auch, dass jemand irgendwann von seiner Krankenkasse eine individuelle Beitragserhöhung in Aussicht gestellt bekomme, da seine Aktivitäten im Internet auf einen ungesunden Lebenswandel schließen ließen.

Als konkretes Beispiel eines solchen Mechanismus erwähnte Zweig den Fall von Programmierern des US-Geheimdienstes, die sich sicher waren, einen unfehlbaren Algorithmus gefunden zu haben, mit dem für Terroristen tätige Kuriere aufgespürt werden könnten. Bei einer der damit aufgespürten Personen handelte es sich jedoch keineswegs um einen Terror-Sympathisanten, sondern um einen Journalisten, der sich rein beruflich mit dem Thema intensiv beschäftigt hatte. Ein Programmierfehler, der im schlimmsten Fall tödlich hätte enden können. In jedem Fall, so forderte die Professorin für Sozioinformatik, sei eine größere Transparenz erforderlich, wo es um Zielvorgaben und Nebenwirkungen von Algorithmen gehe.

Google bestimmt das Weltbild

Wie schwierig diese Transparenz herzustellen ist, erläuterte anschließend Pascal Jürgens, wissenschaftlicher Mitarbeiter am Institut für Publizistik der Universität Mainz, am Beispiel von Suchmaschinen. Wobei es letztlich nur um Google ging, da der US-amerikanische Suchmaschinen-Konzern in puncto Marktbeherrschung inzwischen alle Konkurrenten in den Schatten gestellt hat. Bei Google geht es vor allem um die Frage der Selektion von Informationen. Natürlich selektiert auch jede Zeitung ihre Nachrichten nach der von Redakteuren definierten Relevanz, doch genau diese Relevanz ist bei Suchmaschinen gänzlich intransparent. Wobei es weniger darum geht, ob bestimmte Informationen vorsätzlich unterdrückt werden. Entscheidend ist vielmehr das Ranking.

Wie und nach welchen Kriterien entscheidet die Maschine über die Reihenfolge, in der die Informationen dargeboten werden? Schließlich bewegen sich die meisten Nutzer bei ihren Suchen lediglich auf der ersten oder vielleicht noch der zweiten und der dritten Seite. Informationen, die auf Seite 67 abrufbar wären, sind damit in der Praxis so gut wie nicht existent. Insofern, so Pascal Jürgens, werde unser Weltbild zunehmend von Google zumindest mitbestimmt, woraus die ungeheure Machtfülle eines einzelnen Unternehmens resultiere.

14.07.2016/MK

` `