Chancen, Grenzen, Hürden

Neue Vorschriften: Mit deutschem Medienrecht gegen Google, Twitter & Co.?

Von Thomas Fuchs
18.06.2021 •

Unter dem Titel „Kann Medienrecht den gesellschaftlichen Zusammenhalt fördern?“ fand am 27. Mai 2021 das 11. Hamburger Mediensymposium online statt. Es wurde wieder von der Medienanstalt Hamburg/Schleswig-Holstein (MA HSH), dem Leibniz-Institut für Medienforschung | Hans-Bredow-Institut und der Handelskammer Hamburg veranstaltet. Thomas Fuchs, 55, seit 2008 Direktor der MA HSH, betonte in seinem Vortrag zum Thema „Mit deutschem Medienrecht gegen Google, Twitter & Co.?“ die Bedeutung der Regulierung von Medienintermediären für den gesellschaftlichen Meinungsbildungsprozess. Er erläuterte beispielhaft ein Verfahren gegen Google wegen möglicher Verstöße gegen das Diskriminierungsverbot und das Vorgehen der MA HSH gegen die Verbreitung rechtswidriger Inhalte bei Twitter. Im Folgenden veröffentlichen wir den Vortrag von Thomas Fuchs im kompletten Wortlaut. • MK

- - - - - - - - - - - - - - - - - -

Der neue Medienstaatsvertrag (MStV) mit seinen Vorschriften für die Regulierung von Medienintermediären wirkt. Wie konkret – das wird in diesem Vortrag beschrieben. Das Fragezeichen hinter dem Vortragstitel deutet bereits an, dass es dabei viele Chancen, aber auch Grenzen und gewisse Hürden gibt.

Medienintermediäre sind soziale Netzwerke wie Twitter oder Facebook, aber auch Suchmaschinen wie Google oder Bing. Sie bündeln soziale, aber auch journalistisch-redaktionelle Inhalte Dritter und machen sie den Nutzerinnen und Nutzern zugänglich. Facebook, Google & Co. haben für die Meinungsbildung eine immer größere Bedeutung. Eine kürzlich im Rahmen des Projekts #UseTheNews vom Leibniz-Institut für Medienforschung | Hans-Bredow-Institut veröffentlichte Studie zur Nachrichtenkompetenz von Jugendlichen und jungen Erwachsenen, die auch von der MA HSH gefördert wurde, zeigt deutlich, dass diese Plattformen umso bedeutender für die Meinungsbildung werden, je jünger die Menschen sind.

Die Studie teilt 14- bis 17-Jährige in diese vier Kategorien ein: journalistisch Informationsorientierte, gering Informationsorientierte, umfassend Informationsorientierte und nicht-journalistisch Informationsorientierte. Mit Ausnahme der journalistisch Informationsorientierten waren soziale Medien bei allen 14- bis 17-Jährigen die am häufigsten genannte Informationsquelle. Zwar konsumieren Jugendliche über Medienintermediäre auch Zeitungsinhalte, dennoch führt der Weg zu diesen Inhalten und Informationen fast ausschließlich über soziale Medien. Die Meinungsbildung findet unter jungen Leuten somit überwiegend über diese Plattformen statt.

Zunehmende meinungsbildende Relevanz von Medienintermediären

Diese Entwicklungen hat auch der Gesetzgeber wahrgenommen und mit dem MStV einen regulativen Rahmen für die Bereitstellung von Inhalten durch Medienintermediäre geschaffen. Es gibt viele Aspekte, die bei den großen Plattformen eine Rolle spielen: Jugendschutz, Online-Hass und – hochaktuell auch mit Blick auf die Corona-Pandemie – Desinformation.

Der hier relevante Aspekt ist die Informationsvermittlung und Meinungsbildungsrelevanz der Medienintermediäre. Dieser Aspekt ist eng verwoben mit einer pluralistischen Gesellschaft und damit von entscheidender Bedeutung für ein demokratisches Zusammenleben. Denn Medienintermediäre sind nicht a priori vielfaltsorientiert im Sinne des Medienrechts. Ihre Geschäftsmodelle sind nicht von sich aus auf Vielfalt angelegt sind, sondern haben jedenfalls auch das Ziel, Geld zu verdienen oder Verweildauern zu erhöhen.

Das Gesetz definiert Medienintermediäre als Telemedien, die auch journalistisch-redaktionelle Angebote Dritter aggregieren, selektieren und präsentieren. Das bedeutet, dass alles, was es im Netz gibt, gesammelt und dann durch den Medienintermediär eine Selektion vorgenommen wird. Dies erfolgt meist algorithmisch. Am Ende wird die Selektion den Nutzerinnen und Nutzer präsentiert. Von dieser Aggregation, Selektion und Präsentation sind in den meisten Fällen auch journalistisch-redaktionelle Inhalte erfasst, die der Gesetzgeber wegen ihrer Relevanz für die Meinungsbildung besonders im Blick hat. Die Regulierung zielt insbesondere auf zwei Punkte. Zum einen auf die Schaffung von Transparenz: Ein Medienintermediär muss transparent darlegen, nach welchen Kriterien die präsentierten Inhalte selektiert werden, beispielsweise warum in einer bestimmten Situation der Artikel der Zeitung A gezeigt wird und nicht der der Zeitung B. Dies muss nicht konkret im Detail geschehen, aber generell für Nutzerinnen und Nutzer verständlich sein. Zum anderen sehen die neuen Normen ein Diskriminierungsverbot vor: Ein Medienintermediär darf bestimmte Anbieter grundsätzlich nicht gegenüber anderen Anbietern bevorzugen oder benachteiligen.

Überprüfung algorithmischer Entscheidungen

Beim Transparenzgebot handelt es sich insbesondere um formelle Vorgaben für Medienintermediäre, welche Informationen über den Selektionsprozess der Inhalte durch sie bereitgestellt werden müssen. Die Medienanstalten werden ab Herbst 2021 überprüfen, inwieweit Medienintermediäre sich an diese Vorgaben halten. Hier tun sich Fragen auf: Haben alle Intermediäre die richtigen Informationen zur Verfügung gestellt? Reichen diese Informationen aus, um zu verstehen, welche Prozesse im Hintergrund laufen? Einige Unternehmen bieten diese Art von Transparenz bereits. So gibt es bei Facebook teilweise die Möglichkeit, direkt zu überprüfen, warum ein bestimmter Beitrag im Newsfeed angezeigt wird. Nach ersten Untersuchungen der Medienanstalten halten die meisten Intermediäre Informationen bereit, aber in unterschiedlicher Qualität und Verständlichkeit. Ziel ist es, dass diese Informationen leichter verständlich und für Nutzerinnen und Nutzer auch leichter auffindbar sind.

Das Diskriminierungsverbot für Medienintermediäre bedeutet, dass der Medienintermediär nicht von seinen transparent gemachten bzw. transparent zu machenden Kriterien abweichen oder gerade durch bestimmte Kriterien bestimmte Angebote nicht besser oder schlechter behandeln darf. Ein solches Verbot ist in dieser Form bisher europaweit einmalig. Der Gesetzgeber hatte beispielsweise die Situation im Sinn, dass ein bestimmtes Genre oder ein bestimmtes Medienhaus bzw. ein Zeitungsverlag gegenüber anderen bevorzugt wird. In der Gesetzesbegründung wurde ausdrücklich auch die mögliche Situation benannt, dass der öffentlich-rechtliche Rundfunk gegenüber dem privaten Rundfunk bevorzugt wird. Diese Diskriminierungsbeispiele beziehen sich insbesondere auf Suchmaschinen. Bei sozialen Medien käme beispielsweise der Facebook Newsfeed als intermediäre Funktion in Betracht. Eine Diskriminierung könnte hier vorliegen, wenn bestimmte Inhalte ohne Angabe von Gründen stärker im Newsfeed angezeigt würden als andere.

Wie eine Diskriminierungsüberwachung in der Praxis funktionieren kann, wird sich mit der Zeit zeigen. Insbesondere eine Überprüfung algorithmischer Entscheidungen eines internationalen Medienintermediärs kann die zuständigen Medienanstalten vor eine große Herausforderung stellen. Darüber hinaus spielen Betriebs- und Geschäftsgeheimnisse eine Rolle: Inwieweit kann überhaupt von Google oder von Facebook verlangt werden, dass sie Auskunft über die genaue Funktionsweise ihrer Algorithmen geben?

Der Fall Google/gesund.bund.de

Dass es sich bei dem Ganzen nicht nur um reine Theorie handelt, zeigt ein erstes Verfahren zum Diskriminierungsverbot, dass wir aktuell führen. Hintergrund ist die Kooperation des Unternehmens Google Ireland Ltd. als Anbieter der Google-Suchmaschine mit dem Bundesgesundheitsministerium als Anbieter des Portals gesund.bund.de.

Zum Sachverhalt: Auf einer Pressekonferenz gab Bundesgesundheitsminister Jens Spahn im November 2020 bekannt, dass das durch das Bundesgesundheitsministerium herausgegebene Gesundheitsportal (das sogenannte Nationale Gesundheitsportal) mit Google vereinbart habe, bei der Eingabe von zunächst 160 krankheitsbezogenen Suchbegriffen die Inhalte des Nationalen Gesundheitsportals priorisiert anzuzeigen. Im Zeitraum von November 2020 bis Februar 2021 führte dies bei einem Desktop-Aufruf der Suchmaschine dazu, dass ein Kasten mit den Informationen des Nationalen Gesundheitsportals, versehen mit einem Link zu diesem, neben den generischen Suchergebnissen hervorgehoben sichtbar wurde. Beim mobilen Aufruf bekamen Nutzerinnen und Nutzer erst nach langem Scrollen die generischen Suchergebnisse überhaupt zu sehen. Dies galt auch für Angebote, die ansonsten durch das Ranking der Suchmaschine vorne gestanden hätten, beispielsweise die Inhalte von privaten Gesundheitsportalen wie netdoktor.de oder apotheken-umschau.de. Die Kooperation und Einblendung der Informationskästen wurde zwischenzeitlich aufgrund eines kartellrechtlichen Urteils eingestellt, das medienrechtliche Verfahren ist jedoch noch bei der MA HSH anhängig.

Zentral ist die auch gesellschaftlich relevante Frage, ob Google und der Bundesgesundheitsminister gemeinsam entscheiden können, dass bestimmte Inhalte anders und priorisiert gegenüber anderen Inhalten dargestellt werden, und sei es aus vielleicht nachvollziehbaren Gründen. Der neue Medienstaatsvertrag eröffnet erstmalig die Möglichkeit, Fälle dieser Art überhaupt in einem medienrechtlichen Verwaltungsverfahren zu überprüfen. Unabhängig vom Ausgang konkreter Verfahren schaffen diese neuen Vorschriften damit bereits einen Wert an sich: Medienintermediäre werden gegenüber der Gesellschaft rechenschaftspflichtig für bestimmte Entscheidungen mit potenzieller Auswirkung auf die Meinungsvielfalt.

Insbesondere vor dem Hintergrund des Spannungsfeldes zwischen Desinformationsbekämpfung und Diskriminierungsfreiheit gewinnt dies weiter an Relevanz. Die neuen Vorschriften erlauben eine Bevorzugung bestimmter Angebote und eine damit einhergehende Behinderung anderer nämlich grundsätzlich erst einmal nicht. Unter bestimmten Umständen kann es allerdings auch gute Gründe geben, bestimmte Angebote bevorzugt anzuzeigen. Dies kann bei qualitativ hochwertigen Inhalten, die Desinformationen ausgleichen, sogar wünschenswert sein. Teilweise gibt es hierzu auch entsprechende Selbstverpflichtungen der Medienintermediäre, zum Beispiel gegenüber der Europäischen Kommission. Umso wichtiger ist es, dass solche Entscheidungen meinungsbildender Medienintermediäre überprüft werden können.

Im konkreten Fall der Kooperation von Google mit dem Bundesgesundheitsministerium war das Ziel nach den Angaben der Beteiligten vor allem auch, durch die priorisierte Anzeige staatlich bereitgestellter Informationen Desinformation entgegenzuwirken. Hier stellen sich auch politische Fragen: Ist es richtig, dass der Staat seine Inhalte mit der Unterstützung einer großen Suchmaschine priorisiert darstellen lässt? Und gibt es nicht Grenzen staatlicher Öffentlichkeitsarbeit?

Die rechtlichen Fragen lassen sich im konkreten Fall folgendermaßen skizzieren: Nach § 94 MStV muss geprüft werden, ob ein Angebot durch die priorisierte Anzeige der Inhalte des Nationalen Gesundheitsportals systematisch behindert wird. Eine solche Behinderung könnte dadurch vorliegen, dass Inhalte des Nationalen Gesundheitsportals priorisiert wahrnehmbar sind. Die Priorisierung eines Angebots führt in der Regel zu einer Benachteiligung anderer. Aus Sicht der MA HSH ist dies im vorliegenden Fall, wie der Staatsvertrag sagt, „offensichtlich“, so dass ein Verfahren von Amts wegen eingeleitet wurde.

Der Fall Pornografie auf Twitter

Über die reine Behinderung anderer Angebote hinaus muss diese zudem auch unbillig sein. Bei der Abwägung, ob eine unbillige Behinderung vorliegt, sind wirtschaftliche und öffentliche Interessen gegeneinander abzuwägen. Dabei sind sowohl das wirtschaftliche Interesse von Google, das Suchmaschinen-Ergebnis zu verbessern, um sich Vorteile gegenüber Wettbewerbern zu erarbeiten, als auch das gerade genannte Interesse zur Desinformationsbekämpfung zu berück-sichtigen. Auf der anderen Seite stehen die Sicherung der Meinungsvielfalt sowie das Interesse der von der Behinderung betroffenen privatwirtschaftlichen Anbieter, ihre werbefinanzierten Angebote auch weit vorne wiederzufinden. Diese Wertungen sind seit dem neuen MStV nicht mehr alleinige Entscheidungen der Unternehmen, sondern unterliegen der Überprüfbarkeit durch die zuständigen Medienanstalten. Das Ergebnis des Verfahrens ist derzeit offen. Eine Entscheidung der zuständigen Kommission für Zulassung und Aufsicht der Medien­anstalten (ZAK) steht noch aus.

Darüber hinaus gibt es weitere Verfahren, die in diesem Kontext bei der MA HSH anhängig sind: Bei den Medienanstalten sind mehrere Beschwerden von regionalen Verlagen zum Google News Showcase eingegangen. Der Google News Showcase ist ein Nachrichtendienst, bei dem Inhalte der teilnehmenden Verlage gesondert dargestellt werden. Die beschwerdeführenden Verlage sind nicht am Google News Show Case beteiligt und wurden hierzu offenbar auch nicht eingeladen. Hieraus resultiere, so ihr Argument, eine Diskriminierung durch Google.

Die Teilnahme am Google News Showcase setzt einen Vertrag des jeweiligen Verlags mit Google voraus. Hier stellt sich zum Beispiel die Frage, ob es sich beim Google News Showcase überhaupt um einen Medienintermediär im Sinne des MStV handelt oder nicht eher um eine Medienplattform. Darüber hinaus könnten hier, unabhängig von einer möglichen Diskriminierung, die Transparenzvorschriften verletzt worden sein, da die Kriterien für die Auswahl der teilnehmenden Verlage gegebenenfalls nicht offengelegt worden sind. All diese Fragen werden derzeit durch die MA HSH und dann durch die ZAK geprüft und beantwortet. Perspektivisch werden wir uns vergleichbare Angebote anderer Intermediäre anschauen. Facebook News, das gerade gestartet ist, wäre ein solches.

Im Vortragstitel ist es bereits angesprochen: Auch Twitter als internationale Plattform stand im Fokus der Arbeit der MA HSH, in diesem Fall mit Blick auf den Jugendmedienschutz und die Frage, wie wir als deutsche Aufsicht Maßnahmen gegen rechtswidrige Inhalte auf der Plattform durchsetzen können. Twitter kennen viele eher als politisches Medium. Nicht selten wird man dort aber auch mit Pornografie konfrontiert, die jedoch nach Jugendmedienschutz-Staatsvertrag (JMStV) nicht frei zugänglich sein darf. Entsprechende Anbieter sind häufig jedoch nicht ermittelbar. Deswegen haben wir Twitter in die Pflicht genommenen und gefordert, die Inhalte zu löschen. Zwar sind Plattformen als Host-Provider erst einmal nicht für die Inhalte verantwortlich, die andere einstellen. Dies gilt aber nur, solange die Plattformen keine Kenntnis von den rechtswidrigen Inhalten haben. Sobald sie in Kenntnis gesetzt wurden, sind auch internationale Plattformen verpflichtet, rechtswidrige Inhalte zu löschen (Notice-and-take-down-Verfahren).

Ein klassischer deutscher Verwaltungsakt

So die Theorie. Die Praxis ist umständlich und zeitaufwendig. Die Verfahren, die wir gegen Twitter eingeleitet haben, zeigen das. So haben wir Twitter im vierten Quartal 2019 erstmalig angeschrieben und auf Verstöße hingewiesen. Twitter – Europa-Sitz Dublin – hat sich zunächst auf irisches Recht und die Unanwendbarkeit des deutschen Jugendmedienschutz-Staatsvertrags berufen. Wir haben daraufhin – über den Europabeauftragten der Medienanstalten – ein vorgeschriebenes Informations- und Konsultationsverfahren durchgeführt, in dem die EU-Kommission und die irische Medienaufsicht über die Einleitung eines Verfahrens nach deutschem Recht informiert werden. Nachdem die irische Medien­aufsicht mitgeteilt hat, selbst nicht vorgehen zu wollen, haben wir dem Zustellungsbevollmächtigten von Twitter in Deutschland das Anhörungsschreiben zugestellt.

Und dann haben wir – nach einem Beschluss der Kommission für Jugendmedienschutz (KJM) – einen klassischen deutschen Verwaltungsakt erlassen, mit dem Twitter die Zugänglichmachung der pornografischen Profile in Deutschland untersagt wurde. Und siehe da, auf diesen Bescheid hin hat Twitter die Inhalte für Deutschland gesperrt. So haben wir das erste Mal einen deutschen Verwaltungsakt in einem medienrechtlichen Verfahren gegenüber einem nicht in Deutschland ansässigen Unternehmen durchgesetzt. Aus Sicht der Regulierung ein Erfolg.

Natürlich gibt es zahlreiche weitere pornografische Inhalte auf Twitter. Deswegen sind wir auch in anderen Fällen an Twitter herangetreten. Bei diesen Verfahren hat die Durchsetzung des deutschen Rechts nicht mehr ein Jahr gedauert, sondern nur noch vier Monate. Und in Kürze wird es in einem größeren Termin mit Twitter darum gehen, ein verstetigtes Verfahren zu etablieren – vielleicht ähnlich den Löschverfahren bei volksverhetzender Hassrede, die wir als trusted flagger bei Facebook und YouTube kennen.

Mein Fazit: Das deutsche Medienrecht wirkt. Es kann auch gegenüber internationalen Plattformen durchgesetzt werden, wenn man bereit ist, Präzedenzfälle hartnäckig zu betreiben. Damit leisten wir einen kleinen Beitrag zu Pluralismus, Jugendschutz und hoffentlich auch zum gesellschaftlichen Zusammenhalt.

18.06.2021/MK

` `