Hackerville

Vortrag, gehalten am 28. September 2015 bei den „Cologne Conference Futures“

Von Frank Rieger

Abstract

Das Recht auf Kommunikation ist ein Menschenrecht und für Menschenrechte müssen Menschen einstehen. Ökonomische und politische Interessen laufen diesem Grundrecht zuwider und schränken es ganz erheblich ein. Auch ein technischer Laie kann es verteidigen. Es genügt eine Vorstellung davon, was Technikfolgen sind, welche ethischen und sozialen Folgen Informationstechnik hat. Das ist die Kernüberzeugung des Chaos Computer Clubs (CCC), der größten Hackervereinigung der Welt. Der CCC setzt sich mit gravierenden Entscheidungen und grundsätzlichen Tendenzen in der Informationstechnik und der Kommunikationspolitik auseinander. Dort kommen IT-Fachwissen und professionelles Anwenderwissen zusammen. Der CCC hat, wie kaum eine andere zivilgesellschaftliche Gruppe, einige der wichtigeren Fragen der vergangenen Jahre öffentlich gestellt und Arbeitshypothesen bereitgestellt. Warum tragen biometrische Daten auf Ausweisdokumenten kaum zu deren Fälschungssicherheit bei? Welche Probleme gibt es mit elektronischen Wahlverfahren? Und VW? Auch der erste globale Auto-IT-Skandal wirft Fragen auf.

Der folgende Text ist das Transkript des Vortrags von Frank Rieger, gehalten am 28. September 2015 bei den „Cologne Conference Futures“, abgedruckt im Medienkorrespondenz-Sonderheft Medienevolution“, MK-Ausgabe Nr. 20 vom 30. September 2016. Frank Rieger ist einer der Sprecher des Chaos Computer Clubs.

* * * * * * * * * * * * * * * * *

Wer von Ihnen kennt den Chaos Computer Club nicht? Sie haben uns sicher schon einmal in den Medien wahrgenommen. Wir sind Hacker. Unter Hacker verstehen wir etwas anderes als die amerikanische Öffentlichkeit, die sich mehr auf die negativen Konnotationen stützt, auf die Leute, die in fremde Computer einbrechen und dort Schaden verursachen. Wir verstehen hacken eigentlich mehr in dem Sinne, wie es ursprünglich gemeint war: Hacken ist der Versuch, Technologie soweit zu verstehen, dass man sie sich Untertan machen kann und in der Lage ist, sehr elegante Lösungen für Probleme zu finden, an die niemand gedacht hat, an die der Hersteller nicht gedacht hat. Technologie so zu benutzen, wie es technisch möglich ist, nicht so, wie der Hersteller es vorgesehen hat.

Der Chaos Computer Club ist als wahrscheinlich weltweit größte Hackervereinigung in so eine verantwortliche Rolle hineingerutscht; als jemand, der keine wirtschaftlichen, keine politischen Interessen wie eine Partei vertritt, sondern der eine simple Agenda hat: Kommunikation ist Menschenrecht. Wir sind große Freunde der Privatsphäre und wir wollen eigentlich dafür sorgen, dass politische Veränderung möglich bleibt. Wenn man versucht, die Mission zu definieren, die die politischen Hacker in Deutschland für sich sehen, ist sie vielfältig, aber im Kern steht: politische Veränderung möglich halten. Denn vieles von dem, was wir an digitalen Technologien sehen, hat die Tendenz hin zum Überwachungsstaat, zu Kontrolle, autoritäre Tendenzen im Staatswesen zu verstärken.

Wie arbeiten wir? Wir versuchen in der Regel meistens auf technische, aber auch auf gesellschaftliche Missstände oder die Kombination von beidem so hinzuweisen, dass wir Spaß dabei haben, dass es einen gewissen Fun-Faktor dabei gibt. Ein Beispiel: Da ging’s um die Fingerabdruck-Biometrie, darum, dass Fingerabdrücke als alleiniges Identifikationsmerkmal benutzt werden sollten in Reisepässen und Personalausweisen. In dieser Debatte haben wir’s ein bisschen schwer gehabt. Alle waren noch im Sicherheitswahn. Das Terrorismusnarrativ war noch ungebrochen und es ging darum, mehr Sicherheit gegen Passfälscher zu erzielen. Die Diskussion war im Wesentlichen irrational, weil zu diesem Zeitpunkt konnte (und auch heute kann niemand) behaupten, dass deutsche Personaldokumente irgendwie unsicher wären. Sie haben die niedrigste Fälschungsrate der Welt auch einfach aufgrund ihrer physikalischen Eigenschaften. Trotzdem wollte man Fingerabdrücke darin haben. Der Grund dafür war im Wesentlichen, dass der damalige Innenminister Otto Schily private finanzielle Interessen in der Biometrie-Industrie hatte, was sich dann hinterher herausgestellt hat, und die Bundesregierung die Bundesdruckerei sanieren wollte. Nun wollten wir also darauf hinweisen, dass Fingerabdrücke schwierig sind. Passwörter kann man beliebig oft wechseln, Fingerabdrücke hat man genau zehn. Wenn die alle weg sind, hat man ein Problem.

Schäubles Fingerabdruck für jedermann

Also, was haben wir getan? Wir sind zu einer Veranstaltung gegangen, wo der spätere Innenminister Wolfgang Schäuble sprach, haben uns sein Wasserglas besorgt und haben von diesem Wasserglas seine Fingerabdrücke extrahiert. Das ist ein relativ einfaches Verfahren. Man nimmt einfach ein bisschen Sekundenkleber, bedampft mit den Dämpfen von dem Sekundenkleber die Fingerabdrücke, fotografiert die mit einer Digitalkamera, macht die mit einem Bildbearbeitungsprogramm ein bisschen sauber und druckt dann diesen digitalisierten Fingerabdruck auf Overheadfolie mit dem Laserdrucker. Dann entsteht durch die Riefen des Toners ein Negativ von dem Fingerabdruck. Da schmiert man dann so ein bisschen weißen Holzleim rein oder Latex und lässt das sich setzen und dann entsteht so ein Häutchen, so dünn wie ein Kondom ungefähr, und das kann man sich dann einfach über den Finger ziehen, und wenn man das dann auf seinen Fingerabdruckleser legt, dann ist man halt Herr Schäuble. Das geht auch mit dem iPhone, da braucht man ein bisschen mehr Graphitspray, ist aber ähnlich primitiv. Das fanden die Medien dann doch ziemlich lustig. Das Bild vom Fingerabdruck von Herrn Schäuble ist bis heute in der dpa-Bilddatenbank. Es wird auch immer wieder gerne verwendet, wenn es darum geht, Fingerabdruck als Problem zu illustrieren. Das ist so unser Programm. Wir versuchen halt Dinge so zu machen, dass niemand zu Schaden kommt, dass die öffentliche Aufmerksamkeit erregt wird und dass wir anfangen, über dieses Problem zu diskutieren. Wir machen auch eine Menge anderer Sachen.

Unter anderem immer wichtiger: Infrastruktur bauen. Gerade sind sehr viele Leute aus dem CCC damit beschäftigt, Flüchtlingsheime zu vernetzen. Eines der Dinge in der Hackerethik, die sagt, wir wollen gerne das Menschenrecht auf universelle und freie Kommunikation durchsetzen; und dazu gehört dann auch, es eben tatkräftig in die Hand zu nehmen und, trotz aller Widerstände und vorbei an den Widerständen, improvisierte Lösungen zu finden, diesen Menschen Internet zu verschaffen, weil es mittlerweile der wesentlichste Weg ist, die halt zu integrieren – zum Beispiel über Sprachkurse oder Zugang zu Arbeit und dergleichen. Das sind zum Beispiel zwei Ränder des Spektrums, das wir abdecken. Die Frage, die im Vortragstitel „Hackerville“ drinsteckt: Was ist denn die Rolle des Hackers in dieser digitalen Gesellschaft?

Wir haben da keine einheitliche Meinung. Wir sind auch der Chaos Computer Club, wir müssen keine einheitliche Meinung haben. Wir sind nicht der Ordnung Computer Club. Das Spektrum reicht von Leuten, die gerne in den Bundestag gehen zu Anhörungen und sich mit den teilweise abstrusen politischen Meinungen herumschlagen, bis zu Leuten die sagen: ‘Um Gottes Willen, damit will ich nichts zu tun haben.’ Die halt irgendwie Sachen hacken und damit die Welt verändern. Dazwischen gliedert es sich auf. Was wir aber immer mehr sehen, ist die Frage, wie Technik eigentlich funktioniert – wir hatten es ja gerade im vorherigen Vortrag.

Technik und insbesondere die Software und die Algorithmen darin sind ja immer ein Ausdruck menschlichen Willens, also einer Intention, und wenn wir uns den VW-Fall anschauen: Komplexe Technik ist ganz hervorragend geeignet, Intention zu verbergen. Also dafür zu sorgen, dass es nicht ohne Weiteres möglich ist, zu erkennen, was diese Maschine, dieses Gerät, wirklich und tatsächlich tut. Im VW-Fall ist es halt so, dass es einen sehr einfachen Weg gegeben hätte, zu sehen, was die Maschine eigentlich tut, nämlich: Reverse Engineering. Das heißt also, man nimmt sich den Chip da drin, extrahiert die Software – meistens muss man den Chip dafür ein bisschen misshandeln, bis er die Software preisgibt – und dann analysiert man die Software und schaut nach, was sie eigentlich tut.

VW und die Chip-Tuner

Das merkwürdige an dem VW-Skandal ist, dass das natürlich jede Menge Leute tun. Das sind die sogenannten Chip-Tuner. Das sind Leute, da können Sie ihr Auto hinfahren und da kaufen sie sich halt irgendwie den kleineren Audi und dann machen die da eine neue Software drauf und dann fahren sie den als den größeren Audi vom Hof, weil der einzige Unterschied zwischen den beiden Modellen – außer vielleicht ein bisschen Dekoration im Innenraum – ist nicht mehr als ein paar Tuning-Parameter im Motor. Die kann ein Chip-Tuner ohne weiteres ändern. Und natürlich wissen die Chip-Tuner alle, jeder einzelne von denen, dass dieses Auto einen Testmodus hat. Den erkennt das Auto einfach daran, dass sich nicht alle Räder drehen und das Lenkrad nicht bewegt wird, und was sie natürlich um Gottes Willen nicht tun werden, ist, die Motorparameter für diesen Testmodus anzufassen. Die wussten ganz genau, warum die so gerne Audi nehmen, als Fahrzeuge für Chip-Tuning – vollkommen klar –, denn wenn Sie mit dem Ding dann zum TÜV fahren, sieht das Ding vollkommen unverändert aus. Auf dem Teststand werden die Motorparameter für ‘Abgas-alles-super’ reingespielt, sobald sich die Räder nicht drehen, und ob das Ding mit 50 PS mehr vom Hof fährt, merkt wieder keiner. Dieses Wissen ist aber nicht öffentlich. Ist halt privates Wissen, mit dem Menschen viel Geld verdienen, Wissen, bei dem vielen Leuten damit gedient ist, dass es nicht allen bekannt ist – bisher.

Diese Situation sehen wir an immer mehr Orten, dass also Technologie als Ausdruck menschlichen Willens politische Relevanz erlangt. Das ist die tatsächliche Implementierung des menschlichen Willens, also, Lessig sagte ja „Code is Law“ und er hat natürlich in gewisser Weise Recht damit. Die faktische Implementierung menschlicher Intention, menschlichen Willens in Software, erlangt immer mehr Macht. Je komplexer diese Systeme sind und je mehr Technologie darin steckt, desto schwieriger wird es eben auch, dagegen vorzugehen. Also tatsächlich diese Intention zu hinterfragen, diese Intentionen anzugreifen, die Businessmodelle, die damit zusammenhängen möglicherweise in Frage zu stellen oder sich überhaupt noch ein moralisches Urteil darüber zu bilden, ob das, was man da sieht, was da getan wird, eigentlich überhaupt okay ist, ob das unseren gesellschaftlichen Zielen – so unscharf sie auch gegenwärtig sein mögen – entspricht. Diese Situation wird immer häufiger auftreten.

Wir haben jetzt noch die glückliche Lage, dass wir die Technologiewellen, die da so auf uns zu rollen, ungefähr erahnen können. Wir sind noch in der Lage zu sagen: Okay, mit der künstlichen Intelligenz, mit dem quasi nicht mehr vorhandenen Limit von Computing Power und Speicherplatz werden sich viele Dinge drastisch verändern. Wir werden sehen, dass der Großteil der etablierten Business-Modelle in sich zusammenfällt oder unerwartet dramatisch an Bedeutung verliert, aber auch, dass Systeme, die man eigentlich für stark und groß hält, davon betroffen sind, dass sie nicht mehr wirklich langzeitstabil sind. Die Frage, wie wir als Gesellschaft damit umgehen, ist natürlich kritisch, weil das durchgreifende Narrativ, der politische Konsens insbesondere in Deutschland zwischen den großen Parteien, ist Stabilität. Das ist halt die Antithese zu Veränderung. Wir haben jetzt die Situation, dass die technologischen Wellen, die kommen, dazu führen können, dass das Grundbedürfnis der meisten Menschen verletzt wird, nämlich: ‘Ich will mich eigentlich nicht verändern’ oder ‘Ich will, dass die Veränderung ein gewisses Maß nicht überschreitet’. Wie wir damit als Gesellschaft umgehen, ist bislang völlig unklar. Aus langjähriger Beobachtung der politischen Sphäre in Berlin, wo wir nun doch recht häufig unterwegs sind, häufig in Anhörungen sind oder Hintergrundgespräche mit den Parteien haben, sehen wir, dass wir den Punkt überschritten haben, wo Politik in Unkenntnis der Sachlage stattfand. Das heißt, es ist in der Regel nicht mehr so, dass schlechte oder falsche Entscheidungen getroffen werden, weil die entsprechenden Politiker nicht mehr wissen, wovon sie reden. Das kommt immer noch vor, ist aber nicht mehr der Hauptfall.

Das Ende der Naivität in der Digitalpolitik

Typischerweise ist es so, dass die Politiker sehr wohl verstehen und dass sie trotzdem aus politischen Gründen Entscheidungen treffen, die vielleicht nicht so schlau sind im Kontext der gesellschaftlichen Veränderung. Das ist ein Umdenken, was momentan auch in der netzpolitischen Aktivismusszene noch nicht wirklich angekommen ist, dass nämlich dieses Entscheidungen, die da gefällt werden, nicht immer darauf beruhen, dass Politik nicht weiß, sondern darauf, dass Politik nicht will. Die Netzpolitik oder die Digitalpolitik – das ist vielleicht der ein bisschen bessere Begriff –, ist zu einem Feld normaler politischer Auseinandersetzung geworden. Wir haben auf allen Seiten des politischen Spektrums politische Akteure, die in der Lage sind, ihren Willen zu artikulieren, und die aus grundlegenden Überzeugungen, die häufig auch Partikularinteressen sein können, Entscheidungen treffen, die vielleicht suboptimal sind. Die Frage, wie wir zu einer gesellschaftlichen Steuerungsfähigkeit zurückkommen, wie wir uns in die Lage versetzen, mit der Technologie-Entwicklung und den entsprechenden gesellschaftlichen Veränderungen so umzugehen, dass wir am Ende nicht in einem Neofeudalismus landen, wie es vorhin formuliert wurde, ist eine drängende Frage. Deswegen vielleicht noch einmal meine Frage: Haben wir eigentlich eine Chance, also, sehen wir da eigentlich irgendwo, dass es Möglichkeiten des politischen Diskurses online gibt, die so aussehen, als könnten wir uns ein Bild formen?

Momentan sehe ich die nicht und das ist dramatisch problematisch. Die Frage, ob wir noch für alle Menschen Arbeit haben, also, ob wir in 20 Jahren noch so etwas wie Vollbeschäftigung anstreben können, stellt sich nicht mehr. Wir wissen, dass die Technologiewellen so schnell kommen werden, dass zumindest ein Teil der Leute, die arbeitslos werden, nicht schnell genug neue Arbeit finden können, weil es nicht ihren Talenten entspricht, nicht ihrer Ausbildung entspricht, nicht ihren Lebensentwürfen entspricht. Dazu kommt noch, dass die Digitalisierung, also die datenmäßige Erfassung von Tätigkeiten, in der Regel der erste Schritt ist zum Mindestlohn. In dem Augenblick, wo wir in der Lage sind, eine Tätigkeit vollständig durchzudigitalisieren, sie vollständig zu erkennen in all ihren Aspekten, machen wir sie messbar. In dem Augenblick, in dem wir sie messbar machen, machen wir denjenigen, der diese Tätigkeit ausführt, austauschbar. Dann nimmt man sich einfach den nächsten. Ein extremes Beispiel: Bei einem Motorfertiger in den USA, die für Landmaschinen produzieren, standen sie vor den Fragen: Automatisieren wir die Motormontage? Kaufen wir teure Roboter und teures Engineering ein, um den Zusammenbau des Motors zu automatisieren? Was sie getan haben, war das Gegenteil. Sie haben diesen teuren Roboter, den sie hätten kaufen müssen – teilweise auch hätten entwickeln müssen –, einfach durch einen Menschen ersetzt, aber haben alles drumherum so gebaut wie für einen Roboter. Das heißt, der Mensch steht in einem Käfig, vor sich den Motorblock, vor sich einen großen Bildschirm. Auf dem Bildschirm steht: ‘Dieses Teil muss dahin an den Motor’. An der Decke ist ein Laser, der leuchtet auf den Motorblock, wo genau dieses Teil rein muss, und vor sich hat der eine Materialausgabe und da kommt genau dieses eine Teil heraus, das er jetzt genau an diese Stelle schrauben muss. Nichts anderes. Und auch die anderen Werkzeuge sind blockiert. Er kann nur das Werkzeug benutzen, mit dem er diese Schraube an dieser Stelle bringen muss. Erst wenn er die festgeschraubt hat und auch die Bilderkennung oben erkennt ‘Diese Schraube ist da drin’ und der Drehmomentsensor an dem Schraubenschlüssel erkannt hat, dieses Schraube wurde mit dem richtigen Drehmoment angezogen, erst dann kommt das nächste Teil raus und er sieht auf dem Bildschirm den nächsten Arbeitsschritt.

Das ist also eine völlig von menschlichem Willen befreite Tätigkeit. Der Mensch ist also eigentlich ein Sklave. Das ist möglich. Die Technologie gibt es heute her, das können wir heute bauen. Die Frage ist halt, ob wir das wollen. Jeder vernünftige Mensch würde sagen: Da muss ein Roboter hin. Nach Stanislaw Lem: Jede Tätigkeit, die von einer Maschine erledigt werden kann, sollte von einer Maschine erledigt werden, damit der Mensch Zeit für Besseres und Schöneres hat. Naja, da müsste man das halt automatisieren. In Deutschland würde das wahrscheinlich nicht durchgehen. Zum Glück wäre die IG Metall dagegen. Aber was wir sehen, ist: Automatisierung und Computerisierung sind mitnichten zwangsläufig ein Trend, der zu mehr menschlicher Freiheit führt. Die menschliche Intention beim Einsatz dieser Technik ist der entscheidende Faktor – auch schon in der ganzen Geschichte.

Automatisierung und Sklaverei

Die großen Wellen des Sklavenhaltens in den USA kamen erst, nachdem eine Maschine erfunden wurde, mit der es möglich war, Baumwolle zu entkernen – der sogenannte „Cotton Gin“. Die Geschichte zu lesen, ist tatsächlich ziemlich faszinierend, weil es eine Maschinenerfindung war, also eine Automatisierungserfindung, die ursächlich dafür verantwortlich war, dass riesige Mengen Sklaven in die USA gebracht wurden und sich diese ganzen Südstaaten-Sklavenhalterkultur in diesem Maß entwickeln konnte. Eigentlich war zuvor die Sklaverei schon auf dem absteigenden Ast, da für quasi alle anderen Tätigkeiten aus der Baumwollverarbeitung Sklaven eher ungeeignet waren, weil man da ja mitdenken und eine Beziehung zu seinem Job haben musste. Aber diese Mechanisierung führte dazu, dass man Leute, die nur durch die Peitsche motiviert waren, einsetzen konnte und das auch getan hat.

Das heißt: Wenn wir auf die heutige Zeit blicken, sehen wir, dass eigentlich die Technologien, die wir jetzt haben und die wir in absehbarer Zeit haben werden, dazu führen, dass wir uns aussuchen können, in welcher Art von Gesellschaft wir leben wollen. Wollen wir in einer Gesellschaft leben, die uns allen ermöglicht, mit vier, fünf Stunden Arbeit am Tag und das vielleicht noch nicht mal fünf Tage die Woche problemlos überleben zu können und eine gute Zeit zu haben? Oder wollen wir in einer Gesellschaft leben, die absichtlich so gespalten wird, dass es so wie heute eine Klasse von Menschen gibt, die halt völlig überarbeitet und gestresst ist, sich dafür aber einreden kann, Mittelklasse zu sein oder Mittelschicht zu sein, und ein riesiges Heer von prekären Arbeitsverhältnissen, Menschen, die für den Mindestlohn arbeiten, die alle Tätigkeiten machen, die noch nicht automatisierbar sind – und es werden zunehmend weniger.

Diese Spaltung der Gesellschaft sehen wir schon heute. Wir haben bereits heute eine klare Spaltung in höher qualifizierte und niedrig qualifizierte Tätigkeiten. Die in der Mitte werden zunehmend wegautomatisiert und auch bei den wegfallenden Arbeitsplätzen sehen wir eine ähnliche Tendenz, dass also an den äußeren Rändern die Automatisierung, insbesondere bei den prekären und billigen Arbeitsverhältnissen, dass die Automatisierung dort zuschlägt. Und die gesellschaftliche Entscheidung darüber zu treffen, um diesen Bogen zurückzuschlagen, in was für einer Gesellschaft wir leben wollen, erfordert natürlich einen gesellschaftlichen Dialog. Den haben wir gerade nicht. Wir haben mittlerweile nicht einmal mehr einen Dialog in der Presse. Es gibt de facto keine Debatten mehr, die wirklich stattfinden, es gibt nur noch das Hecheln von einer Schlagzeile zur nächsten. Es gibt kein gemeinsames Nachdenken mehr. Wir haben verlernt, tatsächlich Debatten so zu führen, dass wir einem gemeinsamen Ziel nachstreben. Es ist so, dass es kaum noch möglich ist zu sagen: ‘Wir haben ein Problem. Hier gibt es unterschiedliche Ansichten und wir sind uns zumindest grob einig, was die Faktenlage ist.’ Wir sind noch nicht so schlimm dran wie die USA, wo die politischen Fraktionen, obwohl sie so weit aus hiesiger politischer Sicht gar nicht entfernt sind, sich nicht einmal darauf einigen können, was die Faktenlage ist. In dieser Situation, wo wir quasi keine Möglichkeiten der gesellschaftlichen Verständigung haben, haben wir jetzt diese Technologien, diese Herausforderungen, und es sind nicht die einzigen, die wir haben. Wir haben den Klimawandel, wir haben Flüchtlingskrisen, wir haben Umweltverschmutzung, wir haben Demografie-Probleme. Es ist nicht so, dass wir einen Mangel an Krisen hätten. Es ist eher so, dass wir einen Überschuss haben.

Das heißt: Gesellschaftliche Verständigung wäre bitter nötig. Nur, die findet nicht wirklich statt. Daraus folgt für mich die Frage: Wie kommen wir wieder dahin? Haben wir eigentlich eine Möglichkeit, zum gesellschaftlichen Dialog zurückzukehren, zu einer gemeinschaftlichen Entscheidungsfindung? Ich kann diese Frage nicht beantworten. Technologie könnte uns helfen. Möglicherweise finden wir Mittel und Wege, so etwas online zu machen. Vielleicht finden wir Mittel und Wege, eine politische Verständigung wieder einzuführen. Die Hacker probieren es immer wieder mal. Wir sind da sehr experimentierfreudig. Die Piratenpartei war eines dieser Experimentierfelder, aus dem man viel lernen kann. Aus gescheiterten Experimenten lernt man am meisten. Was wir da gut sehen konnten, war, dass allein die Diskussion darüber, ob man versucht, ein Online-Werkzeug als Mittel der politischen Entscheidungsfindung, in diesem Fall Liquid Feedback, zu benutzen, entgegen der althergebrachten Variante mit Delegiertenkongressen, schon das reicht aus, um eine politische Partei zu zerlegen. Das ist schon bemerkenswert. Allein diese Lehre können wir schon daraus ziehen.

Kleine Interessengruppen, keine neuen Parteien?

Noch eine weitere Lehre, die sich für mich persönlich manifestiert. Wenn wir uns das Schicksal der AfD angucken. Möglicherweise ist es auch so, dass das Internet verhindert, dass neue politische Parteien überhaupt gegründet werden können. Das ist erst einmal eine These. Ich weiß nicht, ob sie stimmt. Aber mir scheint, dass dadurch, dass früher das Vehikel ‘politische Partei’ dazu diente, dass Menschen sich trafen, die ähnliche politische Interessen hatten, war es notwendig, sich physisch zu bewegen. Man musste also zusammenkommen. Gut, es gab das Telefon, aber es war nicht so, dass man politischen Willen manifestieren konnte, ohne sich tatsächlich durch die Gegend zu bewegen. In der heutigen Welt ist es aber so, dass jede noch so kleine abseitige schräge Meinung problemlos über die Online-Medien Wege findet, eine genügend kritische Masse findet, um Relevanz zu haben. Das heißt, wir haben quasi die physische Fünf-Prozent-Klausel verloren. Die gibt es jetzt nicht mehr.

Wirklich jede noch so kleine Bewegung, wenn sie irgendeine Relevanz hat, ist jetzt in der Lage, zumindest ein paar hundert Leute zusammenzutrommeln und damit hinreichend viel Lautstärke zu entwickeln, dass man sie ernst nehmen muss. Möglicherweise führt das dazu, dass wir nicht mehr in der Lage sind, etwas wie eine neue Partei hinreichend kohärent zusammenzubasteln, um politische Relevanz zu entwickeln, was ein sehr faszinierendes Ergebnis wäre. Die Frage, welches Ziel sollten emanzipatorische Bewegungen heute verfolgen, halte ich für extrem wesentlich, weil wir auf jeden Fall ein intellektuelles Vakuum haben. Wir stehen vor diesen Technologiewellen, vor ihren Folgen und den sonstigen Krisen, ohne ein richtiges Konzept. Was mir da fehlt, ist eine positive Definition. Einfach zu sagen, aus der europäischen Aufklärung, aus der Position, die wir haben, dem Menschenbild, das wir haben: Wie sieht das in der digitalen Welt aus? Was ist gutes Leben in der digitalen Welt? Was ist gute Arbeit in der digitalen Welt? Welche Menschenrechte will ich haben? Und ich glaube, dass diese Definition zu erarbeiten der erste Schritt raus aus dem Problem ist. Also zu sagen: Okay, lasst uns mal einen Schritt zurücktreten. Wir haben jetzt ein bisschen Erfahrung. Nehmen wir mal ein einfaches Beispiel. Digitalisierung ist ein Mittel, um Individualisierung perfekt zu machen – zum Beispiel bei der Autoversicherung.

Früher war es so: Wenn Sie ein Auto versichern wollten, ging es zuerst um den Autotyp, wie dick der Motor war; dann kam dazu, wie lange Sie schon gefahren sind, dann, in welcher Gegend Sie gewohnt haben, um auch die Einbrüche und Diebstähle abzudecken. Mittlerweile teilen Sie Ihren Versicherungstarif für Ihr Auto mit einer Gruppe von so 10.000, 15.000, 20.000 Menschen. Innerhalb dieser Gruppe haben Sie eine Solidarität. Anderes Beispiel: Arbeitsverträge. Bei großen Autokonzernen haben Sie so etwas wie 1500 bis 2500 verschiedene Arbeitszeitmodelle, so verschiedene Flexibilitäten, und auch da ist es so, Sie sind – auch wenn das Modell sehr individuell auf Sie zugeschnitten ist – Bestandteil einer Gruppe. Sie verhandeln kollektiv. Vielleicht ist eines dieser digitalen Menschenrechte das Recht, nicht individualisiert zu werden. Sondern zu sagen: Ich möchte bitte gerne aus Gerechtigkeitsgründen als Bestandteil eines Kollektivs behandelt werden – in diesem Aspekt meines Lebens, und sei es auch nur, weil ich absehen kann, dass ich irgendwann älter werde und dann meine Versicherungstarife durch die Decke gehen würde. Oder dass ich einen ungesunden Lebenswandel pflege und dies als mein gutes Menschenrecht ansehe und nicht einsehe, dass irgendjemand darüber entscheiden soll, was ich essen soll oder was ich rauche. Was nach heutigem Menschenrechtsverständnis mein gutes Recht ist.

„Nudging“ – die neuen zweifelhaften Ideale

Nach heutiger Sicht würde man sagen, ja, in zehn Jahren, wenn wir genau wissen, wann jemand schläft, ob jemand raucht, ob jemand sich bewegt – was machen wir mit diesem Wissen? Verwenden wir es, um ein Optimierungsziel durchzusetzen, das wir gar nicht kennen oder nicht verstanden haben? Vor zehn Jahren waren wir alle fest der Ansicht, dass viel Spinat zu essen super ist. Bis jemand festgestellt hat, dass leider das mit dem Eisen im Spinat so ein Kommafehler war. Noch vor fünf Jahren war jeder Arzt der Meinung, dass wenig Salz total super für unseren Blutdruck ist. Heute wissen wir, das stimmt halt leider nicht so ganz. Jedenfalls nicht so simpel, wie es präsentiert wurde. Wenn wir jetzt aber die Werkzeuge haben, zu monitoren, was die Menschen essen, weil sie es freiwillig preisgeben, weil sie es in ihren Diätplan einbauen, in ihre App, dann können wir sie ja dahin nudgen. „Nudging“ ist der Begriff, der gerade im Neokon-Bereich gerne verwendet wird. Ja, also okay, wir haben die Werkzeuge, wir wissen, was gut für die Menschen ist. Wir haben das Wissen – vermeintlich, und dann bringen wir die Leute dahin, mehr Spinat zu essen. Obwohl wir eigentlich nicht wirklich wissen, sondern eigentlich nur schätzen. Dieser Verlust, dieser technologisch vermittelte Verlust, von persönlicher Freiheit im Namen des großen Ganzen, im Namen des Guten, für etwas, das toll ist, weil wir ja eine Vision davon haben, davon frei und davon nicht betroffen zu sein, halte ich für ein wichtiges Menschenrecht in der digitalen Welt, denn sonst landen wir bei dem, was die Chinesen da treiben.

Die Chinesen haben eine Vision ihrer Gesellschaft, die ist perfekt kompatibel mit dem ungebremsten technologischen Fortschritt. Das ist die sogenannte harmonische Gesellschaft. Die harmonische Gesellschaft bedeutet: Das Ziel ist das größtmögliche Glück für die größtmögliche Zahl. Wir möchten gerne und das mit allen Mitteln, dass es möglichst vielen Menschen ökonomisch besser geht. Wenn dabei ein paar tausend Bauern leiden müssen, weil ihr Land enteignet wird, um darauf Wohnungen zu bauen oder sonst irgendwelchen Quatsch darauf zu bauen, dann ist das halt so. Hauptsache, das große Ziel wird erreicht – inkompatibel mit dem europäischen Menschenbild. Wir sagen, das Individuum ist der Kern unserer Überlegungen. Die individuellen Rechte sind in jedem Fall zu achten. Jeder einzelne Mensch hat seine Menschenrechte und diese Menschenrechte zu verletzen, steht nicht zur Debatte – Artikel 1, Grundgesetz. Die Frage, wie vereinbaren wir diesen Grundsatz mit dem, was wir wissen können, mit dem, was wir handeln können, wird uns die nächsten zwanzig Jahre intensiv beschäftigen, weil sie an Stellen hochkommen wird, an denen wir nicht damit rechnen.

Riskante Sparmaßnahmen bei der ethischen Ausbildung

Nehmen wir dazu mal ein richtig schwieriges Beispiel. In Island ist ein großer Teil der Bevölkerung – nicht die Mehrheit – im Rahmen von Forschungsprojekten DNA-profilmäßig erfasst. Das heißt, sie haben dort eine große Datenbank. Darin sind ein paar hundert DNA-Profile und jetzt fangen sie an zu analysieren. Die Menschen, die in diesen Datenbanken sind, haben ihr Einverständnis gegeben, dass ihre Daten analysiert werden können. Dann stellen sie fest, naja, aus diesen Daten können wir jede Menge Aussagen über Leute machen, die nicht in dieser Datenbank sind, nämlich die Verwandten von diesen Leuten, die irgendeine genetische Beziehung zu denen haben. Kinder, Eltern, Großeltern, sonstwie verwandt. Das heißt, wir können zum Beispiel sagen: ‘Du hast nicht dein Einverständnis gegeben, dass deine genetischen Daten in dieser Datenbank landen, wir wissen jetzt aber, dass du wahrscheinlich ein erhöhtes Risiko für Brustkrebs hast.’ Was machen wir denn jetzt? Sagen wir’s ihm oder sagen wir’s ihm nicht? Und wenn ja, wie machen wir das eigentlich? Schicken wir einen Brief? Nicht so eine gute Idee. Sagen wir’s dem Hausarzt? Wie kriegen wir raus, wer der Hausarzt ist? Diese Art von Problemen wird uns immer mehr beschäftigen.

Und das Problem, das ich dabei sehe, ist, dass die Leute, die dann vor diesen Problemen stehen, Wissenschaftler, Informatiker, in der Regel keine Ausbildung dafür haben. Das heißt also, wir haben gerade die Situation, dass gerade die Fächer Informatik und Gesellschaft, wo wenigstens versucht wird so etwas wie ethische Grundlagen zu vermitteln, weggekürzt werden, die Lehrstühle werden nicht erneuert, bis auf wenige Ausnahmen. Das heißt, die ethisch-moralische Grundausbildung, um die Leute überhaupt in die Lage zu versetzen, Entscheidungen zu treffen – jetzt nicht einmal, um sie zu beeinflussen –, ihnen das geistige Bewusstsein zu geben, wird vernachlässigt. Das halte ich für einen der gröbsten Fehler, die wir gerade in unserem Bildungssystem machen, neben etlichen anderen; dass wir nicht verstehen, dass eine rein technisch orientierte Bildung ohne philosophisches Rüstzeug, ein ethisch-moralisches Rüstzeug, so nicht mehr ausreicht.

Wohin das führt, sehen wir ganz prima in den USA. Da haben wir eine Menge Leute, die mit sehr großen technischen Keulen arbeiten und auch die Mission haben, die Welt zu verändern. Wenn wir uns den Facebook-Gründer oder die Google-Jungs anschauen oder Alan Musk – die haben alle den Anspruch, zu sagen: ‘Ich will mit Technologie die Welt verändern. Ich will die besser machen. Ich will das Klima retten’. Was auch immer. Sie haben durchaus Erfolg dabei. Gucken wir uns Musk an: Elektroautos, Solarzellen – löst das Energiespeicherproblem. Da kann man erst mal nicht so viel gegen sagen. Gucken wir uns hingegen Facebook an – die würden gerne auch noch das letzte Quäntchen menschlicher Interaktion monetarisieren. Die würden eigentlich auch noch gerne das letzte Bit an Information über menschliche Beziehungen und Zusammenhänge der marktwirtschaftlichen Erschließung zugänglich machen. Dann stellt sich schon die Frage, die irgendwie auch mein jüngster Sohn so stellte: ‘Dürfen die das?’ Von mir aus eigentlich nicht. Aber: Klar dürfen sie das, wir haben ja Geschäftsfreiheit. Da kommen wir dann genau zum Kern des Problems: dass die gesellschaftliche Abneigung, die derzeit existiert, auch bei uns existiert, über Business-Modelle moralische Urteile zu fällen, so nicht weiter bestehen bleiben kann. Wir haben in vielen anderen Fällen ganz klare Meinungen.

Wenn ich jetzt hingehe, mache morgen einen Stand auf dem Markt auf, wo ich Ihnen Robbenbabyfellmützen verkaufe – der Stand wäre keine zwei Stunden da, weil er von Tierschützern und empörten Menschen gestürmt würde. Wenn jemand hingeht und sagt: ‘Ich schaffe jetzt mal das Taxigewerbe ab, weil ich es kann’, dann sagen die meisten Leute: ‘Dann passiert das halt.’ Ohne jedoch darüber nachzudenken, was die Implikationen dabei sind. Und dieses Verstehen, dass auf der anderen Seite der digitalen Spaltung in dem Sinne: Die Menschen, die das machen, versus die Menschen, die dann das Opfer davon sind, dass dieses Mitspracherecht nicht technologisch etabliert wird, ist momentan eines der größten Probleme, das wir auch bei der Rettung des Planeten haben. Wir wollen eigentlich wissen: Was kommt hinten raus?

Die Technikfolgen müssen uns alle  interessieren

Im deutschen Datenschutzrecht haben wir das Problem, dass wir zwar zwei sehr gute Grundsätze haben, nämlich Datensparsamkeit und die Zweckbindung. Das heißt also: Erfasse so wenig Daten wie möglich und verwende sie nur dafür, wofür du gesagt hast, dass du sie verwenden willst. Der Rest ist so ein bisschen, naja, gebaut für die Zeiten von Mainframes – hatte also schon Probleme mit PC-Netzwerken, ist mit der Architektur des Internets eher grob überfordert. Und vor allem fehlt dabei ein ganz wichtiger Punkt, nämlich die Transparenz über Ergebnisse. Eigentlich möchte ich wissen: ‘Ich habe dir meine Daten gegeben, liebes Google, damit ich deine Google-Docs benutzen kann und deine Mail benutzen kann, die ja ganz super sind und prima funktionieren, aber so richtig wohl ist mir eigentlich nicht dabei. Ich würde ja gerne wissen: Was machst du denn eigentlich mit den Daten? Wirklich. Also nicht nur so pro forma. Welche Erkenntnisse ziehst du daraus? Was tust du damit eigentlich?’ Das ist ein weiterer Baustein in der Kette der digitalen Menschenrechte, zu sagen: Ich als Individuum habe ein Recht darauf, zu wissen, wer Daten über mich hat und was er damit tut. Ich möchte eigentlich, dass derjenige das von sich aus sagt, dass ich mich nicht selbst darum bemühen muss, sondern dass er mir einfach Bescheid sagt: ‘Hey, du bist gerade mit deiner Apple Watch an meinem Laden vorbeigelaufen, das machst du jetzt offenbar einmal die Woche. Ich weiß das über dich, dass du da einmal die Woche lang läufst.’ Kann ich sagen: ‘Okay, fine with me’. Oder: ‘Nee, mach mal lieber nicht.’ Aber ich weiß es momentan nicht. Ich habe keine Möglichkeit, zu erkennen, dass Technologie in dieser Weise für oder gegen mich verwendet wurde.

Viele Einkaufszentren in Großbritannien enthalten mittlerweile Mobilfunktracker. Die sagen Ihnen genau anhand des Mobiltelefons, ohne dass Sie da irgendetwas richtig toll Illegales tun, wie lange sie in welchem Laden waren, teilweise in welcher Ecke des Ladens. Das fällt dann hinten einfach raus als Datenbank. Die Informationen, wie sie verwendet werden, darüber wissen Sie nichts. Da haben Sie keine Beziehung zu. Und diese Frage der Informationssouveränität – also: Was für Informationen darf ich kontrollieren, welche Möglichkeiten habe ich eigentlich, „Nein“ zu sagen? – diese Frage ist für mich ein sehr wesentlicher Punkt beim Punkt der digitalen Menschenrechte, denn wir haben nicht alle die Möglichkeiten, die ein Hacker hat, der zu viel Zeit hat und das technische Wissen, sich einfach durchzubuddeln, hinterzusteigen, sich wirklich auch das letzte Bit anzuschauen. Die allermeisten Leute haben einfach andere Dinge zu tun. Das ist vollkommen verständlich. Was wir vorhin sagten, die Magie der digitalen Welt, meistens funktioniert sie ja einfach. Ich kann auf meine Amazon-App klicken und irgendwie zwei Tage später steht der Toaster vor der Tür. Wie das genau passiert, weiß ich nicht, Zertifikate, Crypto, irgendwas, Payment-Systeme, irgendwas, ich wollte eigentlich nur diesen Toaster haben. Aber am Ende muss es mich doch wieder interessieren. Nicht die Technik, aber was die Auswirkungen sind.

Also: Was passiert mit meinen Daten? Welche Möglichkeiten habe ich als Individuum, mit der Firma zu interagieren oder auch wieder nicht? Das ist so der momentane Stand des Denkens. Das ist work in progress, kein zu verkündendes Manifest, sondern tatsächlich der Versuch, dazu einzuladen, darüber nachzudenken: Welche abstrakt formulierbaren Rechte wollen wir eigentlich haben in dieser neuen digitalen Welt? – dabei ausgehend von dem Gedanken: Eigentlich möchten wir nicht mehr weiter Technologie regulieren. Wir wollen nicht sagen: Facebook, du darfst dieses nicht oder du darfst jenes nicht. Wir wollen nicht sagen: Okay, du darfst kein Auto bauen, das eine Vernetzung eingebaut hat. Das hat viele nützliche Anwendungen. Was ich nicht möchte, ist, dass ich mit diesen Technologien diskriminiert werde; und eigentlich ist es mir vollständig egal, welche Technologien du verwendest, um mich zu diskriminieren, ich will nicht diskriminiert werden. Ich will nicht Opfer sein des Datenschatzes, den ich ohne mein Wissen aufbaue. Diese Diskussion weiterzuführen, würde mich freuen.

29.10.2016/MK

Print-Ausgabe 20/2017

Inhalt

Abonnement

Jetzt abonnieren