Es gibt keine digitale Gesellschaft 

Anmerkungen zu einem politischen Phantom

Von Lutz Hachmeister
31.07.2015 •

31.07.2015 • Digital ist alles, was digitalisiert werden kann. Dies gilt inzwischen in Wissenschaft, Medien und Politik als gängiger Leitsatz. Aber ist auch „Gesellschaft“ digitalisierbar? Lutz Hachmeister beschäftigt sich in einem Essay, das wir dem gerade erschienenen „Jahrbuch Fernsehen 2015“ entnehmen, mit dem Konzept der „digitalen Gesellschaft“ und erklärt es zu einem „politischen Phantom“ von Netzaktivisten, verunsicherten politischen Parteien und Lobbyisten der US-Datenkonzerne. • MK

* * * * * * * * * * *

Nicholas Negroponte hatte einige Jahre lang für das schicke, noch im alten Stil auf Papier gedruckte US-Technologiemagazin „Wired“ Zukunftskolumnen geschrieben, über den „Wechsel vom Atom zum Bit“, wie er es nannte, über das Potenzial des gigantischen elektronischen Datentransfers und das „Digitale“ an und für sich. In der „Digitalzeit“ werde es nur noch „wenig Echtzeitfernsehen geben“, sagte er etwa voraus, so wie es in seinen Kolumnen der frühen 1990er Jahre sehr zentral und aus heutiger Sicht fast altmodisch um Multimedia, Television und Entertainment geht. Besonders ingrimmig griff Negroponte vor zwei Dekaden die überholte Nutzung des Faxgeräts an („ein japanisches Erbe“), das angesichts von E-Mail und digitalen Scans völlig überflüssig und lästig sei.

Im Dezember 1998 setzte der Sohn eines griechischen Reeders in einem letzten „Wired“-Text dann einen verblüffenden, aber logischen Schlusspunkt: „Seht der Wahrheit ins Gesicht: Die Digitale Revolution ist vorbei“, rief er seinen Lesern zu. Das Digitalsein werde so selbstverständlich wie das Atmen oder Wassertrinken, es habe damit sein Unterscheidungspotenzial verloren. Die wirklich überraschenden Veränderungen lägen jetzt woanders, „in unserem Lebensstil und wie wir gemeinsam unser Leben auf diesem Planeten gestalten“. Negroponte kam dann auf Fragen der Energieversorgung, der sozialen Gleichheit und der Geopolitik zu sprechen, natürlich ausgehend von den Wirkungen der „digitalen Revolution“, aber soziologisch darüber hinausweisend. Später bezeichnete man in gewissen Fachkreisen diese Argumentation als „postdigital“.

Die pragmatische Bundeskanzlerin

Negroponte, Jahrgang 1943, war der Direktor und Mitbegründer des „Media Lab“ am Massachusetts Institute for Technology (MIT), einer von großen US-Technologiefirmen gut durchgesponserten Denkfabrik, an der – im Gegensatz zur ärmeren, philologisch und kulturwissenschaftlich geprägten deutschen „Medienwissenschaft“ (die sich ja erfreulicherweise inzwischen intellektuell selbst aufgelöst hat[1]) – tatsächlich und ganz praktisch zur Robotik, Dreidimensionalität oder künstlichen Intelligenz geforscht wurde. In den 1990er Jahren, als Bertelsmann der zweitgrößte Medienkonzern der Welt war und man in Gütersloh Zukunftsentwürfe im Gefolge von Marshall McLuhan, Peter F. Drucker oder von Heidi und Alvin Toffler noch erregend fand, galt Negroponte als der führende Tech-Guru. Er konnte sich bei seinen Vortragsreisen ins alte Europa, woher die Computer- und Kybernetikpioniere der 1930er und 1940er Jahre zumeist gekommen waren, fürstliche Honorare abholen. Einige seiner „Wired“-Kolumnen waren 1996 in einer deutschen Buchausgabe unter dem Titel „Total Digital. Die Welt zwischen 0 und 1 oder Die Zukunft der Kommunikation“ erschienen. Der Originaltitel „Being Digital“ klang schon eher nach einem Modus des Da-Seins, also nach Hegel und Heidegger. Negropontes letzte Kolumne kam in Deutschland im doppelten Wortsinne nicht mehr an, denn da ging es mit dem „DigiBlabla“ (Tom Wolfe) erst richtig los. Politiker ließen sich gern mit Entrepreneuren der „New Economy“ fotografieren, hatten aber erst recht nach deren Kollaps nicht recht begriffen, was die angebliche „Neue Ökonomie“ überhaupt gewesen war oder sein sollte. Da war die pragmatische Bundeskanzlerin Angela Merkel (CDU) schon ehrlicher, als sie die gesamte Sphäre des World Wide Web oder des „Wirtschaftswunders 4.0“ gut ein Jahrzehnt später zum politischen „Neuland“ erklärte.

Die untergegangene „New Economy“ ist inzwischen umfassender und spiritueller durch die Konstruktion einer „digitalen Gesellschaft“ ersetzt worden. Bundesministerien, Verbände und Parteien überbieten sich mit Konferenzen zur „digitalen Gesellschaft“. Dabei geht es ohne begriffliche oder gar theoretisch-historiographische Fundierung mit Zustandsbeschreibungen und Forderungen bunt durcheinander. Zumeist bleiben die Resümees bei „schnellem Breitbandausbau auch in ländlichen Gegenden“, „freiem WLAN für alle“ oder „neuer europäischer Technologiepolitik“ (à la Airbus) hängen. Nun sind dies keine unbilligen Wünsche. Teilnehmer an „netzpolitischen Abenden“ in Berlin oder Nutzer der brav sozialdemokratischen Website #digitalLeben („Die digitale Revolution wird alle Teile unseres Lebens umfassen, das ist sicher“; „Martin Schulz würdigt Netzguru“ etc.), bekommen aber große, runde und traurige Augen, wenn man ihnen erklären muss, dass es eine „digitale Gesellschaft“ nicht gibt. Mitunter kommt es auch zu innerparteilichen Verstimmungen, wenn etwa der SPD-Parteivorsitzende einigen Netzfeministinnen, die nach eigener Aussage „im Internet leben“, brüsk empfiehlt, sie sollten sich öfter in die uncharmante Welt der Ortsvereine, Landtagsfraktionen und Sozialverbände begeben.

Das Digitale – ein Durchgangsstadium der Technologie-Entwicklung

Fangen wir sanft an. Digitale Kommunikation ist, so schon Paul Watzlawick, jede Form des codierten Transfers von Zeichen und Symbolen – wenn wir etwa K-a-t-z-e schreiben, anstatt das analoge Bild einer Katze zu zeichnen. Die Idee einer rechnerischen Binärcodierung entsteht in der zweiten Hälfte des 17. Jahrhunderts im Kopf des Universalgelehrten Gottfried Wilhelm Leibniz, der sich wiederum auf Inspirationen aus China beruft. Leibniz verknüpft sein mathematisches Interesse am „Calculus“, an der universellen Rechenmaschine, mit einem religiösen Dualismus: Die 0 ist das Nichts, die 1 repräsentiert göttliche Schöpfung und Fügung. Die in der zweiten Hälfte des 20. Jahrhunderts technisch-praktische einsetzende „Digitalisierung“ wiederum bedeutet Umwandlung, Speicherung und Transport von Artefakten und Objekten mithilfe dieses Kalküls im Rahmen von Computertechnologie und Telekommunikation. George Dyson hat die Ideen- und Wissenschaftsgeschichte dieses Kontexts – von Thomas Hobbes über Leibniz, Samuel Morse, Charles Babbage und Ada Lovelace, Alan Turing und John von Neumann – in seinem Buch „Darwin Among the Machines“ 1997 fein analysiert. Sein Buchtitel bezieht sich auf einen kardinalen, gleichbetitelten Artikel, den der Schriftsteller, Kunsthistoriker und Homer-Übersetzer Samuel Butler unter dem Pseudonym „Cellarius“ 1866 in einer neuseeländischen Zeitung veröffentlichte.

Darwins damals frische Ideen von der biologischen, durch Selektion und Adaption bewirkten Evolution der Lebewesen seien, so proklamierte Butler, auch für die Entwicklung der „Maschinenwelt“ substantiell. Die mithilfe der Menschen entstandenen Maschinen würden irgendwann logischerweise durch Selbstreproduktion die Vorherrschaft des Homo sapiens auf der Erde ablösen; nur „ein Krieg auf Leben und Tod“ könne diese Entwicklung stoppen. Seltsamerweise ist diese Prophetie der Maschinenherrschaft zwar in den Prognosen zur „künstlichen Intelligenz“ gängige Münze – das Konzept einer Ko-Evolution zwischen Biologie, Technologie und kulturellem „Bewusstsein“ wurde aber bislang wenig ausgearbeitet. Eines jedoch zeigt sich in der wissenschafts- und technikhistorischen Perspektive der Ko-Evolution: Das „Digitale“ ist zum einen ein gut funktionierendes Kalkül aus Konstruktion und empirischer Beobachtung, zum anderen nur ein Durchgangsstadium der Technologie-Entwicklung. Die Binärcodierung funktioniert genauso gut wie die moderne Zeitmessung oder die Teilchenphysik, aber niemand wird ernsthaft glauben, dass es 11.30 Uhr oder Freitag, der 13., „ist“, nur weil sich das Konstruktionsprinzip bislang als verlässlich und brauchbar erwiesen hat. Technologie – im Unterschied zur einzelnen Technik – ist also zugleich „Entbergung“ (Heidegger), Entdeckung, System und Infrastruktur und es kann durchaus sein, dass sie evolutionär im spirituellen Sinne Teilhard de Chardins zu einer Art „Noosphäre“ und soziotechnischen Supersystemen zusammenwächst. Zudem kündigen sich techno-logische Sprünge und Dynamiken in der jeweils vorherigen Infrastruktur an und sind schon geraume Zeit präsent, bevor sie in der öffentlichen Sphäre bemerkt und ökonomisch oder als neues soziotechnisches System[2] bedeutsam werden – wie „das Internet“ oder „die Digitalisierung“.

Thatcher war im Grunde auf Luhmanns Spur

Die binäre Codierung begründet aber nicht – und auch nicht das darauf beruhende technologische System – in irgendeiner Form „Gesellschaft“, allenfalls im Sinne eines urbanen Habitus („digitale Boheme“) oder technoider Kennerschaft. Dann jedoch wäre eher von „Gemeinschaften“ wie der „Internetgemeinde“ zu reden. Die Übertragung eines evolutionär relativen, naturwissenschaftlichen oder technischen Kalküls auf einen soziologischen Grundbegriff ist ein Kategorienfehler. In diesem Sinne gibt es auch keine atomare oder molekulare Gesellschaft, und selbst angesichts der fundamentalen wirtschaftlichen und kulturellen Effekte, die mit der Infrastruktur des elektrischen Stroms und der künstlichen Beleuchtung einhergingen, ist kaum ein Sozialforscher darauf gekommen, dies als konstitutiv für eine „elektrische Gesellschaft“ anzusehen. Gewiss, die im 19. Jahrhundert – vor allem infolge technologischer Transformationen – formierte Soziologie hat immer wieder kombinatorische Gesellschaften erfunden: die „Industriegesellschaft“, die „postindustrielle Gesellschaft“, die „Überflussgesellschaft“, die „Erlebnisgesellschaft“, die „Risikogesellschaft“, die „Netzwerkgesellschaft“, zuletzt gar die „granulare Gesellschaft“[3] und einige andere mehr. Hier wurden technisch-ökonomischer Wandel und mental-­kognitive Reaktionen kurzgeschlossen, wobei allerdings das jeweils beobachtete Phänomen kein technisches, sondern letztlich ein soziologisches oder lebensweltliches (mit der Emergenz neuer „Sinnbezirke“) war.

Doch der Emanzipationsprozess der Soziologie von Auguste Comtes positivistischer Vorstellung einer „sozialen Physik“ wurde von dem Konzept sinnstiftender „Gesellschaften“ geleitet, die sich über techno-ökonomischen Determinismus und „soziale Tatsachen“ hinaus durch ein eigenes kulturelles Reflexionspotenzial auszeichnen. Dieses Programm einer soziologischen bzw. sozialpsychologischen Identität wurde vor allem in der Chigaco School um Charles Horton Cooley und Robert Ezra Park auch kommunikationstheoretisch fundiert. Selbst Niklas Luhmanns heroischer Versuch, eine Theorie der Gesellschaft – und vor allem das Universitätsfach Soziologie – unter weitgehender Ausblendung der Kommunikation „psychophysischer Systeme“ (also jeweils individueller Menschen) systemtheoretisch neu zu fassen, kalkulierte mit der Evolution von Institutionen, Semantiken oder „Medien“ – über die jeweiligen technologischen Dominanzen (wie den Computer) hinaus. Luhmann ging es zudem um die Konstruktion einer übergeordneten „Theorietheorie“, um die Soziologie als solche zu erretten; die Kopplung an soziologische Empirie interessierte ihn nur sekundär, wie er selbst betonte.[4]

Interessanterweise hat die akademische Sozialforschung in Deutschland dem Phantom einer „digitalen Gesellschaft“ bislang wenig entgegenzusetzen. Der heute in Luzern lehrende Soziologe Martin Hartmann hat 2005 für sein Fach eine „Krise der Gesellschaftsidee“ überhaupt konstatiert, bedingt durch die Überpointierung des Gesellschaftsbegriffs im Umfeld der 1968er-Bewegung, durch die Suhrkamp-Kultur (wo noch alles irgendwie „gesamtgesellschaftlich bestimmt“ war) und den Bedeutungsverlust gesellschaftskonstituierender Institutionen (wie Parteien, zentrale Massenmedien, Kirchen oder Nationalstaaten). „Es sieht so aus“, schreibt Hartmann in einem Essay, „als wäre den Sozialwissenschaften der Gegenstand – die ‘Gesellschaft’ im emphatischen Sinne, den das Wort einmal besaß – abhanden gekommen.“

Als prominente Anti-Soziologin profilierte sich Margaret Thatcher, als sie in einem Interview mit Douglas Keay für die Zeitschrift „Women’s Own“ 1978 angeblich proklamierte: „There is no such thing as society.“ Gegen die Abstraktheit des Gesellschaftskonzepts setzte Thatcher konservativ auf die Verantwortung einzelner Bürger, Familien und Institutionen. Eine präzisere Analyse des Originaltranskripts des Interviews zeigt allerdings, dass sie im Grunde auf Luhmanns Spur war: „All too often the ills of this country are passed off as those of society. Similarly, when action is required, society is called upon to act. But society as such does not exist except as a concept. Society is made up of people. It is people who have duties and beliefs and resolve.“ Als Theorie-Konzept wurde „society“ also auch oder gerade von Thatcher antagonistisch durchaus ernstgenommen.

Die Angst vor dem Wählerpotenzial der Piraten

Ausgehend von Thatchers brüsker Intervention hat der britische Sozialforscher John Urry 1999 schließlich für die Aufgabe der Vorstellung von „society“ oder „societies“ als Begründung einer disziplinären Identität plädiert, zugunsten einer Analyse von „mobilities“, „dwelling“, „collective enthusiasms“ oder „complex mobile hybrids“. Die Idee einer „digitalen Gesellschaft“, die es dann sogar in den Titel einer Bundestags-Enquetekommission schaffte, ist in Deutschland vor allem von der „Netzgemeinde“ propagiert worden, so wie es die Piratenpartei eine Zeitlang schaffte, etablierte Parteien netzpolitisch vor sich herzutreiben. Plötzlich hatten SPD und CDU/CSU wie auch etablierte Industriekonzerne Angst vor dem Wählerpotenzial der Piraten wie auch vor „Shitstorms“ im Netz, wo eben nicht nur die „Schwarmintelligenz“ zu Hause ist. Das hielt nicht lange vor; die Piraten zerlegten sich verblüffend schnell durch interne Anpöbeleien in den sogenannten „sozialen Netzwerken“ – der technoide Glaube an irgendein liquid feedback erwies sich realpolitisch als nicht tragfähig.

Die für eine ganze Generation von „digital natives“ hoffnungsvolle politische Bewegung[5] kam durch anthropologisch oder sozialpsychologisch erstaunlich konstante Motive wie Neid, Nervosität und technologische Naivität an ihr vorläufiges Ende. Hinzu kamen Analysen der „dunklen Seite“ des Internets – Überwachung, kapitalistisches Datensammeln (Tracking & Targeting), der US-Komplex aus NSA, neuen Daten- und Wissenskonzernen im Silicon Valley, militärischer Modernisierung und Technologie-Export – und die Reaktualisierung längst vergessen geglaubter ethnischer oder geopolitischer Konflikte. Fundamentalistischer Islamismus, Ukraine-Krise oder Rassenunruhen in Baltimore, gesellschaftliche Konfrontationen also, waren plötzlich wieder da, ungeachtet allen Digital-Fortschritts. Die Lebenswelt der Trolle, Feen, Hacker und Gamer war nur eine unter anderen.

Man kann nun versuchen, das Konzept einer „digitalen Gesellschaft“ von zwei Seiten her zu erretten. Zum einen eher vereinstechnisch, mehr in Richtung der „Gesellschaft zur Rettung Schiffbrüchiger“ oder der „Freunde der italienischen Oper“. So gibt es im intellektuell hoffnungslos provinziellen Hauptstadt-Berlin den Verein „Digitale Gesellschaft e.V.“ und die Website „netzpolitik.org“, die sich kenntnisreich um Themen wie „Störerhaftung“, unbedingte „Netzneutralität“ oder „Vorratsdatenspeicherung“ kümmern. Darüber sollte man sich nicht über Gebühr lustig machen; in allen politischen Feldern gibt es Konsumentenorganisationen, die sich berechtigterweise gegen die traditionellen Interessen etablierter Konzerne und Verbände wehren. Schon in der Weimarer Republik versuchten etwa die „Arbeiter-Radiovereine“, gegen die staatliche und medienindustrielle Vereinnahmung eines hoffnungsvollen neuen Massenmediums demokratischer Verständigung Front zu machen.

Ohne Menschen aus Fleisch und Blut

Die deutsche Idee einer „digitalen Gesellschaft“ knüpft an die 1990 von John Perry Barlow und Mitch Kapor gegründete „Electronic Frontier Foundation“ an, gewissermaßen der legale Arm der Hacker und Untergrund-Programmierer, damals gegen die Interessen etablierter US-Telekommunikations- und Entertainment-Konzerne gerichtet. Doch die deutschen Aufrufe zur „digitalen Gesellschaft“ sind bislang dem starken geistesgeschichtlichen US-Kontext aus Eliteuniversitäten, Technologie-Propaganda mit messianischen Prägungen („The New Digital Age“), Geheimdiensten, Google, Facebook etc.[6] vollkommen nachgeordnet. Es läuft im Grunde immer wieder auf dichotome (binäre) Unterscheidungen zwischen „Internetverstehern“ und „Internetausdruckern“, „Onlinern“ und „Offlinern“, „digital natives“ und „digital immigrants“, letztlich auf Differenzen und Angrenzungen von Lebensstilen und Generationen im Sinne Karl Mannheims hinaus. Entsetzt mussten die Twitter- und Web-Berühmtheiten zur Kenntnis nehmen, dass die Machtpolitikerin Angela Merkel mit ihrem CDU-Parteikollegen Günther Oettinger als EU-„Digitalkommissar“ einen beinharten Old-school-Industrie-Lobbyisten durchsetzte, der gleich auch noch die Chiffre „digitale Gesellschaft“ im Amtstitel okkupierte.

Der Traum, ein möglichst schnelles und möglichst selbstreguliertes Internet könne eine neue Gesellschaftsform hervorbringen, stammt bekanntlich aus der US-Gegenkultur der 1960er Jahre und hat bis heute seine beste Formulierung in John Perry Barlows Unabhängigkeitserklärung für den Cyberspace 1996 gefunden: „Governments of the Industrial World, you weary giants of flesh and steel, I come from Cyberspace, the new home of Mind. On behalf of the future, I ask you of the past to leave us alone. You are not welcome among us. You have no sovereignty where we gather.“ Es wäre allerdings das erste Mal gewesen, dass eine erhebliche technologische Neuerung sich losgelöst von vorhandenen politökonomischen Vektoren hätte entwickeln können. Die von vielen Geeks und Nerds geteilte Bitte um eine Entkörperlichung und Verflüssigung der conditio humana wurde nicht erhört, weil ein technologisches System selbst – jedenfalls bislang – keine Antworten geben kann. Ähnlich unsinnig sind die Chiffren von „digitaler Bildung“, „digitalem Journalismus“, „digitalen Bürgerrechten“ etc. – hier werden sicherlich drastische Prozesse der ökonomischen Adaption und kulturellen Evolution, die schon mit Schumpeters Beobachtung einer „kreativen Zerstörung“ im jeweils verfeinerten Kapitalismus hinreichend beschrieben worden waren, mit dem ursprünglichen Handlungs- oder Reflexionsmodus von Journalismus, Bildung oder Rechtssystem gleichgeschaltet.[7] Neue Technologien „reagieren“ auf soziotechnische Komplexität und Differenzierung und schaffen dabei neue Komplexitäten. Nur wenig wird dabei „einfacher“, im Sinne von Reibungslosigkeit[8].

Eine „digitale Gesellschaft“ wäre also – und das ist die zweite Variante der Sinngebung – nur ohne Menschen aus Fleisch und Blut denkbar. Das Prognose-Genie Ray Kurzweil hat diese Überlegungen in zahlreichen Texten und Vorträgen auf den Punkt der „technologischen Singularität“ gebracht, also den Moment, von dem an durch exponentielles Wachstum die elektronischen Rechnerkapazitäten die versammelte menschliche Intelligenz übertreffen. Kurzweil hat seine Generationsgenossen der Baby-Boomer aufgefordert, so kerngesund zu leben wie er, damit sie ungefähr im Jahr 2029 (mitunter bei ihm auch: 2040) noch die Möglichkeit wahrnehmen können, ihr zerebrales System zu computerisieren und damit zumindest in eine geistig ewige Existenz einzutreten. Das ist eine interessante Vorstellung, aber damit ist nicht gesagt, dass die neuen, techno-evolutionär entstandenen Intelligenzen „digital“ sein oder bleiben werden.

Eine geistespolitische Aktion

Ray Kurzweil ist seit Dezember 2012 „Director of Engineering“ bei Google. Ich bezweifle, ob ein deutsches Großunternehmen einem bekennenden Transhumanisten eine Führungsposition anbieten würde. Es käme in Deutschland auch keiner auf die Idee, wie Kurzweil und einige Gesinnungsgenossen eine neue „Singularity University“ aufzumachen, allenfalls eine Fachhochschule für irgendwas mit Medien. Das ist vielleicht auch nicht schlimm. Aber heute würde auch Robert Ezra Park nicht mehr von Harvard aus nach Berlin und Heidelberg gehen, um dort Soziologie und Philosophie zu studieren und über „Masse und Publikum“ zu promovieren – wie er das tatsächlich 1903 getan hat. Die Erkenntnis technologischer und kultureller Evolutionen ist im Grunde eine geistespolitische Aktion; sie lässt sich nicht durch eine technoide Empirie erledigen. Die „digitale Gesellschaft“ wird schon deshalb nicht entstehen, weil mit der Normalisierung des „Digitalen“ der Wert analoger Werkstoffe oder das Biocomputing zulegt. Die Erkenntnis solcher Kontexte scheint mir auch ökonomisch für das „alte Europa“ der gewinnträchtigere Weg zu sein, so wie das World Wide Web ja auch von Tim Berners Lee am CERN in Genf und nicht im Silicon Valley entwickelt werden konnte.

Abgesehen vom soziologischen Kategorienfehler könnte es also sein, dass die „digitale Gesellschaft“ auch technologisch und ökonomisch rückständiger ist, als es ihre Evangelisten annehmen. „Gesellschaft“ wird sich mithin für geraume Zeit, wenn man diesen Begriff überhaupt weiter operationalisieren will, über die technologische Empirie hinaus durch „soziologische Differenz“ auszeichnen, gleichsam durch einen sozialen, politischen und publizistischen Mehrwert. Deshalb sind körperliche Resistenzen, archaische und soziobiologische Strukturen, das Widerständige der „Dinge“ und diverse Historismen als Forschungskomplex auch interessanter als der plane Fetisch der „digitalen Gesellschaft“, deren techno-totalitäre Realisierung wir uns auch nicht wünschen sollten.[9] Vor einer Idealisierung des elektronischen „global village“ hatte schon Marshall McLuhan gewarnt : „The tribal-gobal village is far more divise – full of fighting – than any nationalism ever was. Village is fission, not fusion, in depth. People leave small towns to avoid involvement. […] The village is not the place to find ideal peace and harmony. Exact opposite […] I don’t approve the global village. I say we live in.”[10]


Anmerkungen

[1] Vgl. Claus Pias (Hg.): Was waren Medien?, Zürich 2011, oder Siegfried Zielinski: …nach den Medien. Nachrichten vom ausgehenden 20. Jahrhundert, Berlin 2011. Gründe für diesen schnellen Austritt aus der Wissenschaftsgeschichte waren Schwierigkeiten mit der Operationalisierung des Medienbegriffs und, paradoxerweise, die rasche Institutionalisierung der „Medienwissenschaft“ (in Abgrenzung zur älteren Publizistik- und Kommunikationswissenschaft) an Universitäten und Fachhochschulen. Zielinski hat dies gut auf den Punkt gebracht: „Was als komplexer, dynamischer und nervöser Sachverhalt zwischen den Diskursen operiert, also nur interdiskursiv tätig sein kann, erhält einen festen fachlichen Platz in der akademischen Landschaft. Das beruhigt und schafft Lehrstühle, auf denen nun das einst anarchische Element ausgesessen und selbst zum Herrschaftswissen weiterentwickelt werden kann“ (op. cit, S. 17). Auch Friedrich Adolf Kittler, aus der Germanistik kommend und eine Zeitlang der tonangebende deutsche „Medienwissenschaftler“ (mit eigener „Kittler-Jugend“), war schließlich zu einer allgemeineren „Kulturwissenschaft“ übergewechselt. Vgl. seine heute noch sehr lesenswerte „Kulturgeschichte der Kulturwissenschaft“ (2001) mit Verweisen auf die frühe Technologie-Extensionsthese bei Ernst Kapp, die aristotelische Teleologie und Heideggers „Frage nach der Technik“.

[2] Vgl. zum Kontext sehr instruktiv Klaus Mainzer: Die Berechnung der Welt. Von der Weltformel zu Big Data, München 2014

[3] Bei aller Zerbröselung und „Fragmentierung“ orientiert man sich offenbar am Gesellschaftskonzept, vgl. Christoph Kucklick: Die granulare Gesellschaft. Wie das Digitale unsere Wirklichkeit auflöst, Berlin 2014, und, noch vor den Hoch-Zeiten der New Economy geschrieben: Uwe Jean Heuser: Tausend Welten. Die Auflösung der Gesellschaft im digitalen Zeitalter, Berlin 1996. Der Leser kann in diesem Zusammenhang beruhigt werden: Weder „die Wirklichkeit“ noch „die Gesellschaft“ werden sich auflösen.

[4] Vgl. etwa Niklas Luhmann: Die Gesellschaft der Gesellschaft, Frankfurt/M. 1997, S. 70: „Das Gesellschaftssystem wird demnach nicht durch ein bestimmtes ‘Wesen’, geschweige denn durch eine bestimmte Moral (Verbreitung von Glück, Solidarität, Angleichung von Lebensverhältnissen, vernünftig-konsensuelle Integration usw.) charakterisiert, sondern allein durch die Operation, die Gesellschaft produziert und reproduziert. Das ist Kommunikation.“ Vgl. auch Dirk Baecker: Wozu Gesellschaft?, Berlin 2007, mit dem Plädoyer für eine „kognitionswissenschaftliche Kulturtheorie“, die „konsequent die Gesellschaft in Differenz zu Bewußtsein, Organismus und anderen möglichen Referenzen“ (S. 28) setzen kann; oder jetzt Armin Nassehi: Die letzte Stunde der Wahrheit. Warum rechts und links keine Alternativen mehr sind und die Gesellschaft ganz anders beschrieben werden muss, Hamburg 2015, mit dem Begriffsdualismus „soziale Digitalisierung“ und „technische Digitalisierung“, der allerdings noch zu diskutieren wäre.

[5] Vgl. die Enttäuschungstexte von Christopher Lauer und Sascha Lobo in deren E-Book „Aufstieg und Niedergang der Piratenpartei“, Sobooks.de 2014, und Sascha Lobo: „Unsere Mütter, unsere Fehler“, in: Lutz Hachmeister/Dieter Anschlag: Rundfunkpolitik und Netzpolitik. Strukturwandel der Medienpolitik in Deutschland, Köln 2013, sowie das Interview mit Lauer und Lobo: „Das Ende der Nacht“, in: „Frankfurter Allgemeine Zeitung“ vom 23. November 2014

[6] Bestes Beispiel dafür ist immer noch, dass sich die ehrwürdige Berliner Humboldt-Universität ein „Alexander-von-Humboldt-Institut für Internet und Gesellschaft“ einhadelte,von Google finanziert und mit willigen Kollaborateuren bestückt. Dies ist vielleicht das erste Mal, dass der Name einer ganzen Universität von einem US-Sponsor gekapert werden konnte, zweifelsohne eine PR-technische Meisterleistung von Google. Mit diesem Institut wird besonders der Fetisch einer „digital society“ adoriert.

[7] Die formelle Extension der Aussagemöglichkeiten bringt zunächst eine schlichte Konkurrenzsituation für die „legacy media“, also für publizistische Traditionshäuser, mit sich. Dies bewirkt eine Sinn- und Bedeutungskrise für ältere mediale Konfigurationen wie „Fernsehen“, „Journalismus“, „Verlage“ oder „Zeitungen“. „Journalismus“, noch in den 1970er Jahren mit dem Woodward-&-Bernstein-Drive versehen, erscheint nun als eine Domäne älterer weißer Männer, die sich zumindest von den Spielarten der „Jugendlichkeit“ abgekoppelt sehen. Vor allem beim „Fernsehen“ führt das zu mitunter komischen Anstrengungen bei „interaktiven“ oder „partizipatorischen“ Formaten, die jedoch nur zu einem weiteren Stärkeverlust führen. Es sei hier aber darauf hingewiesen, dass es sich auch bei der technisch komplizierten Fernsehdistribution oder erst recht bei der gedruckten „Presse“, die auf Holzfällen, Herstellung von Zellulose, Druckmaschinen, Kiosken etc. beruht, um Artefakte im medialen Evolutionsprozess handelt. Interessant ist, dass „Theorie“ oder „Lesen“ inzwischen eher nostalgisch und museal behandelt werden; vgl. signifikant Ulrich Raulff: Wiedersehen mit den Siebzigern. Die wilden Jahre des Lesens, Stuttgart 2014 (nicht bei Suhrkamp, sondern bei Klett-Cotta), und sehr vergnüglich Philipp Felsch: Der lange Sommer der Theorie. Geschichte einer Revolte, München 2015 (bei C.H. Beck, zur Geschichte des Westberliner Merve-Verlags).

[8] Vgl. die trotz einer gewissen penetranten Silicon-Valley-Phobie nachvollziehbare Kritik an der Ideologie des „Solutionism“, also der Lösung gesellschaftlicher oder psychophysischer Probleme durch Datenempirie, bei Evgeni Morozov: Smarte neue Welt. Digitale Technik und die Freiheit des Menschen, München 2013 (Originaltitel: To Save Everything, Click Here)

[9] Um es klarzustellen: Es geht hier nicht um absurde kulturkritische Abwehrmechanismen („digitale Demenz“), sondern um die Ideologie einer unbedingten Berechenbarkeit aller Lebenswelten; die deutschen Universitäten oder das, was von ihnen übrig geblieben ist, können davon angesichts diverser „Exzellenzinitiativen“, Rankings, Bologna-Prozesse, Modulsysteme und „Tenure Tracks“ ein Lied singen.

[10] Interview von Gerald Emanuel Stern mit Marshal McLuhan, in: Michael A. Moos (Hg.): Marshall McLuhan, Essays. Media Research, Technology, Art, Communication. Amsterdam 1997, S. 58

31.07.2015/MK