Morgen kaufe ich mir vielleicht ein süßes Munchkin-Kätzchen

Medienevolution: Interview mit Lutz Hachmeister zur Technologie des Gedankenlesens

Von Kai Burkhardt
01.08.2019 •

Das folgende Interview ist Teil des „Medienkorrespondenz“-Sonderhefts „Medienevolution“, MK-Ausgabe Nr. 15/16 vom 19. Juli 2019. In dem Sonderheft sind die Vorträge der Cologne Futures 2018 abgedruckt. Die Cologne Futures wurden vom Kölner Institut für Medien- und Kommunikationspolitik (IfM) in Kooperation mit der Deutschen Telekom, der Stadt Köln, dem WDR und der Kölner Kunsthochschule für Medien (KHM) organisiert und fanden am 2. Oktober 2018 in der KHM statt. Das Thema der Veranstaltung, die sich jährlich der Medienevolution widmet, lautete diesmal: „Brainreading und soziale Kontrolle als technologische und politische Felder“. Das Interview mit Lutz Hachmeister, Direktor des IfM und Begründer der „Cologne Futures“, führte Kai Burkhardt ursprünglich für den Blog der Mozilla-Stiftung, dort erstveröffentlicht am 27. Dezember 2018. Burkhardt sprach mit Hachmeister über den Hintergrund des Themas Gedankenlesen (Brainreading). Das Thema hat auch deshalb eine hohe praktische Relevanz, weil beispielsweise Facebook mit seiner Forschungsabteilung „Building 8“ unter Leitung von Regina Dugan seit einigen Jahren daran arbeitet, Verfahren zur direkten Sprachvermittlung aus dem Gehirn an den Computer (mittels Gedanken-Dekodierung) zu erproben. • MK

- - - - - - - - - - - - - - - - - - -

Frage: Herr Hachmeister, „Die Gedanken sind frei“, so heißt ein altes Volkslied. Gilt das heutzutage im digitalen Zeitalter noch?

Antwort: Sehr eingeschränkt. Ganz abgesehen davon, dass die individuelle Gedankenproduktion schon immer sehr stark durch genetische Vorgaben und auch durch gesellschaftliche Erfahrungen geprägt ist. Aber wenn wir vom „Gedankenlesen“ sprechen, gibt es, abgesehen von Spiritismus und Parapsychologie, ja wesentlich zwei Aspekte: zum einen nichtinvasive Messungen am Gehirn oder auch direkte medizinische Eingriffe ins Gehirn, um Bewusstsein zu dekodieren oder die Strukturen der Gedankenproduktion zu erforschen. Das ist bislang, zum Glück, nur eingeschränkt möglich und mit großen methodischen und experimentellen Schwierigkeiten behaftet. Ein anderer Weg ist erfolgreicher beschritten worden, vor allem seit dem Aufkommen des Internets. Ich nenne das den Externalisierungsmodus, also der Versuch, Gedanken, die wir in Form von Sprache, Bildern oder auch Musik in das Netz eingeben, algorithmisch zu untersuchen und zu kategorisieren. Dazu kommt das ganz individuelle Tracking, weil alle, die in Netzwerke oder Plattformen eingebunden sind, Gedanken in sehr hoher Taktung äußern, sei es durch Kaufverhalten oder politische Stellungnahmen. Eine tendenziell totalitäre Digitalisierung, vorangetrieben von wenigen Tech-Giganten und auch Geheimdiensten, fördert diese konstanten Messungen. Das sind die zwei Seiten der Medaille. Daten- und Wissenskonzerne haben bei der externalisierten Methode des Gedankenlesens enorme Fortschritte gemacht. Die Ergebnisse dienen einem beschleunigten Datenkapitalismus, werden in jeder Form ausgewertet, zur Währung gemacht – und ein Teil der gigantischen Erlöse fließt wiederum in die Erforschung und Kategorisierung der Gedankenströme zurück.

Was soll das überhaupt sein – ein Gedanke?

Damit sind wir mitten in einem Jahrhunderte alten philosophischen Getümmel. Frege und Husserl haben im 19. Jahrhundert vor allem intentionale Akte vom ständigen Bewusstseinsstrom unterschieden, Frege spricht explizit vom „Gedanken fassen“. Damit wird das Gedankenproblem sehr nah an sprachlogische Analysen gerückt. Wir verbalisieren ja auch ständig Gedanken, selbst dann, wenn wir nicht sprechen. Aber wenn wir es nur von der materialistischen Seite angehen: So lange man nicht an so etwas wie den heiligen Geist oder spirituelle Entitäten glaubt, können wir davon ausgehen, dass Gedanken Energie sind – also auch hypothetisch und faktisch zu messen sind. Der Begriff „Gedankenstrom“ hat ja einen schönen Doppelsinn. Es gibt dabei aber mehrere Kategorienprobleme.Zum Beispiel: Wann fängt ein Gedanke an, wann hört ein Gedanke auf? Wir sprechen ja zu Recht von Assoziationen und Gedankenketten. Einen einzelnen Gedanken zu isolieren und im Gehirn zu lokalisieren, scheint aufgrund der ungeheuer komplexen neuronalen Operationen kaum möglich. Hinzu kommt, dass die elektrische Energie, den ein Gedanke erzeugt oder aus dem er besteht, so schwach ist, dass er bislang kaum zu messen ist. Es ist bislang auch nicht gelungen, Gedankenströme außerhalb des Kopfes zu messen, obwohl man theoretisch annehmen kann, dass Gedanken außerhalb des Kopfes als Energie vorhanden sein müssten. Dass die Forscher heute noch daran scheitern, die Komplexität der Gedankenströme zu messen, heißt aber nicht, dass es nicht möglich wäre.

Das Gedankenlesen war ja notwendigerweise immer eine Interpretationstechnik, denn es war, wie Sie sagen, bislang unmöglich, medizinisch eine neurologische Einheit zu definieren, die einen Gedanken beschreibt. Glauben Sie, dass man den Gedanken eines Tages neurologisch entschlüsseln kann?

Welten, von denen vorher niemand wusste

Ich glaube, dass man alles messen wird, was messbar ist. Die Schwierigkeiten, die es im Moment gibt, könnten ja in den Messgeräten begründet sein, nicht in der grundsätzlichen Messbarkeit. Es gab auch eine Welt vor dem Mikroskop oder dem Teleskop und mit beiden Instrumenten sind Welten entdeckt worden, von denen vorher niemand wusste, dass es sie gab: Mikroben zum einen und Planetensysteme zum anderen. Durch neue Messinstrumente sind Welten entdeckt, neue Weltbilder konstituiert und alte umgestürzt worden. So ähnlich kann man sich das in der Hirnforschung auch vorstellen. Man muss aber auch bedenken, dass Gedanken eben nicht „Geist“ sind, sondern dass Gedanken immer immanent mit chemischen Körperreaktionen verbunden sind – wenn wir nicht komplett transhumanistisch denken. Deshalb ist Norbert Wieners These, das Gehirn sei ein Computer, auch sehr unterkomplex und deshalb träumten ja auch Internet-Euphoriker von einer Welt jenseits der „Wasserstoffmenschen“. Mit dem Instrument des Lügendetektors hat man sich den Zusammenhang von Gedankenproduktion und Körperreaktionen zunutze gemacht, indem vor allem Hautreaktionen gemessen werden. Das ist zwar nicht besonders zuverlässig, und als Methodik etwa in kriminologischen Verfahren sehr umstritten, aber es funktioniert im großen und ganzen doch erstaunlich gut. Auf der Konferenz, zu der wir kürzlich eingeladen haben, ist lange über den Lügendetektor gesprochen worden. Der Lügendetektor ist ja ein früher Versuch, der Wahrheit von Aussagen näherzukommen. Dabei ist nicht unerheblich, dass viele Probanden aus Angst vor dem Lügendetektor die Wahrheit sagen, also die Messinstrumente die Aussagenproduktion durch ihre bloße Existenz beeinflussen.

Ein uralter Menschheitstraum, nicht wahr?

Im 19. Jahrhundert grassierte das Phänomen der „Medien“, nicht im Sinne des heutigen Massenmedien-Verständnisses, sondern im Sinne von Einzelpersonen, die besondere gedankenenergetische oder telepathische Fähigkeiten für sich beanspruchten. Vor allem in Großbritannien, im viktorianischen Zeitalter, gab es viele berühmte Medien, teilweise hochbezahlte personale Medien, und es hat dann auch die Wissenschaftler sehr beschäftigt, ob man mit Gedankenkraft zum Beispiel Gegenstände verrücken kann. In Deutschland ist das später noch einmal populär geworden durch Uri Geller, den Löffelbieger im Fernsehen. In den meisten Fällen hat sich herausgestellt, dass es Scharlatanerie war. In Freiburg hat der Psychologe und Arzt Hans Bender „Grenzgebiete der Psychologie“ gelehrt und 1950 auch ein entsprechendes Institut gegründet. Es ist ganz interessant, dass vor allem der SD, der Sicherheitsdienst der SS, ein starkes Interesse hatte, ihn schon 1940 für die neu gegründete „Reichsuniversität Straßburg“ zu verpflichten. Auch wenn das ziemlich obskur war, ist es doch ein Moment der Verwissenschaftlichung von Gedankenlesen und Telepathie. Neben dem Lügendetektor war die Erfindung der Elektroenzephalografie in den 1920er Jahren durch den Neurologen Hans Berger – nicht zu verwechseln mit Bender – ein entscheidender Sprung in der Analyse von Gehirnströmen. Heute lesen wir ständig von Experimenten, in denen versucht wird, eine einfache gedankliche Operation – zum Beispiel das Denken an eine Farbe – zu lokalisieren, als digitales Datenpaket zu übertragen und dann einem Probanden an einem anderen Ort mit Elektroden wieder zu implementieren – mit bislang eher mäßigem Erfolg. Am MIT wurden gerade mit einem „AlterEgo“ genannten Neuro-Wearable „neuromuskuläre Impulse“ am Gesicht gemessen, man geht dabei davon aus, dass auch „innere Monologe“ elektrische Impulse ans Gesicht aussenden. Das sind natürlich erst die Anfänge der Anfänge. Es ist sehr unwahrscheinlich, dass wir bald einen komplizierten Gedanken wie „Morgen kaufe ich mir vielleicht ein süßes Munchkin-Kätzchen“ von Köln nach Australien übertragen können. Aber wer weiß?

Wir waren beide zusammen vor einigen Jahren auf einer Veranstaltung, auf der einer der Herausgeber der „FAZ“ sagte, das Wesen des Internets sei die Geschwindigkeit. Das Netz habe nichts Neues erschaffen, sondern verbinde Dinge nur schneller. Das war aber noch vor Big Data. Ist das Gedankenlesen mittlerweile der Wesenskern des Internets geworden?

Gefühle und rationale Aussagen

Bislang funktioniert das noch durch einen Übersetzungsmodus. Wir messen im Prinzip den Zusammenhang von Gedanken und Sprache, man kann auch Mimik dazunehmen. Es ist aber immer eine Art von Ableitung, von Übersetzung. Es ist nicht das unmittelbare Messen eines Gehirnstroms, sondern wir selber nehmen eine Handlung vor, indem wir einen Willens- oder Sprechakt oder potenziellen Kaufakt durch ein weiteres Gerät, etwa das Smartphone, in ein Netz eingeben, das Millionen und Milliarden anderer Willensakte und Sprachakte bereits gesammelt hat und uns aufgrund der gespeicherten Daten Antworten oder zumindest Optionen gibt. Ein gewichtiger Teil der KI-Forschung – und man kann lange darüber streiten, ob KI wirklich künstlich ist oder nicht eine logische Folge der soziotechnischen Evolution – hat ja mit der Computerlinguistik begonnen, also mit Forschern wie Joseph Weizenbaum am MIT und seinem Projekt „Eliza“ – der später einer der härtesten Computerkritiker wurde. Das zeigt ja schon, dass die Transformation von Bewusstsein in Sprache einer der zentralen Zugänge zu unseren Gedanken ist. Es gibt natürlich immer noch große Ungenauigkeiten – als Folge von komplexen Grammatiken, Logiken, Konventionalitäten. Vor allem aber auch, weil wir zwischen Gefühlen und rationalen Aussagen unterscheiden müssen. Man kann zwar sagen, man hat Bauchweh, aber die rationale Aussage ist doch etwas anderes als das Fühlen des Bauchwehs selber.

Wie immer in der Geschichte, spielen das Militärische und das Polizeiliche eine große Rolle als Treiber neuer Techniken. Aus welchem Kontext kommt das Gedankenlesen historisch und spielt diese Herkunft eine Rolle für den Stand der heutigen Technik?

Ja, ein Film wie „Männer, die auf Ziegen starren“, erscheint zunächst skurril, aber diese Experimente hat es ja gegeben. Geheimdienste sind von Anfang an mit Wahrheitsdrogen, Messungen von Gehirnströmungen, Erkennung von Sprachsystemen befasst gewesen und das wird natürlich immer weiter – in einer perversen Logik – perfektioniert. Jeder weiß ja, wie eng der Zusammenhang von Geheimdiensten, militärisch-industriellen Komplexen und den Medien- und Wissenskonzernen ist. Die Sprachanalyse ist und bleibt eine kardinale Aufgabe jeder Geheimdienstarbeit, ob in Russland, China oder in den USA – allerdings nicht so sehr in Deutschland, nehme ich mal an. Der US-Forscher Michael Kosinski ist ja mit einer Studie bekannt geworden, in der anhand der Analyse von Facebook-Likes mit hoher Wahrscheinlichkeit herausgefunden wurde, wer schwul ist oder Raucher oder konservativ. Das ist vielleicht weniger verblüffend, als es scheint, aber Kosinski ist auch starker Protagonist von „no privacy“, der also sagt, das freiwillige Preisgeben von Daten – und damit von Äußerungen und Gedanken – ist letztlich vollkommen richtig und gut für die Menschen, weil wir durch die Datenakkumulation Krankheiten, Seuchen, asoziales Verhalten – vorausgesetzt, wir können uns darauf einigen, was das ist –, Kriminalität früher erkennen. Das wird dann dafür sorgen, dass wir sicherer leben, älter werden, glücklicher und gesünder leben. Das blendet natürlich die Dialektik zwischen Digitalisierung und psychophysischen Reaktionen weitgehend aus und man muss sich immer fragen, wer solche Forschungen und Thesen finanziert.

Traditionell spielt die Gesichtserkennung eine große Rolle beim Gedankenlesen. Augenbewegungen, Gestiken, Mimiken. Große Tech-Unternehmen verfügen heute über unendlich viele Muster und Smartphones erkennen ja auch schon die Laune der Nutzer. Wie weit lässt sich das treiben?

Bewusstseinsäußerung durch Mimik

Das lässt sich unendlich weit treiben. Mimik ist ja eine sehr direkte Form der Bewusstseinsäußerung. Es ist eben nicht nur Sprache – auch wenn Sprache ein besonders interessantes Feld ist, weil sie strukturiert so kodiert ist, dass ihr Bezug zu Gedanken klarer erscheint. Aber natürlich sind auch Laute und Gesichtsausdrücke in demselben Komplex evolutionär miteinander verwoben.

Kann man nur das Individuum erforschen oder gibt es auch Ansätze für eine Form von Massensuggestion?

Ich bin sehr skeptisch, was den Begriff „Massensuggestion“ betrifft. Auch die frühere „Massenpsychologie“ hat sich ja eher als Sackgasse in der Propaganda- und Persuasionsforschung erweisen. Sicherlich lässt sich jeder Externalisierungsmodus auch auf Gruppen, Parteien, Unternehmen, Nationalstereotype anwenden, sonst gäbe es Soziologie und Sozialpsychologie als akademische Disziplinen ja gar nicht.

Sie haben schon darauf hingewiesen, dass der Einstieg in die Welt der Gedanken über die Sprache am weitesten ist. Hier kommt die Forschung vor allem aus dem politischen Bereich, denken wir an Chomsky oder Lakoff. Viele dieser Ansätze arbeiten mit zwei politischen Lagern, links und rechts, also 0 und 1, wie in der digitalen Welt. Sind die USA oder Großbritannien mit ihren zwei politischen Lagern besonders anfällig für propagandistischen Missbrauch durch Algorithmen, weil man die Wähler nur in zwei Richtungen treiben kann?

Abgesehen davon, dass das Mehrheitswahlsystem in den USA und Großbritannien natürlich generell reformbedürftig ist, muss man doch zwei Dinge unterscheiden. Zum einen gibt es das Wahlsystem selbst. Ein zementiertes Zwei-Parteien-System macht es für andere Parteien in der Tat immer schwieriger, eine Rolle im Politikmarkt zu spielen und fördert dadurch die Bipolarität einer Gesellschaft, wie wir gerade in den USA unter Trump sehen. Das hat allerdings eine lange Geschichte. Eine andere Frage ist, ob ein simples Messinstrument, mit dem eine politische Gefolgschaft gemessen wird, begünstigt, dass es zu schlichteren Systemen kommt. Wenn man die Leute in nur zwei Kategorien einteilt, in eher konservativ oder eher progressiv, kann das durchaus normierend wirken, weil sich alles auf Fragen und Kriterien konzentriert, die diese Einteilung ermöglichen, wie beispielsweise: Ist man für die Gleichberechtigung aller sexuellen Orientierungen oder kann man noch etwas mit dem Begriff der Nation oder mit Religion anfangen? Eine gröbere Messung führt dann möglicherweise auch zu einer Vergröberung des politisch-propagandistischen Spektrums. Ich bin allerdings bislang nicht davon überzeugt, dass russische oder iranische Trollfabriken oder Firmen wie Cambridge Analytica einen entscheidenden Einfluss auf die Wahl von Donald Trump oder auf den Brexit hatten. Es gibt natürlich sehr knappe Wahlentscheidungen, die gleichsam mikropropagandistisch beeinflusst werden können, mit Hilfe von digitalen Plattformen und Netzwerken. Aber eine analoge rational choice der Wähler scheint mir immer noch ein entscheidendes Gegengewicht zu sein.

01.08.2019/MK