“Was hast du eigentlich in deiner Dissertation gemacht?”, fragt man mich manchmal. Vieles, Dies und Das. Aber wenn man scharf genug (und wohlwollend) hinschaut, lässt sich tatsächlich ein roten Faden erkennen - oder vielleicht zwei. In diesem Text habe ich versucht diese Geschichte in etwa 1000 Worten und so wenig Jargon wie möglich zusammenzufassen.

In jedem Augenblick prasseln unzählige Nervenimpulse von verschiedensten Sensoren im ganzen Körper auf das Gehirn ein. Wie es dem Gehirn gelingt, all diese Einzelinformationen zu einem kohärenten Gesamtbild zusammenzufügen - und noch dazu auf eine so schnelle, robuste und energieeffiziente Art und Weise - fasziniert Wissenschaftler seit Langem. Gegenwärtig gewinnt diese Frage aber auch für die Informatik zunehmend an Bedeutung: dieselben Prinzipien, die der Informationsverarbeitung im Gehirn zugrunde liegen, könnten nämlich auch Schlüssel zu einer neuartigen Form hocheffizienter Computerchips sein, nach der die Branche bereits händeringend sucht. In meiner Dissertation untersuchte ich daher, wie einzelne Nervenzellen im Gehirn Information verarbeiten und übertragen, in der Hoffnung dabei etwas für die Entwicklung biologisch inspirierter Computer zu lernen. Zwei Eigenschaften des Gehirns beschäftigten mich dabei besonders: Adaptivität und Parallelisierung.

Adaptivität bedeutet hier einerseits, dass das Gehirn bemerkenswert gut darin ist, sich rasch an veränderte Umstände anzupassen. Wir gewöhnen uns beispielsweise sehr schnell an die Hintergrundlautstärke einer lebhaften Feier oder eines stillen Raums, in dem man sprichwörtlich eine Stecknadel fallen hören kann. Der Mechanismus, der dieser Adaptivität zugrunde liegt, ist die sogenannte Homöostase. Abstrakt gesprochen handelt es sich dabei um aktive Selbstregulierung, die kritische Parameter des Systems oder Organismus innerhalb akzeptabler Grenzen stabilisiert, indem sie allen Veränderungen entgegenwirkt. Konkret könnte das für eine Nervenzelle des Gehörs beispielsweise bedeuten, jede Änderung in der Lautstärke zu kompensieren, indem sie sich entsprechend sensibilisiert oder desensibilisiert.

Adaptivität bedeutet andererseits aber auch, dass das Gehirn selber wachsen und zeitlebens dazulernen kann, was notwendig mit Veränderung einhergeht. Der wohl wichtigste Mechanismus dafür ist die sogenannte synaptische Plastizität, welche neue Verbindungen zwischen Nervenzellen knüpft, die ähnliches Verhalten zeigen, und bestehende Verbindungen auflöst, wo sich deren Verhalten zu stark unterscheidet. So können relevante Strukturen und Muster in den Signalen erlernt, und durch synaptische Verbindungen verfestigt werden. Der Entdecker dieses Phänomens, Donald Hebb, brachte das prägnant auf die Formel: “What fires together, wires together.” Doch dieser Prozess kann sich leicht verselbstständigen. Wenn nämlich die Verbindungen zwischen Nervenzellen, die ohnehin schon ähnliches Verhalten zeigen, auch noch weiter verstärkt werden, dann gleicht sich ihr Verhalten dadurch noch weiter an - ein Teufelskreis.

Das wirft die Frage auf, wie diese zwei wichtigen, aber grundsätzlich gegenläufigen Prozesse miteinander interagieren: die stabilisierende homöostatische Plastizität auf der einen Seite, und die destabilisierende synaptische Plastizität auf der anderen. Um diese Interaktion mathematisch beschreiben zu können, entwickelte ich ein Modell, das beide Formen der Plastizität beinhaltet. Durch die Analyse dieses Modells und Simulationsexperimente konnte ich zeigen, dass sich die beiden Mechanismen tatsächlich optimal ergänzen können: während nämlich die synaptische Plastizität relevante Strukturen in den eingehenden Signalen findet und herausschärft, wird sie von der homöostatischen Plastizität im Zaum gehalten. Das Ergebnis ist ein stabiler Lernmechanismus, der auch gegenüber plötzlichen Veränderungen der Umgebung robust bleibt.

Nun kommt eine Nervenzelle aber selten allein; tatsächlich arbeiten unzählige Nervenzellen parallel daran, dieselben Sinneseindrücke zu verarbeiten. Einen zentralen Prozessor und Speicher, wie man es vom klassischen Computer vielleicht kennt, gibt es nicht. Der Vorteil dieser parallelen Verarbeitung, nämlich deutlich größere Geschwindigkeit, liegt auf der Hand; deshalb setzen auch moderne Computer zunehmend auf parallele Prozessoren. Parallelisierung setzt allerdings auch voraus, dass jede Nervenzelle die benötigten Informationen genau zum richtigen Zeitpunkt parat hat, was ohne zentrale Kontrolle nicht leicht zu bewerkstelligen ist. Um wirklich parallel arbeiten zu können, muss die einzelne Nervenzelle also irgendwie in der Lage sein, relevante Informationen über die Zeit hinweg zu integrieren und zu speichern, bis sie schließlich gebraucht werden. Gemeinsam mit meinem Kollegen Pascal Nieters untersuchte ich zwei Konzepte, wie dies ohne einen zentralen Speicher und Taktgeber funktionieren kann.

Zum einen könnte die Natur dafür einen Effekt ausnutzen, der auf den ersten Blick nach einer Schwäche aussehen mag: Informationsübertragung ist nicht instantan, d.h. ein Nervenimpuls, der eine längere oder langsamere Leitung durchlaufen muss, braucht dafür auch entsprechend länger. Eine Nervenzelle könnte also Information dadurch kurzfristig “zwischenspeichern”, dass sie einen Nervenimpuls auf eine “Rundreise” schickt, von der er erst mit einiger Verzögerung zurückkommt. Wenn nun dasselbe Signal nicht nur über einen, sondern gleich über mehrere Pfade mit unterschiedlicher Verzögerung gesendet wird, dann treffen ältere und neuere Informationen zeitgleich am Ziel ein und vermischen sich dort auf eine komplexe Art und Weise. Wir konnten bestimmen, unter welchen Bedingungen eine Nervenzelle dieses Phänomen ausnutzen könnte, um komplexe zeitliche Muster zu erkennen.

Allerdings läuft dieser Mechanismus auf einer sehr kurzen Zeitskala von wenigen Hundertstelsekunden ab, was für viele Aufgaben, wie das Verstehen von Sprache, leider viel zu kurz ist. Außerdem spricht nicht jeder Mensch gleich schnell, daher ist die Erkennung von starren zeitlichen Mustern dafür ohnehin unzureichend. Vielmehr scheint es darauf anzukommen, bestimmte Sequenzen von Signalen, unabhängig vom genauen Timing, erkennen zu können. Um beispielsweise das Wort “Panama” zu verstehen, ist es unerheblich, wie viel Zeit genau zwischen dem “Pa”, “na” und “ma” verstreicht, solange die Reihenfolge der drei Silben stimmt und sie nicht allzu weit auseinander liegen. Demselben Problem, zeitliche geordnete Sequenzen mit gewisser Variabilität erkennen zu müssen, begegnet man in verschiedene Form immer wieder - vom Geruchssinn bis hin zur Lokalisierung im Raum. Da uns diese Funktion absolut fundamental zu sein schien, suchten wir also nach einem biologischen Mechanismus, der dieses Problem innerhalb einer einzigen Nervenzelle lösen könnte. Dabei bauten wir auf neuesten Messungen aus der Neurobiologie auf. Diese Messungen zeigen, wie einzelne Teile einer komplex verästelten Nervenzelle plötzlich elektrisch aktiv werden, und dann für eine verhältnismäßig lange Zeit (oft länger als eine Zehntelsekunde) an bleiben, bevor sie sich wieder von selber abschalten. Da dieser Effekt oft lokal beschränkt bleibt, vermuteten wir hierin eine Art verteilten internen Speicher, der jedem einzelnen Teil der Zelle erlaubt, für eine gewisse Zeit ein Informationsbit zu speichern. Wir entwickelten daher ein Modell, welches zeigt, dass eine Nervenzelle diese intern gespeicherten Informationen nun dazu nutzen könnte, um auch längere und zeitlich variierende Sequenzen von Signalen zu erkennen. Somit wäre die einzelne Nervenzelle bereits deutlich leistungsfähiger als bisher gedacht - sozusagen ein Computer in der Nervenzelle! Inwieweit sich diese Theorie bewahrheitet, bleibt noch abzuwarten; aber die gewonnenen Erkenntnisse helfen uns jetzt schon bei der Suche nach neuartigen elektronischen Schaltungen für maschinelles Lernen, und sie bilden die Grundlage für eine entsprechende Patenteinreichung.

Das alles sind nur kleine Schritte in einem weiten Feld, das in den kommenden Jahren noch stark an Bedeutung gewinnen wird. Je mehr wir nämlich künstliche Intelligenz und maschinelles Lernen in unseren Alltag integrieren, desto wichtiger wird auch die Suche nach robusten und ressourcensparenden Umsetzungen. Und welch besseres Vorbild könnten wir uns da nehmen, als die Natur?