Hirnforschung

H. bedeutet streng genommen Forschung am Gehirn. Nun hat man aber schon sehr früh erkannt, dass man das Gehirn nicht isoliert für sich betrachten kann, sondern auch das Rückenmark und das periphere Nervensystem einbeziehen muss. Gehirn und Rückenmark bilden zusammen das zentrale Nervensystem. Zentrales und peripheres Nervensystem werden unter dem Begriff Nervensystem zusammengefasst und sind so Gegenstand der Neurowissenschaften. In diesem Artikel werden die Fragen der H. in den weiteren Kontext der Neurowissenschaften eingeordnet.

Die Neurowissenschaften untersuchen Struktur und Funktion des Nervensystems. Sie setzen dafür eine Vielfalt von Methoden ein, deren Zahl im Laufe der Zeit immer weiter vermehrt wurde. Die Methoden reichen von der Morphologie über die Physiologie und Biochemie bis zur Molekularbiologie, den modernen bildgebenden Verfahren und zur Neuroinformatik. Dabei wird das gegebene System nicht nur beobachtet und analysiert, sondern durch experimentelle Eingriffe, insb. an Versuchstieren, auch verändert. Die Erkenntnisse der Neurowissenschaften werden in vielfacher Weise genutzt für medizinische Diagnostik und Therapie.

1. Hundert Jahre Forschung am Nervensystem

Die moderne Forschung in den Neurowissenschaften beginnt mit der Wende vom 19. zum 20. Jh. Im Jahre 1906 erhielten Santiago Ramón y Cajal und Camillo Golgi den Nobelpreis für ihre Untersuchungen zur zellulären und intrazellulären Struktur des Nervensystems. Diese Untersuchungen waren zunächst rein anatomisch. Darüber hinaus identifizierte S. Ramón y Cajal die Neurone als funktionelle Einheiten, die mit anderen Neuronen über Synapsen in Verbindung stehen. Er versuchte erstmals, lokale neuronale Netzwerke zu beschreiben.

In der zweiten Hälfte des 19. Jh. und zu Beginn des 20. Jh. wurde entdeckt, dass die Neurone Aktionspotentiale generieren und über ihre Axone fortleiten. 1952 veröffentlichten Alan Lloyd Hodgkin und Andrew Fielding Huxley ihr Schaltkreismodell, das die Generierung von Aktionspotentialen in Nerven als Funktion von Strom und Spannung beschreibt. Damit war der Anstoß gegeben, Theorien neuronaler Netze zu entwickeln. Diese Theorien nutzten auch die um 1949 formulierte Regel von Donald Hebb, wonach Neurone, die über Synapsen miteinander verbunden sind und gleichzeitig feuern, diese Verbindungen verstärken. Diese Regel wurde zu einer wichtigen Grundlage, um den Lernprozess auf der neuronalen Ebene verständlich zu machen. John Eccles kam durch intrazelluläre Ableitung von einzelnen Neuronen mit Mikroelektroden zu dem Ergebnis, dass die Übertragung des Signals an der Synapse nicht elektrisch, sondern chemisch mit Hilfe von Neurotransmittern erfolgt. Für diese Leistung erhielt er 1963 den Nobelpreis zusammen mit A. L. Hodgkin und A. F. Huxley.

Weitere wichtige Erkenntnisse verdanken wir der Biochemie und der Molekularbiologie. Die Untersuchung von Patienten mit Läsionen im Gehirn (Neuropathologie) ist ebenfalls eine wichtige Quelle von Erkenntnissen über die Funktionsweise des Gehirns. So wurde z. B. die motorische Sprachregion, das Broca-Zentrum, und die Region für das Sprachverstehen, das Wernicke-Zentrum, entdeckt.

Fasst man alle diese Erkenntnisse zusammen, dann könnte man das Gehirn beschreiben als ein riesiges Netzwerk, das aus 1011, also 100 Mrd. Neuronen besteht, wobei jedes dieser 100 Mrd. Neurone im Durchschnitt 104, also 10 000 Synapsen erhält. Jede Region ist nahezu mit allen anderen Regionen des Gehirns durch Vorwärts- und Rückwärtsschleifen verbunden. Es gibt zwar Regionen, die für bestimmte Funktionen absolut notwendig sind. Aber auch sie sind in den Gesamtverband eingebettet und üben ihre Funktion nur im Kontext mit dem gesamten Netzwerk aus. Das Gehirn ist zudem nicht fest verdrahtet wie ein Computer, sondern plastisch. Es kann lernen und sich in hohem Maße wechselnden Bedingungen anpassen. Dabei ändert sich auch die Mikrostruktur des Gehirns. Das Gehirn benutzt weitgehend die Strategie der parallelen Informationsverarbeitung, während die Computer die Informationen immer noch vorwiegend seriell prozessieren.

2. Aktuelle Möglichkeiten

Wollte man die Erfolge und Möglichkeiten der H. angemessen darstellen, dann müsste man zumindest auf folgende Bereiche genauer eingehen: Die Grundlagenforschung der Neurobiologie; die Anwendung dieser Erkenntnisse in der Entwicklung spezifischer Medikamente zur Therapie neuronaler und psychischer Erkrankungen; gezielte instrumentelle Eingriffe in das Gehirn wie etwa die Stimulation mit Mikroelektroden im Gehirn von Parkinson-Patienten, welche in vielen Fällen zu einer erheblichen Linderung der Krankheitssymptome führt; nicht zu vergessen die Neuroinformatik, die versucht, mit Modellen der Informationsverarbeitung nachzubilden, was im neuronalen Netzwerk des Gehirns geschieht.

Hier sollen nur die modernen bildgebenden Verfahren näher erläutert werden, da diese für Forschung und Therapie eine Schlüsselbedeutung haben. Die Verfahren heißen bildgebend, weil sie die Aktivitäten im Gehirn bildlich darstellen. Die Verfahren sind direkt, wenn die Aktivität von Einzelzellen oder Gruppen von Zellen abgeleitet oder die Magnetfelder gemessen werden, welche durch die Aktivität der Neurone entstehen. Zu dieser Gruppe von Darstellungsmöglichkeiten gehören die Elektroenzephalographie (EEG) und die Magnetenzephalographie (MEG). Die EEG ist die am häufigsten genutzte Methode. Mit ihr werden Hirnströme mit einer hohen zeitlichen Auflösung von einigen Millisekunden gemessen. Die räumliche Auflösung ist jedoch relativ schlecht. Mit der MEG werden schwache Magnetfelder gemessen, die durch elektrische Ladungsverschiebungen in der Hirnrinde entstehen.

Die bildgebenden Verfahren sind indirekt, wenn die Aktivitäten der Nervenzellen Stoffwechseländerungen hervorrufen, die dann registriert werden. Bei der Positronen-Emissions-Tomographie wird die Strahlung einer radioaktiv markierten Substanz gemessen, die zuvor in die Blutbahn eingespritzt worden ist. Wenn in einem bestimmten Hirngebiet die Neurone aktiv sind, wird dieses Gebiet stärker durchblutet. Dadurch wird die Konzentration der radioaktiven Substanzen in diesem Gebiet erhöht. Die radioaktiven Substanzen emittieren Positronen, die mit Elektronen interagieren. Dadurch werden Photonen erzeugt, die von speziellen Detektoren gemessen werden. Bei der Magnetresonanztomographie (MRT) wird ein starkes Magnetfeld erzeugt, das mit dem Spin der Atomkerne im Organismus wechselwirkt. Mit diesem Verfahren kann man virtuelle Schnitte durch das Gehirn legen und diese wieder zu einer dreidimensionalen Rekonstruktion zusammenfügen. Die Darstellungsparameter kann man so verändern, dass die weiße Substanz, d. h. die Faserbahnen, oder die graue Substanz des Gehirns, d. h. die Neurone der Hirnrinde und der tiefer gelegenen Kerngebiete, hervorgehoben wird. Mit den heutigen Maschinen lassen sich räumliche Auflösungen erreichen, die anatomischen Schnitten sehr nahe kommen.

Eine für die H. bes. wichtige Variante der MRT ist die funktionelle Magnetresononanz-Tomographie (fMRT). Mit ihr wird der Anstieg des lokalen Sauerstoff-Verbrauchs im Gehirn gemessen, wenn größere Gruppen von Neuronen aktiv sind (BOLD Signal = Blood Oxygen Level Detection). Die zeitliche Auflösung ist jedoch im Gegensatz zur EEG schlecht. Sie bewegt sich in der Größenordnung von mehreren Sekunden.

Eine weitere Variante der MRT, die erst in den letzten Jahren entwickelt wurde, ist die Diffusions-Tensor-Bildgebung. Mit dieser Methode lassen sich v. a. lange Faserbahnen im Gehirn darstellen.

Für die Weiterentwicklung der Tomographen besteht noch ein großes Potential. Die räumliche und zeitliche Auflösung kann noch erheblich gesteigert werden. Die Neurowissenschaften haben also in den letzten 100 Jahren rasante Fortschritte gemacht. Sie haben ein ungeheures Wissen über die Gehirne von Tieren und Menschen erarbeitet und eine große Zahl von Techniken und Methoden entwickelt, die weitere große Fortschritte in der Zukunft erahnen lassen.

3. Projekte für die Zukunft

Die Frage nach den Möglichkeiten der Neurowissenschaften in der Zukunft lässt sich kaum beantworten. Die Entwicklung geht in viele verschiedene Richtungen. Es seien deshalb nur zwei Beispiele hervorgehoben.

Mit den modernen bildgebenden Verfahren kann man die Aktivitäten des Gehirns gleichsam direkt beobachten. Ein Nachteil besteht jedoch darin, dass die beobachteten Regionen immer noch sehr groß sind. Dem sollen neuere Experimente Abhilfe verschaffen. Mit modernen Mikroskopietechniken konnte man bei Mäusen die Aktivität von mehr als 100 Neuronen gleichzeitig aufzeichnen. Schon bei so wenigen Neuronen fielen aber so große Datenmengen an, dass man nicht nur Computer, sondern aus 60 Rechnern bestehende Computer-Cluster brauchte, welche die Datenmengen parallel verarbeiteten.

Ein anderes Beispiel ist das sehr umstrittene Human Brain Project. Ziel dieses Projektes ist es, das gesamte Wissen über das menschliche Gehirn zusammenzufassen und mit computerbasierten Modellen zu simulieren. Das Projekt soll neue Instrumente zur Verfügung stellen, um das Gehirn und seine grundlegenden Mechanismen besser zu verstehen und dieses Wissen in der Medizin und in der Computerwissenschaft der Zukunft anzuwenden. Das Wissen, das hier zusammengetragen werden soll, reicht von der Molekularbiologie über die Zellbiologie bis zum Netzwerk des Gehirns und soll die Aktivitäten nicht nur von einigen hundert, sondern von allen 100 Mrd. Neuronen im menschlichen Gehirn umfassen. Dafür bräuchte man Computer mit einer Rechenleistung und Speicherkapazität, die es heute noch nicht gibt. Ein ähnliches Projekt ist gegenwärtig in den USA unter dem Titel Brain Activity Map Project (BRAIN Initiative) in Vorbereitung.

Es ist umstritten, ob diese Projekte sinnvoll sind. Hinsichtlich der technischen Machbarkeit dürfte es kaum möglich sein, grundsätzlich Grenzen festzulegen. Wenn aus heutiger Sicht manches nicht machbar erscheint, so muss man doch damit rechnen, dass unerwartet neue Wege und Strategien gefunden werden, welche die Lösung von Problemen plötzlich möglich machen. Zu warnen ist allerdings vor der Euphorie, man könne das Gehirn in absehbarer Zeit vollständig beschreiben. Es hat sich immer wieder gezeigt, dass sich mit der Entdeckung neuer Eigenschaften neue unbekannte Horizonte auftaten.

4. Grenzen der Hirnforschung

Grenzen der H. sind zwar nicht unter technischen, wohl aber unter ethischen und wissenschaftstheoretischen Gesichtspunkten festzustellen. Ethische Grenzen sind zu setzen bei Experimenten an Tieren und Menschen. Wissenschaftstheoretische Grenzen ergeben sich aus folgenden Überlegungen. Die H. vermag nur anzugeben, welche Gehirnvorgänge bestimmten Vorgängen im menschlichen Verhalten entsprechen. Unsere geistigen Akte, insb. unser Bewusstsein und unsere Freiheit gehören nicht in ihre Zuständigkeit. Die wissenschaftstheoretische Grenze der H. liegt da, wo Hirnforscher die Methode ihrer Wissenschaft verlassen, zu Neurophilosophen werden und unsere geistigen Akte auf Hirnprozesse zu reduzieren versuchen. Einige Beispiele dieser reduktionistischen Grenzüberschreitungen sollen im Folgenden erwähnt werden.

In dem 2004 veröffentlichte Manifest von elf deutschen Neurowissenschaftlern wird behauptet, dass alle geistigen Prozesse „grundsätzlich durch physikochemische Vorgänge beschreibbar sind“ (Elger u. a. 2004: 33). Man werde eine Theorie des Gehirns aufstellen, mit der auch Bewusstsein und Ich-Erfahrung erklärt werden könnten. Das Gehirn schicke sich damit an, „sich selbst zu erkennen“ (Elger u. a. 2004: 37).

Dieses Manifest ist eher allg. gehalten. Detailliertere Aussagen findet man in Einzelpublikationen. So wird etwa versucht, Brückentheorien zu entwickeln, die den Sprung „vom Toten zum Lebenden“, „vom Lebenden zum Geistigen“, „vom Materiellen zum Geistigen“ als „Phasenübergang“ beschreiben (Singer 2002: 176 ff.). So sei auch der Übergang von Aktivitäten von Nervenzellen zu kognitiven Prozessen als Phasenübergang in komplexen Systemen zu verstehen. Andere Autoren behaupten im Namen der Neurowissenschaften, dass es das eine Ich nicht gebe, sondern nur „ein Bündel von unterschiedlichen Ich-Zuständen“ (Roth 2003: 142). Das Ich sei ein Trugbild, eine Illusion.

Wenn wir von unseren geistigen Fähigkeiten reden, dann wird oft damit die Auffassung verbunden, das Geistige in uns sei unabhängig von unserem Körper, unabhängig vom Gehirn. Manche vertreten sogar einen Substanz-Dualismus, wonach Körper und Geist verschiedene Substanzen seien. Dieser Auffassung steht aber die Evidenz entgegen, dass das Gehirn, und nicht nur das Gehirn, sondern der ganze Körper für die geistigen Akte notwendig sind. Dementsprechend haben alle geistigen Akte ein neuronales Korrelat.

Hirnfunktionen sind also notwendig für geistige Akte. Sie sind aber nicht zugl. auch hinreichend, wie das folgende Beispiel zeigt. Die modernen bildgebenden Verfahren zeigen uns Aktivitäten in bestimmten Hirngebieten, wenn geistige Tätigkeiten ausgeführt werden. So ist beim Sprechakt das Broca-Sprachzentrum aktiv. Das Umgekehrte gilt aber nicht. Aus der Aktivität des Broca-Zentrums lässt sich nicht schließen, dass gesprochen wird – es könnte auch nur eine Vorstellung von Sprechen sein. Erst recht lässt sich daraus nicht schließen, was gesprochen wird und was die gesprochenen Worte bedeuten.

In der aktuellen Debatte über Gehirn und Geist wird häufig zwischen dem persönlichen Erleben und Handeln, der Perspektive der ersten Person, und der objektivierenden wissenschaftlichen Beschreibung, der Perspektive der dritten Person unterschieden. Die Reduktionisten geben zwar zu, dass unsere Erlebenswelt, unser „phänomenales Bewusstsein“, der ersten Person vorbehalten sei. Im Zuge des Reduktionsprozesses werde aber diese Perspektive durch die Perspektive der dritten Person, also die Sicht der objektiven Wissenschaft, ersetzt. Dies trifft jedoch nicht zu. Die Perspektive der ersten Person bleibt für uns eine urspr.e Gewissheit. Sie ist zugl. die Grundlage für alle Formen von Wissenschaft, denn jede Wissenschaft gründet in dem Entschluss von Personen, bestimmte Fragen und Probleme nach einer von ihnen festgelegten Methode anzugehen. Die erste Person ist also immer schon der dritten Person voraus, weil sie den Weg entwirft, den wir in den Wissenschaften gehen wollen. Der Versuch, uns selbst zu erklären mittels der von uns entworfenen Neurobiologie ist ein Zirkelschluss, weil das zu Erklärende selbst Voraussetzung des Erklärens ist.

Unsere persönliche Erfahrung, und insb. die Erfahrung von Freiheit sind für uns eine unmittelbare, nicht hintergehbare und nicht auf etwas anderes zurückführbare Gewissheit. Das Ich als transzendentales Subjekt ist nach Immanuel Kant zugl. die Grundlage allen Denkens und Erkennens. Das kommt in dem berühmten Satz zum Ausdruck: „Das: Ich denke, muss alle meine Vorstellungen begleiten können“ (KrV B: 131).

Unser Personsein, unsere Subjektivität, unser Bewusstsein lässt sich also nicht auf neuronale Prozesse reduzieren. Nur wenn wir akzeptieren, dass die Weise unseres Wissens von uns selbst und von unserer Lebenswelt verschieden ist von dem Wissen über die Phänomene der H. und diese Verschiedenheit, diese epistemische Differenz, nicht aufgehoben werden kann, halten wir uns den Blick auf das Ganze der Wirklichkeit offen. Die Ergebnisse der H. lassen sich so deuten, dass sie im Einklang mit unserem subjektiven Erleben stehen.

5. Das Problem Freiheit

Eine bes. heftige Debatte wurde in den letzten Jahren über die Realität von Freiheit geführt. Ausgelöst wurde die Debatte durch die Behauptung einiger Neurophilosophen, es gebe keine Freiheit. Wenn wir glaubten, frei entscheiden zu können, dann seien wir Opfer einer Illusion. Nach Gerhard Roth bin nicht Ich es, der entscheidet, sondern das Gehirn. Einige Neurophilosophen glauben, für diese Aussage hätten die Experimente von Benjamin Libet den Beweis erbracht.

Vor mehr als 30 Jahren versuchte der Neurophysiologe B. Libet herauszufinden, wann bewusste Handlungsabsichten entstehen und wie sie sich zeitlich zur Handlung selbst verhalten. Mit der EEG wurde das Bereitschaftspotential abgeleitet. Es ergab sich, dass das Bereitschaftspotential etwa 350 Millisekunden vor dem Bewusstwerden des Bewegungsdrangs einsetzte. B. Libet zog daraus den Schluss, dass Handlungen nicht durch den freien Willen, sondern durch unbewusste Hirnprozesse bewirkt werden.

John-Dylan Haynes und seine Arbeitsgruppe beschritten einen anderen experimentellen Weg. Sie benutzten statt des EEG die fMRT, welche eine hohe räumliche Auflösung im Gehirn ermöglicht und so auch die Aktivitäten in anderen Hirnregionen zeigt. Im Unterschied zu den Libet-Experimenten hatten die Versuchspersonen die Möglichkeit, eine Wahl zu treffen. Es ergab sich, dass „zwei Hirnregionen mit großer Genauigkeit“ kodierten, „ob die Versuchsperson im Begriffe war, die linke oder rechte Antwort vorgängig zur bewussten Entscheidung zu wählen.“ (Soon u. a. 2008: 544). Nach ihrer Interpretation geht die prädiktive neuronale Information der bewussten motorischen Entscheidung um 10 Sekunden voraus. Daraus ergibt sich nach J.-D. Haynes, „dass ein Netzwerk von hochrangigen Kontroll-Arealen eine Entscheidung vorbereitet lange bevor diese in unser Bewusstsein eintritt“ (Soon u. a. 2008: 543).

Gegen die reduktionistische Deutung der Libet- und Haynes-Experimente sprechen mehrere Gründe. In einem Experiment von Christoph S. Herrmann und Mitarbeitern wurde gezeigt, dass das Bereitschaftspotential bereits einsetzte, bevor ein Muster auf dem Bildschirm erschien und die Versuchsperson sich entscheiden konnte. Daraus wird ersichtlich, dass das Bereitschaftspotential nicht die Entscheidung determiniert, sondern lediglich Ausdruck einer allg.en Bereitschaft für eine Bewegung ist.

Bei B. Libet wie bei J.-D. Haynes wird ein wichtiger Sachverhalt nicht berücksichtigt. Der einzelne Bewegungsakt steht nicht isoliert für sich, sondern resultiert aus der bewussten Entscheidung der Versuchsperson, an dem Experiment mitzumachen und irgendwann die Hand zu bewegen bzw. einen Knopf zu drücken. Die wiederholte Ausführung dieser einfachen Bewegung kann man den zuständigen Schaltkreisen im Gehirn überlassen. Ohne diese vorgängige Entscheidung hätten die neuronalen Schaltkreise keine experimentelle Aufgabe zu bearbeiten. Die höheren kortikalen Regionen entwerfen keine Handlung, wenn sie dazu nicht beauftragt werden. Wenn man aber beim Experiment richtig mitmachen will, muss nicht jede einzelne Etappe erneut bewusst entschieden werden. Mit der initialen Entscheidung wird der weitere Ablauf weitgehend in unbewusste Hirnprozesse delegiert. Insofern hat die Entscheidung in einem Moment eine Langzeitwirkung. Man kann deshalb nicht argumentieren, dass das Gehirn autonom arbeitet und entscheidet. Vielmehr führt es den Auftrag der Versuchsperson aus und speist das Ergebnis wieder ins Bewusstsein ein.

Diese Situation ist uns auch von anderen alltäglichen und zur Gewohnheit gewordenen Tätigkeiten bekannt, für die nicht jedes Mal ein neuer Entschluss nötig ist. Ein je neuer Entschluss wäre in vielen Fällen sogar kontraproduktiv und würde unsere Reaktionsfähigkeit stark beeinträchtigen. D. i. auch der Sinn und der Erfolg des Lernens, dass man schließlich Handlungen gleichsam automatisch ausführen kann, ohne jeweils bewusst darüber zu entscheiden. Wenn ein Pianist lernt, ein neues Stück auf dem Klavier zu spielen, wird der Übergang von einer Einzelentscheidung, nämlich diesen Finger jetzt zu bewegen, zu einer Prozessentscheidung deutlich, nämlich diese Phrase zu spielen. Am Ende spielt der Pianist das ganze Stück aus einem Guss. Auf bewusste Einzelentscheidungen zu warten, würde den Fluss der Musik zerstören. Der Pianist hat die Einzelabläufe durch wiederholtes Üben in Hirnprozesse eingespeist und kann so seine Aufmerksamkeit voll der musikalischen Präsentation widmen.

In der Debatte über Freiheit und Determinismus wird immer wieder die These ins Spiel gebracht, „alle Ursachen in der Welt seien physisch“ (Falkenburg 2012: 47). Deshalb sei die Welt als ganze kausal geschlossen. Folglich könne es keine Freiheit geben.

Diese These der kausalen Geschlossenheit beruht weder auf einer beobachtbaren Tatsache noch ist sie theoretisch beweisbar. Sie ist lediglich eine operative Leitidee, unter der die Naturwissenschaften sinnvoll forschen. Aus diesem Grund wird die kausale Geschlossenheit der Welt heute von einer Reihe von Physikern und Philosophen in Frage gestellt.

In der These der kausalen Geschlossenheit der Welt steckt ein Kausalbegriff, der selbst wieder umstritten ist, und zwar sowohl in der Physik als auch in der Philosophie. Am plausibelsten erscheint noch der Kausalbegriff von I. Kant. Nach I. Kant ist die Kategorie der Kausalität eine notwendige Bedingung der Möglichkeit von Erfahrung, mit der wir Ordnung in die Ereignisse bringen und Zusammenhänge verstehen. Sie ist gleichsam eine „methodologische Regel“. Somit ist die These von der kausalen Geschlossenheit „nur ein regulativer Grundsatz“, „eine Verfahrensregel der Naturwissenschaft“ (Falkenburg 2012: 51).