Scientifically assisted telepathy?

Objektivierung und Standardisierung in der modernen Hirnforschung

In seiner Einführungsvorlesung über physikalische Modelle des Gehirns beschreibt der Biophysiker Werner Gruber seinen geschätzten Kollegen und Kolleginnen die Welt des Brain Modelling ganz informell als »wunderbare, friedliche, ruhige Welt, wo alles nach eindeutig deterministischen Gesetzen abläuft.« Ganz so wunderbar und ruhig wie Gruber die Welt der auf Statistik gestützten Hirnforschung in seiner Vorlesung beschreibt, ist sie, wenn sie es denn je war, sicherlich nicht mehr. Konfrontiert mit methodischen Unzulänglichkeiten und dem Wissen darum, wie schwierig es ist, dem Gehirn verlässliche Daten zu entlocken, würden heute wohl die wenigsten Hirnforscher_innen die Frage »Wie der Mensch denkt« damit beantworten, dass dies »eindeutig mit Computern nachvollzogen werden« kann. Dennoch nehmen deterministische Interpretationen neurowissenschaftlicher Forschungsergebnisse gesamtgesellschaftlich zu und sind ein wichtiges Deutungsangebot in der Diskussion um das Wesen des Menschen. Der nunmehr lang anhaltende Streit um die Frage, wer oder was mehr Einfluss auf den Menschen habe, die Kultur oder doch die Biologie, scheint in den letzten Jahren wieder verstärkt vom Biologismus dominiert zu werden.

Dabei waren einige Forschungsergebnisse der Hirnforschung aus den letzten 20 Jahren durchaus eine Steilvorlage für kritische Materialist_innen: So wurde etwa die sogenannte Plastizität des Gehirns und die Neubildung von Hirnzellen bis ins hohe Alter nachgewiesen; es konnte gezeigt werden, dass Erfahrungen sich direkt auf die Herausbildung von Neuronenverbänden auswirken und Umwelteinflüsse wesentlich am Aufbau des Gehirns beteiligt sind. Die Einsicht, »dass niemand ohne Gehirn denken könne« , muss mit der Erkenntnis zusammen gedacht werden, dass gesellschaftliche wie individuelle Erfahrungen einen großen Anteil an der Funktionsweise des Gehirns haben. Ein kritisches Verständnis des Gehirns wäre also nach jetzigem Wissensstand durchaus möglich; nicht eine vordiskursive Natur müsste hier konstatiert werden, sondern die unauflösbare Verknüpftheit von biologischen Prozessen und gesellschaftlicher Praxis könnte der Ausgangspunkt der Hirnforschung sein. Eine solche dialektische Auffassung über die Funktionsweise des Gehirns ist aber nur in wenigen Studien über das Gehirn zu finden. Ein Grund dafür sind, unter anderem, die in der Hirnforschung verwendeten statistischen Methoden.

Gestatten: Hirnforschung

Um das Phänomen der Neurowissenschaft und seine Ergebnisse greifbar und verständlich zu machen, ist es zunächst wichtig, zu unterscheiden von welcher Hirnforschung gesprochen wird. Über die letzten 200 Jahre wurden verschiedene Methoden der Untersuchung des Gehirns und seiner Funktionsweisen entwickelt. Sie bestimmen jeweils die Vorstellung vom Gehirn, was überhaupt untersucht werden kann und welche Antworten möglich sind. Im Folgenden wird es um die funktionelle Magnetresonanztomographie (fMRT) gehen, die in Erweiterung zum MRT nicht nur anatomische, sondern auch funktionelle Daten vom Gehirn erhebt. Funktionelle Magnetresonanztomographie ist eine nicht-invasive Methode – das heißt, sie generiert Daten, ohne in den Körper einzugreifen –, mit der schnell und ohne langjährige Vorarbeit Daten über das menschliche Gehirn gesammelt werden können. Durch den Einsatz von gut entwickelten Softwarepaketen ist sie schnell zu erlernen und leicht anwendbar, sie bietet eine hohe räumliche Auflösung der Hirndaten (der Kernspintomograph bietet derzeit die einzige Möglichkeit in der Hirnforschung, Daten vom gesamten Gehirn zu erfassen), was aber gleichzeitig zu einer extrem schlechten zeitlichen Auflösung führt. In den bundesweit nicht allzu verbreiteten Forschungslaboren, die über einen Kernspintomographen verfügen, trifft man vorrangig Wissenschaftler_innen, deren Interesse an Fragen über den Menschen zunächst über ein Studium der Psychologie oder der Philosophie geweckt wurde. Enttäuscht vom indirekten Zugang der Psychologie, wenden sich die Wissenschaftler_innen der fMRT zu, da diese eine direkte Erkenntnis über das Gehirn verspricht. Mit fMRT, so eine Neurowissenschaftlerin des Max-Planck-Instituts für Hirnforschung, sei es möglich, dass man sich »ein Bild des Gehirns machen kann, während der Proband sich ein Bild von der Welt macht.« Diese Aussage verdeutlicht, dass die aktuell geführten wissenschaftlichen Kämpfe, wie denn der Mensch und seine Verhaltensweisen zu untersuchen seien, eigentlich die alten sind: Positivistische Ansätze (heute auch gerne als biologischer Realismus bezeichnet) stehen dialektischen Ansätzen gegenüber.

Dass sich die heutige Hirnforschung immer noch mehrheitlich auf einen positivistischen Zugang zum Untersuchungsgegenstand beschränkt, mag auch durch das Versprechen der fMRT begründet sein. Denn diese speist sich weniger aus neuen theoretischen Vorstellungen über Funktions- und Arbeitsweisen des Gehirns, als vielmehr aus der Evidenzkraft der bildgebenden Techniken, die sie hervorbringt. Es sind also die aufwendig berechneten und voraussetzungsvollen statistischen Karten des Gehirns, die in ihrer Ästhetik eher Röntgenbildern oder Fotografien gleichen, die derzeit an der Hirnforschung faszinieren und die eine wichtige Voraussetzung des aktuell zu beobachtenden Siegeszugs der Hirnforschung darstellen. Mitunter verbindet sich diese Faszination sogar mit einer regelrechten Euphorie über die neuen bildgeleiteten Erkenntnismöglichkeiten. »Zum ersten Mal«, so der Professor für Biomedical Imaging Mark Lythgoe, »ist es uns möglich, die vormals unlösbare Frage zu stellen, was es ist, das uns menschlich macht.«

Das Bild als Objektivierung

Um die Frage zu beantworten, wie fMRT-Bilder eigentlich zu Bildern werden, ist es hilfreich, zunächst einen Blick auf die englische Bezeichnung der hier untersuchten Methode zu werfen: »Functional magnetic resonance imaging« beschreibt das Verfahren wesentlich genauer als der deutsche Begriff, da es sich bei der fMRT um ein bildgebendes, kein abbildendes Verfahren handelt. Im Begriff des »Imaging« verbirgt sich bereits eine erkenntnistheoretische Vorannahme, die essentiell für die fMRT-Forschung ist: Sehen, Wahrnehmen und Erkennen werden in der funktionellen Magnetresonanztomographie synonym verwendet. Der aufklärerische Impetus im Begriff der Erkenntnis und in der Rede vom Wahrnehmen wird an den Vorgang des Sehens geknüpft, wobei Sehen in der fMRT Forschung als eine Fähigkeit des Menschen verstanden wird, unvermittelt und direkt Dinge über das Auge aufzunehmen. In dieser positivistischen Idealisierung von bildlicher und im Prozess der fMRT technisch hergestellter Objektivität, werden Visualisierungen zur Begründung an sich. Sie stiften die Evidenz dessen, was im Labor untersucht werden soll. Das technisierte, apparative Sehen im Labor wird vor allem durch den Mythos der Körperlosigkeit des Testsubjekts hergestellt, in dem Wahrnehmung und Erkennen allein auf das Auge reduziert werden.

Die Begründung der eigenen Ergebnisse vor allem über Visualisierungen leisten zu wollen, hat nicht nur Auswirkungen auf das Resultat, sondern auch auf die Herangehensweise an den Untersuchungsgegenstand und begrenzt die Antwortmöglichkeiten. So ist die Art und Weise der Forschungsfrage, wie allgemein bekannt, für jede Form der wissenschaftlichen Untersuchung richtungsgebend. Durch Fragestellungen werden aber nicht nur mögliche Antworten in das Experiment implementiert, auch verbergen sich in ihnen die verwendeten Paradigma der jeweiligen Forschung, also die Vorannahmen, die die Wissenschaftler_innen an ihren Forschungsgegenstand anlegen. Das Paradigma der funktionellen Bildgebung ist die Lokalisierung von Hirnaktivität. Zur Untersuchung dieses Paradigmas muss das menschliche Gehirn zunächst in ein »visuelles Medium« transformiert werden, um die vorgenommenen Messungen in statistisch berechneten Hirnatlanten oder Karten darstellen zu können. Die einzelnen Erhebungsschritte der fMRT basieren demnach auf einzelnen Visualisierungsphasen, die ich im Folgenden kurz skizzieren möchte.

Zunächst zur Problematik der Fragestellung: Jedes Experiment, das mit funktioneller Bildgebung arbeitet, muss sich auf die Frage nach dem Wo? beschränken. Zu bestimmen, wo im Gehirn eine Reizverarbeitung stattfindet, wird zur grundlegenden und alles bestimmenden Aufgabe des fMR-Imaging, da sie ausschließlich den Ort, an dem im Gehirn erhöhte Aktivitätswerte unter einer bestimmten Bedingung (etwa dem Zeigen eines Fotos) auftreten, beantworten kann. Die Einschränkungen, die die Wo-Frage nach sich zieht, hat zur Folge, dass die Fragestellungen der funktionellen Hirnforschung sehr reduziert und detailliert sein müssen. Vor allem bei der Erklärung komplexer sozialer Phänomene müssen Analogien gefunden werden, die in Form von Stimuli den Proband_innen gezeigt werden können, um sie anschließend wieder auf die Gefühlswelt oder die Verarbeitungsweisen des menschlichen Gehirns zu beziehen (etwa indem das Zeigen eines Bildes des_der Partner_in mit dem Gefühl der Liebe gleichgesetzt wird). Insbesondere wenn es um höhere kognitive Fragestellungen geht, sind die verwendeten Begriffe und Modelle, auf die die funktionelle Bildgebung zurückgreift, nicht eindeutig definiert, da erstens der Mensch in der Hirnforschung nicht als ein interagierendes bzw. soziales Wesen entworfen wird und zweitens für viele philosophische oder gesellschaftspolitische Fragestellungen keine adäquaten Abstraktionen oder Standardisierungen vorhanden sind. Etwas provokativ, aber pointiert formuliert Alexander Grau diese Kritik in seinem Artikel »Momentaufnahmen des Geistes?«: »Es braucht keine seitenlangen philosophischen Reflexionen, um sich klar zu machen, dass die neuronale Reaktion auf die Präsentation von Fotos geliebter Menschen bestenfalls das Erregungsmuster der Verarbeitung von Fotos geliebter Menschen erzeugt, nicht aber das der Liebe.«

 

 

Grundlage des Brain Mappings: Das Hirn als messbarer Raum

Historisch lässt sich zeigen, dass das Gehirn, bevor es zum Untersuchungsgegenstand wurde, zunächst als ein eigenständiges Organ gedacht werden musste. Erst nachdem sich die Vorstellung des Gehirns als dem »Organ des Denkens« herausbildete, ließ es sich sukzessive der Vermessung zuführen.  Das Gehirn wurde vom mystischen Sitz der Seele befreit, war nicht mehr Seelenorgan, sondern unbeseeltes und nach festlegbaren Regeln analysierbares Hirnorgan. Einerseits ist das Gehirn nun ein Körperteil unter vielen, andererseits nimmt es dennoch eine besondere Stellung in der Körperhierarchie des Menschen ein.

Die Anfänge der Vermessung des Gehirns zur Lokalisierung seiner Funktionsweisen liegen in der von Franz Joseph Gall Anfang des 19. Jahrhunderts entwickelten Phrenologie. In der Phrenologie wurde zunächst nur der Schädel als Projektionsfläche einer landkartenähnlichen Lokalisierung (Anatomie) von funktionellen Hirndaten (Physiologie) verwendet. Erst die Anlegung des kartesischen Koordinatensystems, zunächst an den Schädel und später an das gesamte Gehirn, ließ die Vermessung des dreidimensionalen Hirnraums zu. Das Koordinatensystem mit seinen drei Achsen (x, y und z) ermöglicht es, den Körperraum zunächst in einzelne Schichten, und jede Schicht in kleine Einheiten, sogenannte Voxel (dreidimensionale Pixel) einzuteilen und diese im Koordinatensystem Punkt für Punkt zu bestimmen.

Durch die virtuelle Einteilung des Hirnraums in kleine abgetrennte Entitäten (Voxel), können diese nun in der modernen Hirnforschung auf ihre Eigenschaften – und in diesem Falle auf ihren Aktivitätswert – hin untersucht werden. Aufgrund der Rhetorik der Neurowissenschaftler_innen besteht unter einem Laienpublikum das weitverbreitete Missverständnis, die Methode der fMRT messe tatsächlich die elektrische Spannung der Neuronenaktivität, wie es etwa das EEG tut. Der Kernspintomograph aber kann mitnichten Neuronenaktivität messen, sondern beruht auf der indirekten Messung spezifischer, vom Magnetismus beeinflusster Reaktionszeiten von Wasserstoffatomen. Während bei einem MRT, also den anatomischen Scans, das Verhalten von Wasserstoffatomen im Körpergewebe gemessen wird, misst der funktionelle Scan die Reaktion der Wasserstoffatome im Blut. Diese wiederum ist stark abhängig von dessen Magnetisierungswert, der sich darüber bestimmt, ob es sich um frisches Blut (hoher Magnetisierungswert) oder um älteres Blut (niedriger Magnetisierungswert) handelt. Die grundlegende These auf der die gesamte fRMT aufbaut ist somit schnell umrissen: neuronale Aktivität – die mit Denken gleichgesetzt wird – führt zu einem Zustrom von frischem Blut in Gehirnregionen, die über das Messen von höher magnetisiertem Blut lokalisiert werden sollen.  Dieser Zugang zu physiologischen Prozessen über die Blutversorgung ist allerdings so indirekt, dass er beispielsweise dem Versuch gleichkommt über die Messung des Wasser Zu- und Ablaufs herauszufinden, was eine Fabrik herstellt, oder über die Messung von Wärmeproduktion zu erfahren, wie ein Computer funktioniert. Wie fragwürdig und fragil die Messung von Denkaktivität über die Variable der Blutversorgung ist, verdeutlicht auch die Tatsache, dass nur knapp drei Prozent eines untersuchten Hirnvoxels von Blutgefäßen eingenommen wird und das im Gehirn somit deutlich komplexere Abläufe stattfinden, als es der Kernspintomograph überhaupt messen kann.

Die Auswertung der funktionellen Daten basiert nun darauf, zwei Zustände des Gehirns miteinander in Bezug zu setzen: einen Kontrolldurchgang, in dem das Gehirn so wenig wie möglich stimuliert werden sollte – um einen neutralen Zustand zu simulieren – und Durchgängen in dem das Gehirn mit charakteristischen Stimuli – beispielsweise bestimmte Bilder – gereizt wird. Diese beiden Zustände werden dann in der späteren Auswertung gegeneinander gerechnet, in der Hoffnung, einen höheren Magnetisierungswert in den Durchgängen zu finden, in dem das Gehirn gereizt wurde. Sieht das Studiendesign eines Experiments den Vergleich von zwei vorgegebenen Gruppen vor – wie zum Beispiel von psychisch krank eingestuften Proband_innen mit ‚gesunden’ Proband_innen oder auch von Männern und Frauen – werden die Daten der jeweiligen Gruppen ebenfalls gegeneinander gerechnet. Die Ergebnisse der Hirnforschung können somit nicht individuelle Unterschiede der Einzelnen aufzeigen, sondern zielen auf die statistische Mittelung – als unüberbrückbar imaginierter – Differenzen gesellschaftlicher Gruppen. Die durch Subtraktionsberechnungen in der statistischen Auswertung in Relation gesetzten Daten der Proband_innengruppen bestimmen das, was im Hirnbild überhaupt sichtbar gemacht werden kann: visuelle Kontrastierungen von im Gehirn markierbaren Unterschieden.

So kann die fMRT allein nach einem Ort fragen, an dem die Präsentation eines Stimulus im Vergleich zu einem anderen Stimulus zu einer Aktivität führt, um sie danach im hirnanatomischen Raum zu verorten. Die Konsequenzen dieses Verfahrens sind einfach, aber fundamental für die Popularisierung der Methode: die Antwort auf die Frage, wo etwas verarbeitet wird, kann man sichtbar machen, die Lokalisierung von angeblicher Hirnaktivität ist leicht zu visualisieren, zu standardisieren und miteinander in Relation zu setzen.

 

Und der Rest: Statistik

Die Zurichtung des Gehirns auf seine visuelle Darstellbarkeit verlangt – wie generell in der naturwissenschaftlichen und medizinischen Forschung – nach vielfachen Standardisierungen und Normierungen. Neu an Verfahren wie der fMRT ist ihre starke Abhängigkeit von im Bild nicht mehr erkennbaren Statistiken und Algorithmen. Umso komplexer und aufwendiger der Konstruktionsprozess der Bilder, desto »natürlicher«, im ästhetischen Sinne, erscheinen sie. Die digitalen Bildgebungsverfahren in der Medizin und Forschung führen durch die enge Verknüpfung der eigenen Wissensproduktion an die Hervorbringung von Bildern zu einer doppelten Standardisierung. Denn einerseits wird im Prozess der Visualisierung das untersuchte Phänomen erst hervorgebracht, indem etwas »Unsichtbares sichtbar« gemacht und ein neuer Standard zu sehen gegeben wird. Das heißt, bildgebende Verfahren zeichnen sich dadurch aus, dass sie kein originäres Relatum in ein Bild übersetzen – also abbilden –, sondern dass die Methode einen Vorgang visualisiert, den sie gleichzeitig als Phänomen erst herstellt. Die fMRT reproduziert somit nicht etwas ‚originäres’, sondern beruht auf vielfachen Übersetzungsmechanismen, an deren Ende etwas Neues steht.

Andererseits muss für die Transformation vom Körper ins Bild bereits im Scanprozess auf festgelegte Standardisierungen und Normwerte des menschlichen Gehirns zurückgegriffen werden. Statistische Karten sind auf Modelle beruhende mathematische und statistische Berechnungen und reproduzieren somit festgelegte Schwellen- und Normwerte des Gehirns nicht erst in ihrer Darstellung, sondern auch schon in der Vermessung wie auch in der Analyse. Hatten die Bilder vor Einführung des Computers im Wissensgenerierungsprozess vor allem eine Prototypfunktion – zur Vergegenwärtigung der eigenen Gedanken –, basieren die digitalen Visualisierungen schon auf Modellen dessen, was sie zu vermessen und zu bestimmen ersuchen.

Die funktionelle Bildgebung als Methode wird zwar breit kritisiert und diskutiert, ihre Wirkung auf gesellschaftliche Debatten über den Menschen bleibt dennoch nicht aus. Die statistischen Hirnkarten haben an der Effektivierung des menschlichen Denkapparats einen bedeutenden Anteil. Zum einen suggerieren sie durch ihren scheinbar direkten Einblick ins Gehirn eine überschaubare und kategorisierbare Materialität, die als eigenständige Substanz untersucht und technisiert werden kann. Zum anderen folgen diese Bilder der Logik statistischer Karten, die nicht die Analysierbarkeit einzelner Phänomene anstreben, »um sie dann auf allgemeine Gesetzmäßigkeiten hin zu überprüfen«,  sondern »die Statistik [gesteht, H.F.] ein, dass der Einzelmensch zu komplex und verschiedenartig ist. Erst in der Kumulation zahlenmäßiger Häufigkeiten quantifizierbarer Rohdaten können Aussagen über den Menschen gemacht werden. Das Abstraktum wird dann als Normalität definiert.« Die Bilder der fMRT stellen spezifische Ordnungen dar, die im Spannungsfeld zwischen abgebildetem Einzelfall und anzunehmender Allgemeingültigkeit oszillieren. Für die allgemeine Anerkennung und mögliche Lesart der Daten braucht es den ikonographischen Verweis auf das im gesellschaftlichen Gedächtnis etablierte Bild der Hirnanatomie . Durch die Repräsentation der quantifizierbaren Rohdaten in individuell erscheinende Gehirnbilder, lassen sich die vom Körper gelösten Zahlen als ästhetisierte Normwerte wieder zurück auf den Menschen projizieren. Die funktionelle Bildgebung ist demnach Ausdruck eines neuen Hirnmodells, das für das heutige Menschenbild unmittelbare Konsequenzen hat. Die visuelle Rückbindung von physiologischen Funktionen – mittels der funktionellen Daten – an organisch wirkende Bilder vom Gehirn ist folgenreich für eine essentialistische Auslegung der eigentlich rein statistisch argumentierenden Karten des Gehirns.  Durch das Unsichtbarmachen der eigenen Herstellungsbedingungen werden die stark konstruierten Darstellungen des Gehirns als objektiv wahrgenommen und verschleiern ihren argumentativen Reduktionismus.

 

Hannah Fitsch

Die Autorin lebt in Berlin und schaut Menschen gerne beim Denken zu.

 

Fußnoten

  1. Werner Gruber, Vorlesung zu höheren Funktionen des Gehirns, Vorlesung im Sommersemester 2005, http://brain.exp.univie.ac.at/y_vorlesung_ss05.htm.
  2. Ebd.
  3. Das Konzept der Plastizität, also der Formbarkeit und »Trainierbarkeit« des Gehirns, ist in den letzten Jahren bereits in die Kritik geraten, da es als medizinisches Modell den optimalen Anschluss an neoliberale Anforderungen der Selbstermächtigung des Menschen (etwa über lebenslanges Lernen oder Gehirn-Jogging) über seinen Körper darstellt. In kapitalistischen Verhältnissen schlägt die frohe Botschaft von der Plastizität der Neuronenverbände in die Forderung um, am Zustand und der Effektivierung des eigenen Gehirns mitzuarbeiten und etwas für dessen Gesundheit und bestmögliche Nutzung zu tun.
  4. Philip Hogh/Julia König, Der Stachel Natur. Die Natur des Menschen im Spannungsfeld von Neurowissenschaft, Poststrukturalismus und Psychoanalyse, in: Myriam Gerhard und Christine Zunke (Hrsg.): Die Natur des Menschen, Würzburg 2012, 225-250, hier: 229.
  5. Die ermittelten Aktivitätspotenziale als Reaktion auf einen durch Stimuli ausgelösten Reiz liegen in der funktionellen Bildgebung bei vier bis zehn Sekunden.
  6. Die Interviews wurden während eines Forschungsaufenthalts im Rahmen meiner Dissertation »Just to give you a picture. Sicht- und Sagbarkeiten in der funktionellen Magnetresonanztomographie« im Jahr 2009 am Max-Planck-Institut für Hirnforschung in Frankfurt a.M. geführt.
  7. Mark Lythgoe, Images that Changed the World, Radio-Feature, BBC Radio 2009. Die Überschrift dieses Artikels ist ebenfalls dem Beitrag entnommen.
  8. Anne Balsamo, On the Cutting Edge: Cosmetic Surgery and the Technological Production of the Gendered Body, in: Nicholas Mirzoeff (Hrsg.), The Visual Culture Reader, London 1999, 223-236, hier: 223.
  9. Alexander Grau, Momentaufnahmen des Geistes, in: Gehirn&Geist 4 (2003), 76-80, hier: 79.
  10. Michael Hagner, Homo Cerebralis. Der Wandel vom Seelenorgan zum Gehirn, Berlin 1997, hier 11ff.
  11. Vgl. ausführlich Hannah Fitsch, Just to give you a picture. Sicht- und Sagbarkeiten in der funktionellen Magnetresonanztomographie, Dissertation eingereicht an der Technischen Universität Berlin 2012.
  12. Die Gleichsetzung von Denken und Hirnaktivitäten stammt aus den Studien über die Regulation der Blutversorgung des Gehirns die Ende des 19. Jahrhunderts von Charles Roy und Charles Sherrington vornehmlich an Hunden und Katzen vorgenommen wurde. Sie leitet sich in erster Linie aus der Erkenntnis ab, dass nicht der Herzschlag, wie zuerst angenommen, die Blutversorgung des Gehirns steuert, sondern ein vom Herzschlag unabhängiger Blutkreislauf im Gehirn festgestellt wurde. Mit ihrer Studie legen Sherrington und Roy das bis heute wirksame erkenntnistheoretische Paradigma fest, dass »der lokale Metabolismus im Nervengewebe [...] somit im direkten Zusammenhang mit der Aktivität der Neuronen« steht. Gérard Crelier / Thomas Järmann, Abbildung von Wahrnehmung und Denken: Die funktionelle Magnetresonanz-Bildgebung in der Hirnforschung, in: Bettina Heintz / Jörg Huber (Hgg.), Mit dem Auge denken. Strategien der Sichtbarmachung in wissenschaftlichen und virtuellen Welten, Zürich 2001, 95-108, hier 98.
  13. Vgl. Joachim Müller-Jung, Die Grenzen der Deutungsmacht, in: Frankfurter Allgemeine Zeitung, vom 25. Juni 2008.
  14. Martina Hessler, Von der doppelten Unsichtbarkeit digitaler Bilder, in: Zeitblicke 3 (2006) http://www.zeitenblicke.de/2006/3/Hessler.
  15. Kendra Briken, Playing Hide and Seek with Statistics, in: Phase 2.17 (2007), 16-19, hier: 17.
  16. Ebd.
  17. Vgl. dazu ausführlich Lukas Engelmann / Hannah Fitsch, Das Bild als Phänomen: visuelle Argumentationsweisen und ihre Logiken am Beispiel von Sichtbarmachungen des »AIDS-Virus« und der funktionellen MRT, in: Petra Lucht u.a. (Hg.), Visuelles Wissen und Bilder des Sozialen: aktuelle Entwicklungen in der visuellen Soziologie, Berlin 2012, 213-230.
  18. Britta Schinzel, Digitale Bilder: Körpervisualisierungen durch Bild gebende Verfahren in der Medizin, in: Wolfgang Coy (Hrsg.), Bilder als technisch-wissenschaftliche Medien (2004), http://0cn.de/lb9n.