Räumlich durchs Auge

Wie kommt die greifbare Welt in den Kopf?

Wissen | Know-how

Unsere Umgebung ist dreidimensional, und unser Wahrnehmungsapparat hat sich darauf eingestellt: Man greift instinktiv zum Globus, und erwischt ihn auch. Doch wie entsteht aus dem zweidimensionalen Bild des Auges ein räumlicher Eindruck?

Das räumliche Sehen ist ein starkes Wahrnehmungsphänomen, das vor einigen Jahren zur `Magic-Eye´-Mode geführt hat: In vielen Schaufenstern hingen Autostereogramme, die auf den ersten Blick als Durcheinander von Farben und Linien erschienen. Erst mit konzentriertem Parallelstellen der Augen offenbarte sich ein Tiefeneindruck, und das wahre Motiv des Bildes trat hervor.

Auch für virtuelle Realität und Computerspiele ist möglichst echte Dreidimensionalität ein erwünschtes Ziel. Die Grundlage für alle Methoden, ein räumliches Bild `in den Kopf´ zu bekommen, ist das Verständnis des menschlichen Sehsystems, angefangen beim Auge. Dieses ähnelt einer digitalen CCD-Kamera, deren optische Güte genau an die Dichte der Lichtsensoren, der Zapfen und Stäbchen, angepaßt ist.

Anders als bei der CCD-Kamera ist jedoch das örtliche Abtastraster der rund 120 Millionen Sehzellen (Stäbchen und Zapfen) des Auges nicht gleichmäßig verteilt: Im Zentrum der Netzhaut, der Stelle schärfsten Sehens (Fovea), beträgt der Abstand der Rezeptoren etwa eine Bogenminute und fällt auf weniger als ein Zehntel dieses Wertes am Sichtrand ab - das Bild des Auges ist in der Mitte des Sehfeldes viel schärfer als am Rand. Der wesentliche Unterschied zwischen Stäbchen und Zapfen besteht nicht im Farbensehen, sondern liegt im Helligkeitsbereich, den sie erfassen: Die Stäbchen sehen gut in der Dämmerung, denn sie haben eine höhere Empfindlichkeit als die Zapfen, dafür aber eine niedrigere Zeitauflösung (Flimmerfusion bei 20 Hz); im Zentrum der Netzhaut gibt es keine Stäbchen, weshalb man nachts einen schwachen Stern eher erkennt, wenn man an ihm vorbeisieht. Da es im Auge nur eine Sorte Stäbchen gibt, können sie nicht auf verschiedene Wellenlängen unterschiedlich reagieren, sie liefern also keine Farbinformation.

Tageslicht übersteuert die Stäbchen, aber die Zapfen sind in ihrem normalen Arbeitsbereich. Sie haben eine Flimmerfusion von circa 50 Hz und vermitteln sowohl Schwarzweiß-Eindrücke als auch Farben, denn das Auge enthält drei Zapfensorten mit unterschiedlicher, stark überlappender spektraler Empfindlichkeit zwischen 0,4 µm und 0,6 µm Wellenlänge. Ihre Information liefern die Stäbchen und Zapfen über Nervenzellen zu den Ganglienzellen. Deren dünne Fortsätze (1 µm) bilden gebündelt den Sehnerv, der etwa 15° neben der Stelle schärfsten Sehens das Auge am `blinden Fleck´ verläßt.

Hinter den Augen laufen beide Sehnerven bis zum Chiasma, der partiellen Sehbahnkreuzung. Dies ist ein entscheidender Punkt für das Stereosehen: Die Gesichtsfelder unserer Augen überlappen sich, das heißt, die meisten Sichtobjekte werden in beiden Augen auf der Netzhaut abgebildet. Das ist keinesfalls selbstverständlich: Viele Lebewesen haben nur wenig überlappende Gesichtsfelder der beiden Augen, dafür mehr Rundumsicht, beispielsweise Pferde, Kaninchen oder Goldfische. Als Faustregel gilt, daß jagende Lebewesen die Augen vorn haben, um besser zupacken zu können. Dagegen besitzen gejagte Tiere nur einen kleinen überlappenden Teil - Hühner zum Beispiel, um picken zu können - und dafür ein seitlich erweitertes Gesichtsfeld, eventuell bis ganz nach hinten, um nahende Gefahren zu erspähen.

In der partiellen Sehbahnkreuzung werden nun die rund eine Million Nervenfasern nach folgender Regel sortiert: Alles, was bei beiden Augen links von der Blickrichtung (Fixierlinie) liegt, wird in die rechte Gehirnhälfte geleitet und umgekehrt. Anschließend kommen die Sehnerven - unter Überspringen einer für das räumliche Sehen wohl unwichtigen Zwischenstation - auch schon im `primären visuellen Cortex´ an, dem Sehzentrum, das sich im hintersten Teil des Gehirns befindet, also erstaunlich weit weg von den Augen. In gewisser Weise kann man sich dieses Sehzentrum wie eine Leinwand vorstellen, die allerdings mit zwei Merkwürdigkeiten versehen ist: Erstens ist alles verzerrt, da Bereichen, die nahe der Stelle schärfsten (zentralen) Sehens liegen, mehr Auflösung gewidmet wird als den mehr in der Sehperipherie liegenden Bereichen. Von einem Ingenieurstandpunkt aus sind die Verzerrungsprobleme grauenhaft, die auftreten, wenn man nun die Augen bewegt, und das tun wir rund dreimal in jeder Sekunde, aber biologische Systeme haben damit offenbar kein Problem.

Zweitens steht alles auf dem Kopf, was zu der irrigen Auffassung geführt hat, daß Babys nicht gut sehen könnten, weil die Welt für sie auf dem Kopf stehe. Tatsächlich spielt die Orientierung einer Zwischenebene in einem neuronalen Netz gegenüber der Schwerkraft für die Verarbeitung überhaupt keine Rolle, wie ja auch ein Textverarbeitungsprogramm keine Schwierigkeiten mit der Rechtschreibkorrektur bekommt, wenn man den Bildschirm umdreht. Für das Stereosehen ist entscheidend, daß die Fasern beider Augen so sortiert werden, daß ein Abbild des Netzhautbildes entsteht. Dies bedeutet, daß die Fasern von `korrespondierenden Netzhautstellen´ jeweils an der selben Stelle im Sehzentrum ankommen. Korrespondierende Netzhautstellen sind jene Punkte auf den Netzhäuten, auf denen die gleichen Punkte eines Motives - beispielsweise einer Fingerspitze - in der Fixationsentfernung in beiden Augen abgebildet werden.

Um ein Motiv scharf abzubilden, wirken nun zwei Regelmechanismen zusammen: Die Vergenz steuert über Muskeln die Sichtachsen beider Augen so, daß ein in der Fixationsentfernung liegendes Objekt bei beiden Augen auf den korrespondierenden Netzhautstellen abgebildet wird. Damit das Bild bei wechselnder Entfernung immer scharf ist, verändern sich die Augenlinsen entsprechend (Akkommodation). Diese beiden Mechanismen sind mehr oder weniger fest gekoppelt, wenn sich das Sehsystem beim Kind richtig entwickelt hat.

Die Bilder von Sichtobjekten, die näher als die Fixationsentfernung liegen, sind gegenüber korrespondierenden Netzhautstellen nach außen versetzt; für entferntere Sichtobjekte gilt das Umgekehrte. Den seitlichen Versatz nennt man `Disparität´. Damit eröffnet sich dem neuronalen Netzwerk an dieser Stelle jetzt zum ersten Mal in der Verarbeitungskette die Möglichkeit, die Signale der beiden Augen zu verrechnen: Signale, die von korrespondierenden Netzhautstellen kommen, aktivieren `Fixationsneurone´; Signale, die von disparaten (leicht seitlich verschobenen) Netzhautorten kommen, regen `Nah-` oder `Fernneurone´ an, je nachdem, in welcher Richtung die Bilder auf der Netzhaut verschoben sind [#lit8 [8]]. Wenn Schielen vorliegt oder in der Kindheit vorlag, dann haben sich die Neurone, die die seitlichen Verschiebungen in den beiden Augen in Entfernungsinformation umrechnen, nicht ausgebildet.

Um die Stereodisparität, die aus dem Vergleich der Bilder beider Augen besteht, in einer Computersimulation zu erzeugen, gibt es ein einfaches Grundprinzip: Man berechnet die Szene unter Verwendung zweier Kamerastandpunkte, die um 6 cm auseinanderliegen und leicht gedreht sind; dadurch ergibt sich die korrekte Fixationsentfernung. Alternativ kann man die Szene selbst etwa um 5° drehen. Als Faustregel für maximale Verschiebung gilt: Bei einer Monitorentfernung von 50 cm sollte die Disparität auf dem Bildschirm nicht wesentlich über einem Zentimeter liegen, damit der Betrachter die Einzelbilder fusionieren, also zu einem Bild verschmelzen kann.

Wie aus diesem Ergebnis nun der Seheindruck ins Bewußtsein kommt, ist bisher unverstanden. Hier liegt die aktuelle Grenze der Forschung in den Neurowissenschaften, der künstlichen Intelligenz und der Philosophie. Im letzten Jahrzehnt hat es zwar viele Fortschritte im Detailwissen gegeben, von einem inhaltlichen Verständnis ist man aber noch weit entfernt.

Neben den Strukturen der Sehbahn, die zum beidäugigen, stereoskopischen Tiefensehen mittels der Stereodisparität führen, gibt es noch weitere Mechanismen, die am räumlichen Eindruck mitwirken, aber oft schon mit einem Auge funktionieren: Seit der Renaissancemalerei ist die Perspektive ein selbstverständliches Darstellungsmittel unseres Kulturkreises, das rein geometrisch erklärbar ist. Bei Betrachtung von Bildern mit starker Perspektive (beispielsweise in der Trompe-l´oil-Malerei) ist die räumliche Wirkung stärker, wenn man nur mit einem Auge schaut, da dann der Konflikt zwischen fehlender Stereodisparität und perspektivisch angedeuteter Tiefe entfällt.

Da man aus Erfahrung weiß, daß ein Mensch seine Größe nicht innerhalb von Sekunden ändert, ist dem Sehsystem klar, daß er sich entfernt, wenn er kleiner zu werden scheint. Kleinere, identische Motive nimmt man wegen dieser Größenkonstanz als entfernter liegend an. Eine überzeugende Perspektive erfordert auch Texturgradienten, die Aufschluß über räumliche Orientierung von Objekten geben.

Betrachtet man im Gebirge bei klarer Luft einen weiter weg liegenden Berggipfel, dann versagt die Entfernungsschätzung leicht, da sowohl die Größenkonstanz (man weiß nicht, wie groß dieser besondere Berggipfel nun ist) als auch die Stereodisparität (der Gipfel liegt sehr weit weg, die Augen stehen fast parallel und die Bergspitze ist vergleichsweise ein sehr kleines Objekt) versagen. Außerdem spielt die Luftperspektive hinein, die weiter entfernte Sichtobjekte infolge der Lichtstreuung in der Luft farblich entsättigt. In der recht klaren Gebirgsluft streut das Licht sehr wenig, und entfernte Objekte erscheinen zu nah. Computerspiele setzen folglich Nebeleffekte gern als Hilfsmittel ein, um hartes Clippen am jenseitigen Frustrum (der Sichtraum, außerhalb dessen die 3D-Darstellung abgeschnitten wird) zu kaschieren.

Als weiterer Mechanismus fungiert die Verdeckung. Sie ist die Basis der Z-Sortierung (Sortierung nach Tiefe, Tiefenstaffelung) bei 3D-Abbildungsverfahren, da aus der Seherfahrung vorn liegende Objekte dahinterliegende mehr oder weniger verdecken. Schließlich wirkt auch die Bewegungsparallaxe an der Räumlichkeit mit. Dieses Phänomen wird bisher bei virtuellen Realitäten unvollkommen ausgenutzt, obwohl dadurch allein schon ein ganz starker Tiefeneindruck vermittelt werden kann: Je nach der Position des Beobachters verdecken nahe Objekte entfernter liegende an unterschiedlichen Stellen.

Wenn man sich ein Auge zuhält, den Kopf nicht bewegt und ein bißchen wartet, bis die `Welt flach wird´ - was schwierig ist, weil man sich erinnert -, dann erscheint sofort wieder ein starker Tiefeneindruck, sobald man den Kopf bewegt. Ein Laborversuch, bei dem ein Monitorbild abhängig von der mit einem Potentiometerarm gemessenen Kopfposition verändert wurde, ergab einen äußerst lebhaften Tiefeneindruck [#lit9 [9]], den der Autor selbst beobachten konnte. Gegenüber dem beidäugigen Stereosehen bestehen zwei wesentliche Vorteile: Erstens ist damit auch vertikale Tiefeninformationen nutzbar, und zweitens können die meisten Stereoblinden damit räumlich sehen! Einäugige oder Schieler - manchmal ist Schielen kaum sichtbar (Mikrostrabismus) - haben dank der Bewegungsparallaxe meist ein voll intaktes Tiefensehen. Mit modernen Positionsmeßverfahren, zum Beispiel mittels Ultraschall, stellt die technische Realisierung der Kopfpositionsmessung kein Problem mehr dar [#lit1 [1]].

Für überzeugende virtuelle Realitäten ist es wichtig, daß alle Abweichungen von der `wahren´ Realität unterhalb gewisser Wahrnehmungsschwellen bleiben. Davon ist man jedoch noch weit entfernt: Die menschliche Sehschärfe ist - eine eventuelle Fehlsichtigkeit sei mit einer Brille korrigiert - etwas besser als eine Bogenminute. Man kann leicht ausrechnen, was das für einen Bildschirm bedeutet: In 57 cm Entfernung entspricht ein Winkel von einem Grad einer Strecke von einem Zentimeter. Also müßten bei dieser Entfernung auf einem Zentimeter der Bildschirmlochmaske mindestens 60 Pixel (60 Bogenminuten = 1°) untergebracht sein, was über 150 dpi entspricht. Um dem Shannonschen Abtasttheorem zu genügen, muß der Wert, falls man kein Anti-Aliasing nutzt, sogar doppelt so hoch sein. Typische 17- oder 19-Zoll-Monitore besitzen heute aber nur einen Pixelabstand (Dotpitch) von 0,26 mm, also 98 dpi. Bei der Entwicklung von computerbasierten Sehschärfetests zeigte sich, daß man selbst bei Einsatz von Anti-Aliasing deutlich mehr als einen Meter Abstand zu üblichen Bildschirmen halten muß, um die menschliche Sehschärfe genau zu messen [#lit6 [6]].

Als weitere Erschwernis kommt die Stereosehschärfe hinzu, die zu den Übersehschärfen (Hyperacuity) gehört; ihre Wahrnehmungsschwelle liegt sogar bei nur 10 Bogensekunden! Mittels Anti-Aliasing kommt man aber bei der technischen Umsetzung in die gleiche Größenordnung wie bei der reinen Sehschärfe. Die Tiefenwahrnehmung, die über die Bewegungsparallaxe vermittelt wird, hat gegenüber der disparitäts-basierten Tiefenwahrnehmung eine etwa zehnmal schlechtere Auflösung.

Die vierte Einflußgröße ist die Flimmerfusionsfrequenz; sie wird im allgemeinen mit 50 Hz angegeben. Allerdings lohnt es sich sehr, deutlich schnellere Monitore zu benutzen, denn die Flimmerfusionsfrequenz hängt vom Netzhautort ab: Wenn man genau geradeaus auf einen Fernseher blickt, flimmert er mit seinen 50 Hz gerade nicht; schaut man aber daneben, dann schon. Außerdem steigt die Flimmerfusionsfrequenz mit der Helligkeit an - ein Grund dafür, daß sogar das 100-Hz-Flackern von Leuchtstoffröhren stören kann. Entlastend wirkt im Unterschied dazu, daß die Grenzfrequenz bei der Stereo-Flimmerfusion deutlich niedriger liegt, wenn die Disparitäten klein sind. Deshalb kann man schon mit einem 70-Hz-Bildschirm eine zeitliche Bildtrennung - beispielsweise mit geschalteten LC-Panels vor den Augen - erreichen, die nicht störend flimmert.

Die einfachste Methode zur Erzeugung eines Stereoeindrucks ist, die Bilder für die beiden Augen an verschiedenen Orten entstehen zu lassen und dann jeweils dem richtigen Auge zuzuführen (räumliche Trennung). Das geschieht auf direktem Weg in Virtual-Reality-Brillen, indem vor jedem Auge ein eigenes LC-Display plaziert wird. Alternativ kann man die Bilder seitlich versetzt auf einem Bildschirm anzeigen, kodiert sie durch aufgelegte Polarisationsfolien und trägt vor den Augen eine korrespondierende Folie. Dabei kann man die Übersehschärfe des Stereosehens feststellen: Da die horizontale Zeilenablenkung nicht ganz linear erfolgt, kann eine Übereinanderprojektion der rechten und linken Bildhälfte zur Wahrnehmung einer durchgebogenen Bildfläche führen. Als drittes Verfahren kommt eine räumliche Trennung durch Verlegung in abwechselnde Displayzeilen zum Einsatz (Interleaving). Geeignete Prismenfolien oder Polarisationsstreifen auf dem Display und eine entsprechende Polarisationsbrille liefern den Augen wiederum ein eigenes Bild [#lit3 [3]].

Für die Bilddarstellung im Zeitmultiplex verwendet man ein Gerät, das in der Wissenschaft früher `Phasendifferenzhaploskop´ genannt wurde; heute spricht man schlicht von einer Shutter-Brille. Die zugrundeliegende Idee ist, die Bilder für die beiden Augen auf demselben Bildschirm schnell abwechselnd darzubieten und mit einem Lichtschalter vor den Augen jeweils nur das richtige Bild in das richtige Auge gelangen zu lassen. Als Lichtschalter dienten früher mechanische Einrichtungen, jetzt verwendet man meist LC-Shutter, auf Flüssigkristallpaneelen (LC, Liquid Crystal) basierende Verschlüsse. Es gibt auch Lichtschalter, die auf dem Kerr-Effekt beruhen (manche Stoffe ändern bei Anliegen eines elektrischen Feldes ihre Brechungseigenschaften und bewirken so eine Polarisation durchgehenden Lichtes) sowie ferroelektrische Lichtschalter. Die LC-Lichtschalter sind zwar sehr billig, aber oft beim Schalten zu langsam, so daß man ein Übersprechen erhält: Das linke Auge bekommt noch Teile des rechten Bildes zu sehen und umgekehrt. Der Effekt mildert sich, wenn man einen Monitor mit geringerer Nachleuchtdauer verwendet oder die Bildwiederholrate heruntersetzt; nachteilig dabei ist, daß dann die Flimmerneigung wieder zunimmt.

Ferroelektrische Schalter reagieren dagegen sehr schnell und haben ein hervorragendes Kontrastverhältnis zwischen `Ein´ und `Aus´, sind aber derzeit sehr teuer. Um Flimmern zu vermeiden, ist eine möglichst hohe Bildwiederholfrequenz des Monitors wünschenswert, beispielsweise 120 Hz, obwohl auch schon mit einem 50-Hz-Monitor, also bei 25 Hz Bildfrequenz pro Auge, ein überzeugender Stereoeffekt entsteht.

Als Rot-Grün-Brille kennen viele das `Anaglyphenverfahren´. Dabei werden die Bilder für die beiden Augen in unterschiedlichen Farben kodiert und direkt übereinander dargeboten. Filtergläser sorgen dafür, daß jedes Auge nur eines der beiden Bilder sieht. Es macht gar nichts, wenn die Betrachter eine Farbenblindheit aufweisen, weil die Bildtrennung vor dem Auge stattfindet und die Farben und Filter so gewählt sind, daß selbst bei der extremsten Form - Rotblindheit (Protanopie) - noch genügend Helligkeit des roten Bildes übrig bleibt. Das Verfahren funktioniert gut, ist sehr einfach, kann aber keine Farbbilder wiedergeben.

Beim Schielen, auch wenn dies in der Kindheit erfolgreich behandelt wurde, und Amblyopie - eine erworbene, einseitige Sehschwäche [#lit7 [7]] - liegt im allgemeinen eine nicht korrigierbare Blindheit für das disparitäts-basierte Stereosehen vor (Stereoblindheit); die Bewegungsparallaxe hingegen vermittelt auch den davon Betroffenen einen recht ausgeprägten Tiefeneindruck. Längeres Betrachten von Stereobildern kann aber zu diffusen Kopf- oder Augenschmerzen führen. Die einfachste Abhilfe ist: Aufhören.

Die wahrscheinliche Ursache für dieses Problem ist die längere Entkopplung von Akkommodation und Vergenz - normalerweise geht die Akkommodation automatisch mit der Entfernung mit -, sowie eine stark abweichende Augenvergenzstellung von der, die der vorgetäuschten Entfernung entspricht. Der Effekt läßt sich minimieren, wenn man auf folgendes achtet: Die Akkommodation (die Entfernungseinstellung der Augenoptik) und die Winkelstellung der Augen zueinander sollte in der virtuellen Situation dieselbe sein, als wenn man wirklich auf eine reales Objekt in der virtuellen Entfernung blickte. Es kommt dabei nicht auf Bogenminuten an, aber einige Verfahren der Bildtrennung weichen stark davon ab, wie zum Beispiel das `Magische Auge´, Überkreuzschielen oder die Monitordarbietung mit seitlichem Versatz ohne Spiegel- oder Prismenkorrektur.

In seltenen Fällen können bei Epileptikern Anfälle durch Lichtreize auftreten; die sogenannte `Photosensibilität´ wird durch Flackern mit einer Frequenz um 10 Hz ausgelöst. Die Bildtrennung für Stereodarbietung mit Multiplexverfahren liegt im allgemeinen aber deutlich oberhalb dieser Frequenz und ist daher unbedenklich, solange der Bildinhalt selbst nicht bei 10 Hz flackert [#lit4 [4]]. Wenn auch nach derzeitigem Kenntnisstand keine bedenklichen Nebenwirkungen zu erwarten sind, so dürften bei breitem Einsatz von Stereodisplays sicher gewisse Störungen aufkommen: Exzessiv einseitige Tätigkeiten sind immer physiologisch ungünstig.

Beachtet man diese Randbedingungen, dann steht einem Genuß stereoskopischer Bilder, professionellen 3D-Anwendungen oder dem gelegentlichen Spiel zur Entspannung nichts im Weg. Welche Projektionsmechanismen derzeit existieren und inwieweit hierzulande erhältliche LC-Shutterbrillen taugen, zeigen die Artikel auf den Seiten 164 und 172 in c't 7/99. (ea)

Weitere Arbeiten rund ums Auge präsentiert der Autor unter www.ukl.uni-freiburg.de/aug/bach/

[1] Djajadinigrat, T.; Gribnau, M.; Desktop VR using QuickDraw 3D, Part I & II, MacTech, Jahrgang 14, Heft 7, S. 32 und 8, S. 26, siehe auch http://www.io.tudelft.nl/research/IDEATE/drivers/

[2] Bömer, T.; Dölp, R.; Kommerell, G.; Die psychometrische Funktion des querdisparaten Tiefensehens bei Normalpersonen, Der Ophthalmologe 92, S. 120 (1995)

[3] Lipton, L.; StereoGraphics Handbook, http://www.stereographics.com/html/chapter_1.html

[4] Binnie, C. D.; Harding, G. F. A.; Richens, A.; Wilkens, A.; Video games and epileptic seizures - a consensus statement (on behalf of the Video Game Epilepsy Consensus Group), Seizure, 3, 245-246, 1994

[5] Goersch, H.; Handbuch für Augenoptik, Carl Zeiss, Oberkochen, 1993

[6] Bach, M.; Computerbasierte Sehschärfemessung, http://www.ukl.uni-freiburg.de/aug/bach/fat/

[7] Deutsche Ophtalmologische Gesellschaft, Schielen, http://www.dog.org/patient.html

[8] Poggio, G. F.; Fischer, B.; Binocular Interaction and Depth Sensitivity in Striate and Prestriate Cortex of Behaving Rhesus Monkey, Journal of Neurophysiology, 1997, Jahrgang 40, Seite 1392

[9] Rogers, S.; Rogers, B. J.; Visual and nonvisual information disambiguate surfaces specified by motion parallax, Perception & Psychophysics, 1992, 52:446

[#anfang Seitenanfang]


Akkommodation: Optische Anpassung des Auges an verschiedene Entfernungen. Dabei wird mittels Muskeln die Form der Augenlinse, und damit ihre Brechkraft, zum Scharfstellen verändert. Die Akkommodation entspricht der Entfernungseinstellung bei der Kamera.

Amblyopie: Sehschwäche eines organisch sonst gesunden Auges. Ohne Behandlung entsteht bei 90% aller schielenden Kinder eine Amblyopie. Ursache ist eine `Verdrahtungsänderung´ im Sehzentrum: Fasern, die von einem unterdrückten oder unscharf abbildenden Auge kommen, werden `abgehängt´. Nach der `plastischen Phase´ (die ersten Lebensjahre) kann die Nervenfaserverschaltung im primären Sehzentrum nicht mehr verändert werden.

Disparität, auch retinale Disparität: Objekte, deren Position im Raum weiter oder näher als die Fixationsentfernung ist, werden auf `disparaten´ (seitlich verschobenen) Netzhautstellen abgebildet.

Fovea: die Netzhautgrube, die Stelle des schärfsten Sehens im Auge.

Fusion: ist der Vorgang, der zum binokularen (beidäugigen) Einfachsehen führt. Die motorische Fusion erfolgt über Vergenzbewegungen der Augen; die sensorische Fusion geschieht über neuronale Prozesse, die auch bei Netzhautbildern mit kleiner Disparität zum Einfachsehen führen, wobei die Disparität als Entfernungsinformation ausgewertet wird.

Korrespondenz: Netzhautpunkte, die im fusionierten Binokularsehen das gleiche Objekt in Fixationsentfernung im Sehfeld abbilden, heißen korrespondierende Netzhautstellen. Stellt man sich die Netzhäute beider Augen so übereinanderliegend vor, daß sich die beiden Foveae decken, dann liegen korrespondierende Netzhautstellen genau übereinander.

Stereosehen: Tiefensehen oder räumliches Sehen, das auf der Auswertung der Disparität beruht.

Strabismus: Schielen; beständige oder ab und zu auftretende Fehlstellung der Augen.

Vergenz: Gegensinnige Bewegung der Augen, um ein Sehobjekt auf korrespondierenden Netzhautstellen abzubilden. Konvergenz: Augenbewegung zueinander hin zum Nahsehen, extrem beim einwärtigen Schielen; Divergenz: Augenbewegung voneinander weg zum Sehen in die Ferne, extrem bei paralleler Ausrichtung der Augen (unendliche Entfernung des Motivs).

Anzeige
Anzeige