
Ambient Occlusion erklärt: SSAO vs HBAO vs GTAO (2026)
Überblick
Einführung
Ambient Occlusion ist eines jener Rendering-Konzepte, das seit über fünfzehn Jahren auf dem Bildschirm zu sehen ist und das fast niemand sauber definieren kann. Öffnet man ein Spieleinstellungsmenü, findet man dort häufig einen „Ambient Occlusion"-Schalter mit Optionen wie SSAO, HBAO oder GTAO. Öffnet man Blender, Cinema 4D oder 3ds Max, findet man einen AO-Pass in den Render-Einstellungen. Die Screenshots sehen alle etwas unterschiedlich aus, der Leistungsabfall variiert um eine Größenordnung, und die Dokumentation erklärt den Kompromiss selten.
Bei Super Renders Farm betreiben wir seit 2010 verteilte CPU- und GPU-Rendering-Jobs, und Ambient Occlusion taucht in etwa der Hälfte der Support-Tickets auf, die wir für Architekturvisualisierung und Produktvisualisierung erhalten. Das Muster ist konsistent: Künstler verlassen sich entweder zu sehr auf AO als Ersatz für Global Illumination, oder sie schalten es ab und erhalten schwebende Geometrie, die unverankert am Boden aussieht. Beide Fehler lassen sich beheben, sobald man versteht, was AO tatsächlich berechnet.
Dieser Leitfaden erklärt Ambient Occlusion von Grund auf, geht die drei Echtzeit-Algorithmen durch, die die meisten Engines 2026 mitliefern (SSAO, HBAO, GTAO), und untersucht, wann AO-Baking schnell genug ist, um auf einer einzelnen Workstation zu verbleiben — und wann es auf eine Renderfarm gehört. Lesen Sie das FAQ am Ende für schnelle Antworten auf die am häufigsten gestellten Fragen.
Was Ambient Occlusion wirklich ist
Ambient Occlusion ist eine Shading-Technik, die annähert, wie viel Umgebungslicht jeden Punkt einer Oberfläche erreicht, indem sie prüft, wie sehr dieser Punkt durch nahe Geometrie „verdeckt" wird. Eine Ecke, in der eine Wand auf einen Boden trifft, empfängt weniger Umgebungslicht als die offene Mitte desselben Bodens, weil die Ecke mehr Geometrie hat, die eingehende Strahlen aus der oberen Hemisphäre blockiert. AO verdunkelt die Ecke. Das ist der gesamte Effekt.
Der Grund, warum AO allgegenwärtig wurde, ist wirtschaftlicher Natur. Ein vollständiger Global-Illumination-Solve — Licht von jeder Oberfläche abprallen und korrekt integrieren — ist teuer. AO erfasst eine spezifische Komponente von GI (das lokale Selbstschattieren von Umgebungs-/Himmelslicht) sehr günstig, indem es Strahlen nur kurze Distanzen vom schattierenden Punkt abtastet. Bei Offline-Rendering möchte man normalerweise vollständiges GI; AO wird dann entweder deaktiviert oder als subtiler Kontaktschatten-Verstärker eingesetzt. Im Echtzeit-Rendering war AO historisch die einzige praktikable Annäherung an indirektes Schattieren, weshalb jede Spiele-Engine mindestens einen AO-Algorithmus mitliefert.
Einige verbreitete Missverständnisse sind es wert, geklärt zu werden:
- AO ist kein Schatten von einer Lichtquelle. Es dunkelt unabhängig davon ab, wo die Lichter platziert sind, weil es die Verdeckung der gesamten Umgebungs-Hemisphäre darstellt.
- AO ist keine Global Illumination. Echtes GI berücksichtigt indirektes Licht, das Farbe und Helligkeit zwischen Oberflächen überträgt; AO verdunkelt nur. Die Verwendung von AO als Ersatz für GI ist ein häufiger Grund für matschige Archviz-Renders.
- AO ist nicht automatisch physikalisch korrekt. Das Ergebnis hängt vollständig vom Algorithmus und der von Ihnen eingestellten maximalen Strahldistanz ab. Den Radius zu groß wählen und ein sauberes Interieur wird zur schmutzigen Höhle.
Das Blender-Handbuch behandelt den Offline-AO-Node in seiner Dokumentation zum Ambient Occlusion Shader, was eine nützliche Referenz ist, wenn Sie die tatsächliche Mathematik hinter dem Sampling lesen möchten.
SSAO vs HBAO vs GTAO: Drei Algorithmen, ein Effekt
Die drei Algorithmen, die man 2026 in Spiele-Engines antrifft, verfolgen alle das gleiche visuelle Ziel, unterscheiden sich aber in ihrer Abwägung zwischen Geschwindigkeit, Qualität und Richtungsstabilität.
| Algorithmus | Jahr eingeführt | Was er sampelt | Typische Kosten (1080p, RTX-GPU) | Stärken | Schwächen |
|---|---|---|---|---|---|
| SSAO (Screen-Space AO) | 2007 (Crytek, Crysis) | Zufällige Samples im Screen Space um jeden Pixel, nur Tiefenpuffer | ~0,3–0,8 ms | Sehr günstig, in jeder Engine enthalten | Rauschen, Halos um Silhouetten, blickrichtungsabhängiges Flimmern |
| HBAO / HBAO+ (Horizon-Based AO) | 2008 (NVIDIA) | Strahlen im Tiefenpuffer entlang marschieren, um den Horizontwinkel in mehrere Richtungen zu finden | ~0,8–1,5 ms | Glatter als SSAO, weniger Halos, geometriebewusst | Teurer, bleibt Screen Space, kann off-screen Verdeckungen verpassen |
| GTAO (Ground-Truth AO) | 2016 (Activision/Intel) | Integriert den Sichtbarkeitskegel analytisch, abgeleitet zum Abgleich mit Offline-Ray-Traced-AO | ~1,0–2,0 ms | Am nächsten an der Raytracing-Referenz, stabil in Bewegung, kalibrierter Falloff | Etwas teurer als HBAO, erfordert sorgfältige Abstimmung von Radius und Falloff |
NVIDIAs ursprüngliches Image-Space Horizon-Based Ambient Occlusion Paper ist nach wie vor die kanonische Referenz für die horizontbasierte Familie, und Activisions Practical Real-Time Strategies for Accurate Indirect Occlusion (GTAO-Whitepaper) deckt die GTAO-Ableitung ab, die AMD und Intel später übernommen haben.
Ein nützliches mentales Modell: SSAO ist ein schneller Hack mit sichtbaren Artefakten; HBAO ist ein klügerer Hack, der Geometrie kennt; GTAO ist gegen eine Offline-Referenz kalibriert und das, was man möchte, wenn man es sich leisten kann. Auf jeder modernen GPU der letzten drei bis vier Jahre sind alle drei bei 1080p im Wesentlichen kostenlos — die Wahl dreht sich um Qualität und Bewegungsstabilität, nicht um Bildrate.
Eine separate Linie existiert für Ray-Traced AO (RTAO), das die Hardware-Raytracing-Einheiten der GPU nutzt, um tatsächliche Strahlen pro Pixel zu senden. RTAO ist das, was man einschaltet, wenn nach Reflexionen und Schatten noch Raytracing-Budget übrig ist; es ist das Nächste zu „Ground Truth" in Echtzeit, aber es ist noch nicht der Standard in den meisten Engines wegen der Kosten auf Einstiegs-GPUs.
Sollte Ambient Occlusion ein- oder ausgeschaltet sein?
Dies ist eine der häufigsten Suchanfragen zu diesem Thema („Ambient Occlusion ein oder aus"), und die Antwort hängt davon ab, was man tut.
Für Spiele ist AO fast immer es wert, eingeschaltet zu lassen. Der visuelle Gewinn durch geerdte Kontaktschatten unter Möbeln, Vegetation und Charakteren ist erheblich, und auf Hardware der RTX-20-Generation oder neuer liegen die Kosten im einstelligen Millisekundenbereich. Die einzige Situation, in der das Ausschalten hilft, ist bei einer älteren GPU mit einem Hochfrequenzmonitor, wo jede Millisekunde zählt.
Für Echtzeit-Vorschauen in DCC-Software (Eevee, Cinema 4D Viewport, 3ds Max Viewport) ist AO nützlich für Blockierungen und Beleuchtungsentscheidungen, sollte aber nicht für das endgültige Bildurteil herangezogen werden. Viewport-AO ist normalerweise eine minderwertige SSAO-Annäherung. Wir haben Künstler gesehen, die Beleuchtungsentscheidungen auf Basis von Viewport-AO treffen, die im endgültigen Render verschwinden.
Für finales Offline-Rendering (Cycles, V-Ray, Corona, Arnold, Redshift) ist die Antwort differenzierter. Wenn Ihre Szene einen vollständigen GI-Solve verwendet — Cycles-Pfadverfolgung, V-Ray Brute Force oder Light Cache, Coronas Pfad-Tracer, Arnolds GI — dann ist AO bereits implizit in der indirekten Beleuchtung berücksichtigt, und das Hinzufügen eines expliziten AO-Passes macht das Bild normalerweise dunkler als es sein sollte. Wenn Sie in einer stilisierten oder NPR-Pipeline arbeiten, bei der physikalisch genaues GI nicht das Ziel ist, kann ein expliziter AO-Pass nützliche Kontaktverdunkelungen hinzufügen; baken Sie ihn als separates Render-Element, damit Sie den Beitrag im Compositing anpassen können, ohne ihn in die Beauty einzubrennen.
Die kurze Antwort: in Spielen einlassen, bei vollständigem GI als Endbildeffekt ausschalten, und als Pass baken, wenn Sie stilisierte Kontrolle benötigen.
Ambient Occlusion in Spielen vs. Offline-Rendering
Es gibt einen strukturellen Unterschied zwischen AO in Echtzeit-Engines und AO in Offline-Renderern, der explizit gemacht werden sollte, weil er viel Verwirrung erklärt.
Echtzeit-AO arbeitet auf dem Tiefenpuffer. Die Engine hat die Szene bereits rasterisiert, hat Pro-Pixel-Tiefe (und normalerweise Normalen), und der AO-Pass durchläuft benachbarte Pixel im Screen Space, um die Verdeckung zu schätzen. Dies ist schnell, hat aber zwei strukturelle Einschränkungen: Alles außerhalb des Bildschirms trägt nicht zur Verdeckung bei (sodass eine Wand knapp außerhalb des Kamerasichtfeldes die Ecke eines sichtbaren Objekts nicht verdunkelt), und das Sampling-Muster muss sorgfältig abgestimmt werden, um Rauschen und Blickrichtungsflimmern zu vermeiden.
Offline-AO arbeitet auf der tatsächlichen Szenengeometrie. Der Renderer sendet Strahlen von jedem Schattierungspunkt und misst die Verdeckung im echten 3D-Raum. Dies ist pro Sample langsamer, produziert aber stabile, Ground-Truth-Ergebnisse, die beim Kamerabewegen nicht flimmern und off-screen Verdeckende nicht verpassen. Die meisten Produktionsrenderer stellen Offline-AO entweder als Node (Blender Cycles, Arnold) oder als Render-Pass (V-Ray, Corona, Redshift) bereit.
Wenn ein Künstler fragt „Warum sieht mein AO im Viewport anders aus als im finalen Render?", lautet die Antwort fast immer: der Viewport führt Screen-Space-AO aus und das finale Render berechnet es im Weltkoordinatenraum. Es sind verschiedene Algorithmen, die verschiedene Bilder produzieren.
Für einen tieferen Einblick in die GPU-Seite deckt unsere Seite GPU-Cloud-Renderfarm ab, wie wir RTX-Hardware für Echtzeit- und Offline-GPU-Rendering-Workloads konfigurieren.
Warum AO-Baking Produktionen verlangsamt
Die interessantere Leistungsfrage für Produktionsteams ist nicht Echtzeit-AO — das ist 2026 im Wesentlichen kostenlos — sondern Offline-AO-Baking, wo Pipelines tatsächlich verlangsamen.
AO-Baking bedeutet, den AO-Wert für jedes Texel einer UV-Map vorzuberechnen und in einer Textur zu speichern. Es wird häufig in Spiele-Pipelines verwendet (wo die gebakete AO-Map zur Laufzeit gesampelt wird, anstatt AO live zu berechnen) und in einigen Archviz-Workflows für statische Beleuchtung. Die Kosten hängen von drei Dingen ab: Szenenkomplexität, Texturauflösung und Strahlanzahl.
Unten finden Sie eine repräsentative Bake-Zeit-Tabelle aus Jobs, die wir für Kunden auf der Super Renders Farm-Flotte durchgeführt haben. Diese Zahlen sind CPU-Bakes in Blender Cycles auf unserem Standard-CPU-Node (Dual Intel Xeon E5-2699 v4, 44 Kerne, 256 GB RAM); Ihre Zahlen auf einer einzelnen Workstation werden erheblich länger sein.
| Szenentyp | Polygonanzahl | UV-Map-Auflösung | Samples pro Texel | Zeit pro Node | Hinweise |
|---|---|---|---|---|---|
| Hero-Prop, geringe Komplexität | ~50K | 2048² | 256 | 2–3 Min. | Triviales Bake, einzelne Workstation reicht |
| Architekturinterieur, einzelner Raum | ~500K | 4096² | 512 | 25–40 Min. | Grenzwertig — abhängig vom Abgabetermin |
| Vollständiges Archviz-Exterieur mit Vegetation | ~5M | 4096² × 8 Kacheln | 512 | 4–6 Stunden | Schmerzhaft auf einer Workstation, schnell auf einer Farm |
| Spielumgebung, vollständiges Level-Bake | ~10M | 8 × 4096² Atlanten | 1024 | 10–18 Stunden | Blockiert den Künstler einen vollen Tag auf einer Workstation |
| Cinematic Asset Library Bake-Batch | gemischt | gemischt | 512–1024 | 30–80 Stunden gesamt | Sequenziell auf einer Workstation, parallel auf einer Farm |
Die Break-Even-Grenze liegt unserer Erfahrung nach bei etwa 30 Minuten für ein einzelnes Bake. Darunter überwiegen die Kosten für das Verpacken der Szene, das Hochladen und das Herunterladen des Ergebnisses die eingesparte Zeit. Darüber, insbesondere wenn ein Künstler idle auf das Bake-Ergebnis wartet, gewinnt die Verteilung der Arbeit auf viele Maschinen leicht. Kachelbasierte Baker (Blender, V-Ray, Arnold) parallelisieren besonders gut, weil jede Kachel ein unabhängiger Job ist.
Wir sehen dies auf Super Renders Farm am häufigsten während der Asset-Finalisierungsphase einer Produktion: Dutzende von Props benötigen neue AO-Bakes, die Künstler sind blockiert, und eine Renderfarm nimmt die Warteschlange über Nacht auf. Für Preisinformationen sehen Sie unseren Renderfarm-Preisführer, und für Benchmark-Zahlen über die Flotte deckt der Renderfarm-Hardware-Benchmark mit Cinebench 2026 ab, wie unsere CPU-Nodes bei parallelen CPU-Workloads abschneiden.
Ambient Occlusion in den wichtigsten DCCs
Jedes große DCC implementiert AO etwas anders, und der praktische Rat ändert sich je nach Paket.
Blender stellt AO an drei Stellen bereit: den Eevee-Viewport-AO-Schalter (eine schnelle SSAO/HBAO-ähnliche Annäherung), den Cycles-AO-Node (für die Verwendung auf Shader-Ebene, z. B. Schmutzmasken in Materialien) und den Cycles-AO-Render-Pass (ein echter ray-traced AO-Pass, der neben der Beauty ausgegeben wird). Cycles-AO-Baking über das Bake-Panel ist der Workflow, den die meisten Teams verwenden; die Bake-Zeit-Tabelle oben wurde in Cycles gemessen. Für Künstler, die Blender auf einer einzelnen Workstation betreiben, deckt unsere Seite Blender Cloud Renderfarm ab, wie Cycles-AO-Bakes über unsere Flotte skalieren.
Cinema 4D bietet AO sowohl im Standard-/Physical-Renderer als auch in Redshift. In Redshift wird AO typischerweise als Shader-Effekt oder als Compositing-Pass und nicht als Ersatz für GI verwendet. Die Seite Cinema 4D Cloud Renderfarm deckt die Redshift-spezifische Konfiguration ab. Wir sehen die meisten C4D/Redshift-Benutzer AO als Render-Element berechnen und es in After Effects kombinieren, anstatt es in die Beauty einzubrennen.
3ds Max mit V-Ray hat ein dediziertes VRayDirt-Material und ein VRayExtraTex-AO-Render-Element. Der Dirt-Ansatz ist flexibler, weil er Ihnen erlaubt, Falloff, Unschärfe und invertierte Verdeckung (Cavity) pro Material zu steuern; der Render-Element-Ansatz ist schneller einzurichten, aber weniger abstimmbar. Für Corona-Benutzer in 3ds Max ist das Äquivalent die CoronaAO-Map.
Arnold (in Maya, Houdini oder 3ds Max) behandelt AO als ein weiteres Sampling-Problem und stellt es über den aiAmbientOcclusion-Shader und den ambient_occlusion-AOV bereit. Da Arnold ein unidirektionaler Pfad-Tracer mit starkem Importance Sampling ist, konvergieren AO-Bakes schneller als in einigen anderen Renderern bei vergleichbaren Sample-Zahlen.
Der gemeinsame Faden: Behandeln Sie in jedem DCC AO als einen separaten Pass, den Sie compositen, nicht als Ersatz für GI im Beauty-Render. Dies hält den Workflow flexibel und ermöglicht es Ihnen, den AO-Beitrag in der Nachbearbeitung zu ändern, ohne die Szene neu zu rendern.
FAQ
Q: Was ist Ambient Occlusion in einfachen Worten? A: Ambient Occlusion ist eine Shading-Technik, die Bereiche verdunkelt, wo Geometrie Umgebungslicht daran hindert, eine Oberfläche zu erreichen — wie die Ecke, wo eine Wand auf einen Boden trifft. Es approximiert eine spezifische Komponente der Global Illumination günstig, weshalb jede Spiele-Engine und jeder Offline-Renderer eine Implementierung mitliefert.
Q: Sollte Ambient Occlusion in Spielen ein- oder ausgeschaltet sein? A: In fast allen Fällen eingeschaltet. Die visuelle Verbesserung durch Kontaktschatten unter Möbeln, Charakteren und Vegetation ist erheblich, und auf jeder GPU der letzten paar Jahre liegen die Kosten deutlich unter 2 ms pro Frame. Das einzige Mal, wo das Ausschalten hilft, ist bei älterer Hardware, wo man um jede Millisekunde kämpft.
Q: Was ist der Unterschied zwischen SSAO, HBAO und GTAO? A: SSAO ist der ursprüngliche Screen-Space-Algorithmus aus dem Jahr 2007 — schnell, aber rauschig mit sichtbaren Halos. HBAO marschiert Strahlen durch den Tiefenpuffer, um den Horizontwinkel zu finden, und produziert glattere Ergebnisse. GTAO ist der jüngste der drei; er ist kalibriert, um Offline-Ray-Traced-AO zu entsprechen, und ist in Bewegung am stabilsten. Alle drei arbeiten im Screen Space und haben ähnliche Kosten auf modernen GPUs.
Q: Ist Ambient Occlusion dasselbe wie Global Illumination? A: Nein. Global Illumination berücksichtigt indirektes Licht, das Farbe und Helligkeit zwischen Oberflächen überträgt. Ambient Occlusion verdunkelt nur Bereiche basierend auf lokaler Geometrie-Verdeckung, ohne Lichtquellen-Farbe oder -Intensität. Die Verwendung von AO als Ersatz für GI ist ein häufiger Grund dafür, dass Archviz-Renders matschig oder flach aussehen.
Q: Wann benötigt AO-Baking wirklich eine Renderfarm? A: Wenn das Bake pro Asset mehr als etwa dreißig Minuten dauert, wenn Sie viele Assets parallel zu verarbeiten haben, oder wenn der Künstler blockiert wartet auf das Ergebnis. Auf der Super Renders Farm-Flotte sehen wir, dass die meisten Produktionsteams Bakes in der Asset-Finalisierungsphase auf eine Farm verschieben — typischerweise eine Warteschlange von Dutzenden von Props, die sequenziell auf einer Workstation Tage dauern würden, aber über Nacht abgeschlossen werden, wenn sie verteilt werden.
Q: Warum sieht mein Ambient Occlusion im Viewport anders aus als im finalen Render? A: Der Viewport verwendet fast immer eine Screen-Space-Annäherung (eine schnelle SSAO- oder HBAO-Variante), während das finale Offline-Render AO im Weltkoordinatenraum mit tatsächlichen Geometrie-Strahlen berechnet. Es sind verschiedene Algorithmen, die verschiedene Bilder produzieren. Für endgültige Beleuchtungsentscheidungen führen Sie ein Vorschau-Render mit niedrigen Samples durch, anstatt dem Viewport-AO zu vertrauen.
Q: Kann ich Ambient Occlusion als Render-Pass beim Offline-Rendering verwenden? A: Ja, und das ist der empfohlene Workflow, wenn Sie stilisierte Kontrolle benötigen. Alle wichtigen Renderer (Cycles, V-Ray, Corona, Arnold, Redshift) stellen AO als separates Render-Element oder AOV bereit. Geben Sie es neben dem Beauty-Render aus und kombinieren Sie die beiden im Compositing — so können Sie den AO-Beitrag anpassen, ohne die Szene neu zu rendern.
About Alice Harper
Blender and V-Ray specialist. Passionate about optimizing render workflows, sharing tips, and educating the 3D community to achieve photorealistic results faster.


