Die Idee für dieses Projekt entstand aus einer persönlichen Faszination für Bildautomaten, jene Kabinen, die wie von Geisterhand standardisierte Porträts erzeugen, sowie aus einem kritischen Interesse daran, wie technische Bildpraktiken Macht ausüben. Das Ziel war es, am Beispiel des Fotoautomaten die ästhetischen und strukturellen Parallelen zur heutigen biometrischen Gesichtserkennung zu analysieren und dabei die bildpolitischen Implikationen automatisierter Sichtbarkeit offenzulegen.
Daraus ergaben sich für mich folgende Fragestellungen: Welche bildpolitischen, strukturellen und ästhetischen Gemeinsamkeiten bestehen zwischen dem Fotoautomat und der biometrischen Gesichtserkennung? Wie strukturieren beide Systeme Sichtbarkeit und Unsichtbarkeit?
Das Projekt besteht aus einer Bildserie von eigenen Bildaufnahmen aus analogen Fotoautomaten sowie einem iPhone-Facial-Recognition-System, ergänzt durch einen theoretischen Essay. Der Fotoautomat wird als historisch frühe Form automatisierter Bildproduktion betrachtet, die Sichtbarkeit normiert und zugleich kreative Aneignung zulässt. Demgegenüber steht das Eigenface-Modell, das im Kontext algorithmischer Gesichtserkennung das Gesicht mathematisch abstrahiert und lesbar macht für Maschinen, aber nicht für Menschen (Lee-Morrison 2019: 15–17; 66).
Der Vergleich zeigt, dass beide Systeme, ob mechanisch oder algorithmisch durch Standardisierung und Automatisierung Sichtbarkeit regulieren. Sie bestimmen nicht nur, wer sichtbar ist, sondern auch wie. Die Kamera im Fotoautomaten ersetzt den fotografischen Blick durch einen technischen Ablauf, während der Algorithmus in der Gesichtserkennung das Gesicht entindividualisiert und als Datenpunkt normiert (Regener 2012: 198–199; Winkler 2014: 6). Sichtbarkeit wird dabei zum Ausdruck eines machtvollen Bildregimes, das nicht neutral, sondern strukturell kontrollierend wirkt (Foucault 1977: 259–260).
Aus den gewonnenen Erkenntnissen ergeben sich für mich folgende Fragen, die einen Ausblick auf weiterführende Überlegungen geben: Welche gesellschaftlichen Auswirkungen hat die zunehmende Normalisierung automatisierter Gesichtserkennung im Alltag? Wie verändert sich unser Verhältnis zum eigenen Abbild, wenn das Gesicht primär als Datenquelle fungiert?
Literaturbasis:
Foucault, Michel (1977): Überwachen und Strafen: Die Geburt des Gefängnisses. Frankfurt a.M.: Suhrkamp. (Mit Fokus auf: S. 251-294: “Der Panoptikum”).
Lee-Morrision, Lila (2019): Portraits of automated facial recognition. On machinic ways of seeing the face. Bielefeld: transcript Verlag. (Mit Fokus auf: S. 15-47: “Introduction” und S. 55-84: “Eigenface”).
Regener, Susanne (2012): “Blickmaschine Fotoautomat: Staatliche, künstlerische und Laien-Strategien.” In: Abel, Thomas, Martin R. Deppner (Hg.): Undisziplinierte Bilder. Fotografie als dialogische Struktur, S. 197–218. Bielefeld: transcript Verlag.
Winkler, Hartmut (14.10.2014): Black Box und Blackboxing – Zur Einführung. [Vortrag] Universität Paderborn: Graduiertenkolleg «Automatismen». https://homepages.uni-paderborn.de/winkler/Winkler--Black-Box-und-Blackboxing.pdf. (Zuletzt abgerufen: 01.09.2025).
Aufgrund des Persönlichkeitsschutzes und Wunsch der Autorin werden die Bilder aus diesem Projekt nicht veröffentlicht.
Wir danken für Ihr Verständnis.
© Fiona Huber
Quick Links
Social Media