Ergebnisse

   

 3D Consistent Gaussian Splatting GANs for High Resolution Human Head Synthesis 

Aktuelle 3D GANs für menschliche Köpfe nutzen einen Trick, bei dem der komplette 3D Kopf neu synthetisiert werden muss, sobald sich der Ansichtswinkel verändert. Dadurch ist zwar die Qualität der einzelnen Ansichten hoch, jedoch entstehen Inkonsistenzen beim Rendern und es führt dazu, dass solche 3D Modelle nicht in VR-Umgebungen verwendet werden können. In diesem Paper stellen wir eine neue 3D GAN Architektur und ein verändertes 3D GAN Training vor, das in der Lage ist, konsistente 3D Köpfe in hoher Qualität und hoher Auflösung zu erzeugen. 
 

Wichtige Publikation

Barthel, F., Morgenstern, W., Hinzer, P., Hilsmann, A., & Eisert, P. (2025). CGS-GAN: 3D Consistent Gaussian Splatting GANs for High Resolution Human Head Synthesis (No. arXiv:2505.17590). arXiv. Quelle  fraunhoferhhi.github.io


EEG-decodability of facial expressions and their stereoscopic depth cues in immersive virtual reality

Mithilfe von immersiver Virtual Reality, EEG und Eye-Tracking konnten wir zeigen, dass Gesichtsausdrücke unabhängig von binokularen Tiefenreizen zuverlässig aus neuronalen Signalen dekodiert werden können. Während stereoskopische Tiefe eine eigene, auslesbare EEG-Signatur erzeugte, blieben die Repräsentationen der Gesichtsausdrücke in Bedingungen mit und ohne Tiefenreizen vergleichbar, was auf separate neuronal Verarbeitungsprozesse für Gesichtsausdrücke und die damit assoziierten Tiefenreize hinweist.

Wichtige Publikation

Klotzsche, F., Nasim, A., Hofmann, S. M., Villringer, A., Nikulin, V., Sommer, W., & Gaebler, M. (2025). EEG-decodability of facial expressions and their stereoscopic depth cues in immersive virtual reality. bioRxiv, 2025-08.  Quelle


Neurokognitiv-geleitete Modellierung virtueller Menschen für verbesserten Realismus in immersiven Medien

Um zu untersuchen, wie sich die menschliche Wahrnehmung zwischen echten und KI-generierten Gesichtern unterscheidet, entwickelten wir ein EEG-Experiment zur Messung neurophysiologischer Reaktionen auf synthetische Bilder, die von Generative Adversarial Networks erstellt wurden. Um besser zu verstehen, was was virtuelle Gesichter für menschliche Beobachter realistisch erscheinen lässt , beabsichtigen wir die erfassten Gehirnsignale mit standardisierten visuellen Qualitätsmetriken wie der Fréchet Inception Distance (FID) zu vergleichen. Dieses experimentelle Framework, das beim Retreat der neurologischen Abteilung präsentiert wurde, zielt darauf ab, neurophysiologisches Feedback in Deepfake-Erkennungs- und Generierungssysteme zu integrieren und dadurch menschenorientiertere Ansätze zu schaffen, die die tatsächliche menschliche Wahrnehmung von Realismus in immersiven Medien besser widerspiegeln.

Poster: dEEG-fake: Experimental Design Neurocognitively-guided modelling of virtual humans for enhanced realism in immersive media
Aileen Brama, Birgit Nierula, Florian Barthel, Arian Beckmann, Tilmann Stephani, Yonghao Chen, Anna Hilsmann, Vadim Nikulin, Michael Gaebler, Felix Klotzsche, Peter Eisert, Arno Villringer, Thomas Wiegand, Sebastian Bosse mehr

Human-aligned deep and sparse encoding models of dynamic 3D face similarity perception

Um den Einfluss von Raum und Zeit auf die Bewertung der Ähnlichkeit von Gesichtern zu testen, führten wir ein großes Online-Experiment in einer statischen 2D- und einer dynamischen 3D-Bedingung durch. Wir trainierten Computermodelle, um die menschlichen Bewertungen von Ähnlichkeit zu kodieren und um latente Repräsentationen zu untersuchen, die ihren Vorhersagen zugrunde liegen. Wir entdeckten eine konsistente Verarbeitung der Gesichtsähnlichkeit zwischen 2D und 3D. Unsere Kodierungsmodelle zeigten jedoch auch subtile Unterschiede auf. Unsere öffentlich zugänglichen Daten und Modelle bilden die Grundlage für das Verständnis unserer Fähigkeit, Gesichter in einer dynamisch verändernden realen Welt zu erkennen und zu identifizieren.

Wichtige Publikation

Hofmann, S. M., Ciston, A., Koushik, A., Klotzsche, F., Hebart, M. N., Müller, K.-R., Villringer, A., Scherf, N., Hilsmann, A., Nikulin, V. V., & Gaebler, M. (2024). Human-aligned deep and sparse encoding models of dynamic 3D face similarity perception. PsyArXiv. Quelle


Real or fake? Decoding realness levels of stylized face images with EEG

Wir haben einen EEG-Datensatz verwendet, bei dem den Teilnehmer*innen Bilder von menschlichen Gesichtern mit unterschiedlichen Stilisierungsgraden präsentiert wurden.  Wir fanden eine nicht-lineare Beziehung zwischen den Amplituden der neuronalen Reaktionen und dem Stilisierungsgrad. Darüber hinaus gelang es uns, den Grad der Realitätsnähe aus den EEG-Daten der einzelnen Trials zu entschlüsseln. Diese Studie bietet eine Grundlage für zukünftige Forschung und neuronales Benchmarking für die Erkennung des Realitätsgrades von Gesichtern in Bezug auf drei Aspekte: SSVEP-basierte neuronale Marker, effiziente Klassifizierungsmethoden und Low-Level-Stimulus-Störfaktoren.

Wichtige Publikation

Chen, Y., Stephani, T., Bagdasarian, M. T., Hilsman, A., Eisert, P. , Villringer, A., Bosse, S., Gaebler, M., Nikulin, V. V. (2023). Real or fake? Decoding realness levels of stylized face images with EEG. Research Square. Quelle


Fooling State-of-the-Art Deepfake Detection with High-Quality Deepfakes

Diese Arbeit unterstreicht den Bedarf an robusten Deepfake-Detektoren angesichts zunehmender Sicherheits- und Datenschutzbedenken. Wir präsentieren einen neuartige Autoencoder und ein Face-Blending-Verfahren vor, um qualitativ hochwertige Deepfakes zu generieren. Diese verwenden wir, um zu demonstrieren, dass ein State-of-the-Art-Deepfake-Detektor nicht bezüglich aufwändiger Deepfake-in-the-Wild generalisiert ist. Die Ergebnisse zeigen, wie wichtig es ist, hochwertige Fälschungen in die Trainingsdatensätze von Deepfake-Detektoren aufzunehmen, um die Generalisierung und Erkennung von Manipulationen in realen Szenarien zu verbessern.

Wichtige Publikation

Beckmann, A., Hilsmann, A., Eisert, P. (2023). Fooling State-of-the-Art Deepfake Detection with High-Quality Deepfakes. arXiv. Quelle


Decoding subjective emotional arousal from EEG during an immersive virtual reality experience

Wir konnten subjektives emotionales Arousal während einer immersiven VR-Erfahrung mit virtuellen Achterbahnen aus der EEG-abgeleiteten parieto-okzipitalen Alpha-Power berechnen (Hofmann, Klotzsche, Mariola et al., 2021).

Wichtige Publikation

Hofmann, S. M., Klotzsche, F., Mariola, A., Nikulin, V., Villringer, A., & Gaebler, M. (2021). Decoding subjective emotional arousal from EEG during an immersive virtual reality experience. eLife. Quelle press release | eLife digest | twitter thread

Zur Redakteursansicht