Direkt zum Inhalt


Aktuelles: Wie klingt virtuelle Realit?t?

UR-Psychologen untersuchen, wie Raumklang das Erleben in virtueller Realit?t ver?ndert

13. April 2023, von Bastian Schmidt

  • Humanwissenschaften
  • Forschung

Im Rahmen des interdisziplin?ren Schwerpunktprogrammes (SPP) ?Audictive der Deutschen Forschungsgemeinschaft (DFG) wird das H?ren in virtueller Realit?t erforscht. Auch an der Universit?t Regensburg konnte eine Kooperation von Psycholog*innen des Lehrstuhls für Klinische Psychologie und Psychotherapie mit Akustikern der Universit?t und der Jade Hochschule in Oldenburg starten. In diesem Projekt wird untersucht, wie modernste Verfahren zur Simulierung von Raumklang genutzt werden k?nnen, um hoch-realistische virtuelle Szenarien zu erstellen (zum Beispiel einen virtuellen Sprachkurs in einem Seminarraum).

Dabei sollen sich Personen in virtueller Realit?t so fühlen, als seien sie in einem echten Seminarraum und umgeben von anwesenden Teilnehmenden. Dafür ben?tigt es nicht nur ein überzeugendes visuelles Modell des Raumes, sondern auch eine realistisch klingende akustische Umgebung. Hier kommen die Methoden der Akustiker zum Einsatz, die mittels Audiorendering einen H?reindruck erzeugen, bei dem man m?glichst nicht unterscheiden kann, ob die Schallquelle im Raum echt oder simuliert ist. 

Um einen solchen H?reindruck zu erzeugen, müssen individuelle anatomische Unterschiede berücksichtigt werden. So haben etwa die Beschaffenheit von Kopf, Schulter und vor allem der Ohrmuschel einen Einfluss darauf, wie Ger?usche wahrgenommen werden. Um diesen Einfluss zu charakterisieren, muss die sogenannte individuelle ?Head-Related-Transfer-Function(HRTF) berechnet werden. Auch moderne Spielekonsolen (z.B. Playstation 5) setzen auf HRTFs um Klang und Spielerlebnis zu verbessern. In den Laboren der Psychologie in Regensburg konnte nun ein Messger?t in Betrieb gehen, welches die Messung individueller HRTFs erlaubt.

So konnte die Grundlage für eine hervorragende Simulation der Akustik in virtuellen Umgebungen an der UR gelegt werden. Nun beginnen die Untersuchungen in virtueller Realit?t.


Nach aktuell geplanten grundlegenden Studien zum Einfluss der H?rsimulation auf das Erleben, Aufmerksamkeitsprozesse und kognitive Funktionen in virtueller Realit?t soll sp?ter die Nutzbarmachung der Erkenntnisse für die klinische Psychologie erfolgen. So soll der Einfluss von akustischen Prozessen auf das Erleben von sozialem Stress und sozialer Angst in virtueller Realit?t untersucht werden. Die Erkenntnisse k?nnen wiederum genutzt werden, um bspw. die Therapie von sozialen Angstst?rungen zu optimieren. Eine M?glichkeit der Behandlung ist die virtuelle Expositionstherapie, bei der sich Patient*innen den eigenen ?ngsten stellen und einen Vortrag vor virtuellen Agent*innen halten. Die Erfolgsquoten von (virtuellen) Expositionstherapien sind sehr hoch und sie sind das Mittel der Wahl bei Angstst?rungen.

Für die Durchführung der Studie suchen die Forschenden immer wieder Interessierte, die gerne an Experimenten in der Virtuellen Realit?t teilnehmen m?chten. Der zeitliche Aufwand wird entsch?digt. Bei Interesse senden Sie eine Mail an researcher1.rosskopf@psychologie.uni-regensburg.de (?ffnet Ihr E-Mail-Programm).


Weiter Infos finden Sie unter Studienportal - Universit?t Regensburg (uni-regensburg.de) (externer Link, ?ffnet neues Fenster) www.uni-regensburg.de/humanwissenschaften/psychologie-muehlberger/studienportal/index.html (externer Link, ?ffnet neues Fenster)

Foto: Sarah Ro?kopf
Messaufbau für die individuelle HRTF: Versuchspersonen nehmen in der Mitte des Bogens Platz und werden von 24 verschiedenen Lautsprechern in allen h?rrelevanten Frequenzen beschallt, w?hrend der Bogen sich um die Personen dreht.
Foto (li) Sarah Ro?kopf, Screenshot (re.) Leon Kroczek
Virtuelles Seminarszenario: Es werden r?umliches H?ren und Aufmerksamkeitsprozesse in virtueller Realit?t untersucht.

Kontakt aufnehmen

Sarah Ro?kopf, M.Sc.

Lehrstuhl für Klinische Psychologie und Psychotherapie
Universit?t Regensburg
Tel.: + 49 (0)941/943-6042
E-Mail: sarah.rosskopf@ur.de

nach oben