Immersive Media Lab

Auditory Augmented Reality in Production (AARiP)

Laufzeit: 1.1.2019 - 31.10.2019

Im Use Case Auditory Augmented Reality in Production (AARiP) wird der in vielen Fertigungsstätten vorgeschriebene Gehörschutz zu einer akustischen Informationsschnittstelle und zum Assistenzsystem weiterentwickelt. (Data) Storytelling versteht sich hier als die situationsspezifische Aufbereitung und Darstellung von Geräuschen und Daten mit hohem Informationsgehalt unter Berücksichtigung des oftmals stark akustisch geprägten Working Knowledge von FacharbeiterInnen. Diese werden dabei nicht durch das Tragen eines zusätzlichen Geräts belastet, sondern erhalten durch die technologische Aufwertung ihres Gehörschutzes mittels auditivem AVR einen informativen Mehrwert auf drei Ebenen.  

Akustisch dargestellt werden in (Quasi-)Echtzeit: (1) aufbereitete Maschinen- und Umgebungsgeräusche (prozess-relevante Abweichungen vom Normalzustand) (2) zur Zustandsüberwachung aufbereitete produktionstechnisch relevante maschinen- und produktionsbezogene Daten und Kennzahlen (Bestand, Reichweite, Rüsten, usw.) (3) verbale (drahtlose) Kommunikation.  

Im Use Case Phase werden in zwei Produktionsumgebungen Maschinen und Prozesse identifiziert, deren Schallemissionen sich für Aufbereitungen auf Signalverarbeitungsebene und Datenanalyse eignen und deren Bedienung sich für die Unterstützung durch ein zusätzliches akustisches Assistenzsystem anbieten. Für eine prototypische Laborentwicklung werden akustische Aufnahmen von den Maschinen(prozessen) während der Produktion aufgenommen und arbeitsstationsübergreifende exemplarische Daten erhoben. Die Aufnahmen und Datensätze werden anschließend analysiert und aufbereitet. Auf dieser Datenbasis werden akustische Szenarien generiert, die den FacharbeiterInnen in der Produktion aufbereitete Informationen zur Kontrolle und Steuerung der Anlagen liefern. Die Umsetzung einer Pilotstudie zur Evaluierung wird mit hochwertigen Kopfhörern durchgeführt, welche um Motion Tracking Sensoren erweitert wurden.

Ziele:

  • Erfassung prozess-spezifischer akustischer Normalzustände von Maschinen und Prozessen in der Produktion und deren spezifischer Abweichungen (Audioaufnahmen) 
  • Erfassung/Übernahme produktions- und prozessrelevanter Daten und Kennzahlen 
  • Aufbereitung der Audioaufnahmen und Kennzahlen, positionsbezogene Darstellung (MotionTracking) in einem Auditory Display 
  • Prototypische Umsetzung und Evaluation in einer Laborsituation zur Identifikation bedienungsrelevanter Prozessinformationen 

Methoden

  • ExpertInnen-Interviews bzgl. Auswahl von akustischen Signalen zur Steuerung und Zustandsüberwachung, physikalische Eignung, z.B. Anbringung von Körperschallwandlern 
  • mehrkanalige Audioaufnahmen mit Körperschallwandlern und A-Format-/ HOA-Mikrophonen
  • Transfer von maschinen- und prozessrelevanten Daten, auch prozessübergreifend, z.B. Kennzahlen 
  • auditive und algorithmische (computergestützte) Audioanalyse und Datenanalyse 
  • Modellbildung, Umsetzung, Implementierung Nutzerstudie 

Use Case Leiter

  • FH-Dozent
  • Internationaler Koordinator
  • Department Medien und Digitale Technologien
T: +43/676/847 228 655

Team

  • Junior Researcher
    Forschungsgruppe Media Creation
    Institut für Creative\Media/Technologies
  • Department Medien und Digitale Technologien
  • Junior Researcher
    Forschungsgruppe Digital Technologies
    Institut für Creative\Media/Technologies
  • Department Medien und Digitale Technologien
T: +43/2742/313 228 618
  • Research Assistant
    Forschungsgruppe Media Creation
    Institut für Creative\Media/Technologies
  • Department Medien und Digitale Technologien
  • Studentischer Assistent