SAiEX - Safe Artificial Intelligence with integrated explainable integrity level

Erforschung von Methoden, die Entscheidungen von künstlicher Intelligenz besser nachvollziehbar machen

Hintergrund

In den letzten Jahren hat Deep Learning zu revolutionären Durchbrüchen in den Bereichen Computer Vision, Mustererkennung und Machine Learning geführt. Die komplexe Struktur der dabei verwendeten neuronalen Netze mit ihren unzähligen autonom erlernten Parametern (im Falle typischer Bildanalysenetze im zweistelligen Millionenbereich), erschweren es die Lernprozesse im Detail nachzuvollziehen. Je komplexer ein Modell ist, desto genauer kann es zwar klassifizieren, aber desto schwieriger wird es auch zu durchschauen was konkret gelernt wurde und wie es zu einer bestimmten Entscheidung kommt. Transparenz in der Entscheidungsfindung ist jedoch besonders wichtig für sicherheitskritische Anwendungen wie das autonome Fahren.

Projektinhalt und Ziele

Das Ziel dieses Projektes ist die Entscheidungsfindung von Objekterkennungsmethoden, die für autonome Fahrerassistenzsysteme eingesetzt werden, transparent und nachvollziehbar zu machen. Dazu überprüfen wir verschiedenen Methoden aus dem Bereich der Explainable AI (XAI) auf ihre Eignung, adaptieren sie und integrieren sie erstmals in derzeit gebräuchliche Objekterkennungsmethoden. Die Erkenntnisse des Projekts tragen dazu bei vertrauenswürdige und verlässlichere Assistenzsysteme für autonomes Fahren zu entwickeln.

Methoden und Ergebnisse

In dem Projekt konzentrieren wir uns auf Erklärbarkeitsmethoden für die Lernvorgänge künstlicher Intelligenz und untersuchen wie diese am besten in komplexe Objektdetektoren integriert werden können. Mit Hilfe der Erklärbarkeitsmethoden leiten wir Maße ab, die nicht nur eine qualitative Überprüfung und Visualisierung der Objekterkennungen ermöglichen, sondern auch dabei helfen, Fehlklassifikationen zur Laufzeit zu festzustellen. Dies erleichtert die Identifikation von Funktionsfehlern und die Entwicklung von Maßnahmen, um diese zu vermeiden. Beides führt zu einer zuverlässigeren Erkennung von Objekten im Straßenverkehr.

Sie wollen mehr wissen? Fragen Sie nach!

Forschungsgruppenleiter
Forschungsgruppe Media Computing
Institut für Creative\Media/Technologies
Department Medien und Digitale Technologien
Arbeitsplatz: A - Campus-Platz 1
M: +43/676/847 228 652
PartnerInnen
  • Eyyes GmbH
Finanzierung
FFG Basisprogramm
Laufzeit
01.08.2019 – 30.11.2021
Projektstatus
abgeschlossen
Beteiligte Institute, Gruppen und Zentren
Forschungsgruppe Media Computing
Institut für Creative\Media/Technologies