TrustAI - Eine Plattform für interaktive und vertrauenswürdige künstliche Intelligenz

Erklärbare und vertrauenswürdige AI-Lösungen in einer einfach zu bedienenden Plattform.

Motivation

Künstliche Intelligenz (KI/AI) basierend auf maschinellem Lernen transformiert derzeit praktisch alle Sektoren in Industrie und Wirtschaft. Laut Gartner, Inc. betrug der weltweite Umsatz mit KI  62,5 Mrd. Dollar im Jahr 2022, was einem Zuwachs von 21,3 % gegenüber 2021 entspricht. Speziell KMUs haben jedoch das Problem, dass Sie existierende AI-Lösungen nur unzureichend einsetzen und so den mit AI generierbaren Mehrwert nicht effektiv nutzen können.

Herausforderungen

Die derzeit verfügbaren AI-Systeme, sind zwar in der Lage große Datenmengen zu verarbeiten, agieren jedoch meist vollautomatisch und können oft nur vordefinierte Aufgaben erledigen (z.B. Sprach- oder Objekterkennung). Kleinere und mittelständische Unternehmen (KMUs), die häufig Nischenanwendungen bereitstellen, brauchen jedoch AI-Lösungen, die speziell auf ihre Probleme zugeschnitten sind. Zudem müssen Unternehmen, die einem starken Wettbewerb ausgesetzt sind, ihre Strategien laufend anpassen. Die AI-Lösungen der nächsten Generation sollten daher dynamischer werden und solche Strategiewechsel mitmachen können. Ein weiteres Problem der derzeit gebräuchlichen AI-Technologien ist die intransparente Entscheidungsfindung. Die hohe Komplexität existierender AI-Modelle mit Millionen von gelernten Parametern, macht es schwierig, die Entscheidungen der Modelle sowie deren Funktionsweise nachzuvollziehen und zu erklären. Hier braucht es Methoden, die für mehr Transparenz sorgen und über eine bessere Erklärbarkeit zur Vertrauensbildung beitragen. Ein weiterer Faktor, der einem zielgerichtetem Einsatz von AI- Methoden im Wege steht, ist mangelndes Know-how. In den meisten Organisationen fehlt es an der notwendigen technischen Expertise, um AILösungen effizient umzusetzen.

Das vorliegende Projekt stellt sich all den genannten Herausforderungen und hat vor Abhilfe zu schaffen. KMUs einen einfachen Zugang von AI-Services zu ermöglichen ist eines seiner wesentlichsten Ziele.

Ziele

Im Projekt entwickeln wir eine Plattform für interaktiv trainierbare und dynamisch adaptierbare AI-Services, welche sich den hochspezifischen Anforderungen von KMUs laufend anpassen können. Die Services sollen die Entscheidungsfindung von AI-Modelle transparent machen, leicht zugänglich sein und Wege zu individuellen Anwendungen aufzeigen. Für die Realisierung der „TrustAI Plattform“ werden im Projekt folgende konkrete Schritte gesetzt:

  • Anforderungsanalyse mit potentiellen, künftigen Nutzer*innen unserer Plattform, primär KMUs aber auch Kultur- und öffentliche Einrichtungen. Ein Fachbeirat aus Vertreterinnen aus Forschung und Wirtschaft stellen sicher, dass die aktuell wichtigsten Anforderungen berücksichtigt werden.
  • Entwicklung eines neuartigen Lernparadigmas für personalisierte interaktiv trainierbare AI-Lösungen, deren Entscheidungen transparent und nachvollziehbar sind.
  • Entwicklung von Bedienoberflächen für die wechselseitige Kommunikation zwischen Mensch und AI.
  • Design und Entwicklung der TrustAI Service Plattform, die sämtliche entwickelten AI-Kernmodule niederschwellig für KMUs zur Verfügung stellt.
  • Evaluation von Methodik und Plattform anhand von Fallstudien aus den Bereichen Gesundheit, Landwirtschaft und Kultur.
  • Weiterentwicklung der Fallstudien zu Folgeprojekten (mit Unterstützung des Fachbereites)

Auf strategischer Ebene trägt das Projekt zum Ausbau zwei neuer Forschungsschwerpunkte im Center for Artificial Intelligence der FH St. Pölten bei, nämlich Human-Centered AI und Trustworthy AI.

Methodik

Eine Neuheit des Projekts ist die Entwicklung eines erklärungsbasierten interaktiver Lernansatzes. Dieser geht über simple Daten-Annotationen bzw. label-basiertes Feedback (sog. active learning) hinaus. Vielmehr befinden sich in unserem Ansatz Mensch und AI in einem kontinuierlicher Dialog, in dem das Problemverständnis für die gegebene Aufgabe durch wechselseitige Erklärungen schrittweise erarbeitet und vertieft wird. Der Austausch zwischen Mensch und AI ermöglicht es den Trainingsfortschritt des Modells permanent zu überwachen, zu prüfen, ob es korrekt arbeitet und Datenverzerrungen (sog. Bias) zu erkennen. Auf diese Weise entsteht ein transparenter Abstimmungsprozess, der potentielle Störeinflüsse und Fehlinterpretationen des Modells im Lernprozess erkennt, minimiert und in Folge daraus das Vertrauen in die AI stärkt.

Ergebnis

In dem Projekt wird eine neuartige Methodik entwickelt, um komplexe AI interaktiv und transparent zu trainieren. Dabei werden Methoden aus den Bereichen der interaktiven AI und der erklärbaren AI in neuartiger Weise miteinander verknüpft. Damit möchten wir einen Übergang einleiten von einer reinen (vollautomatischen, intransparenten und starren) „Artificial Intelligence“ zu einer kollaborativ agierenden, adaptiven und vertrauenswürdigen „Assistive Intelligence“. Die neu entwickelten Methoden bilden das Fundament für die TrustAI Service Plattform, welche sämtliche Kernfunktionalitäten über Bedienoberflächen und eine Programmierschnittstelle (API) zur Verfügung stellt.

Die Plattform reduziert die Abhängigkeit von großen Mengen annotierter Trainingsdaten, ermöglicht es, Lösungen auf die spezifischen Probleme von Firmen leichter abzustimmen, bietet erklärbare und damit vertrauenswürdige AI-Modelle und erfordert kein technisches Vorwissen, da die Bedienoberflächen nach gängigen HCI-Kriterien einfach und allgemein verständlich gehalten werden.

 

Firmenkooperationen

Anfragen von Firmen zur Nutzung unserer Plattform sowie unserer Lernmethodik nehmen wir gerne entgegen und freuen uns darauf gemeinsam Lösungen für spezifische und individuelle Problemstellungen auszuarbeiten.

Sie wollen mehr wissen? Fragen Sie nach!

Forschungsgruppenleiter
Forschungsgruppe Media Computing
Institut für Creative\Media/Technologies
Department Medien und Digitale Technologien
Arbeitsplatz: A - Campus-Platz 1
M: +43/676/847 228 652
Beteiligte Institute, Gruppen und Zentren
Center for Artificial Intelligence
Forschungsgruppe Media Computing
Institut für Creative\Media/Technologies
Institut für IT Sicherheitsforschung