CERTAIN

Certification for Ethical and Regulatory Transparency in Artificial INtelligence

Vision

Das übergeordnete Vorhaben des Projektes CERTAIN ist es, ein einheitliches Ökosystem für künstliche Intelligenz (KI) zu schaffen. In Einklang mit gängigen Regularien soll es das Vertrauen in die europäische Datenwirtschaft stärken, mehr Transparenz herstellen und Innovationen anstoßen. Für Organisationen soll es dadurch einfacher werden die komplexen Vorschriften im Bereich KI zu verstehen, die Vorteile fortschrittlicher Technologien zu erkennen und für sich zu nutzen. Außerdem fördert ein gemeinsamer Standard die Zusammenarbeit und in der Folge ein nachhaltiges Wachstum in den Bereichen Datenverarbeitung und KI.

Ziele

Das Team in dem Projekt CERTAIN hat sich zum Ziel gesetzt, ein Rahmenwerk zu schaffen, das als Orientierungshilfe für eine verantwortungsvolle Entwicklung von KI-Anwendungen dient. Damit heben wir die Datenverwaltung auf ein Niveau, das den hohen Anforderungen an sie gerecht wird. Ein großes Anliegen ist es uns außerdem die Vorteile von KI-Innovationen für eine breite Zielgruppe klar sichtbar zu machen.

Um unsere Ziele zu erreichen ist es notwendig:

  • Die Rückverfolgbarkeit kritischer Information, die von und für KI-Systeme benutzt wird, sicherzustellen.
  • Richtlinien zu erstellen, mit denen KI-Systeme darauf geprüft werden können, ob sie ethischen Standards und (EU-)Vorschriften entsprechen.
  • Werkzeuge für Datenraumanbieter*innen und Dateninhaber*innen zu entwickeln, mit denen geprüft werden kann, ob EU-Vorschriften eingehalten werden. Daneben sollen die Werkzeuge helfen, den Energieverbrauch zu minimieren.
  • Zertifizierungsverfahren für KI-Systeme auszugestalten.
  • Daten zu sammeln und zu analysieren, um damit die Anwendbarkeit und Effektivität des Rahmenwerks in verschiedenen Sektoren empirisch zu untermauern.
  • verschieden Disziplinen und Interessensgruppen an Bord zu holen und einen offenen Dialog zu fördern, um die Entwicklung europäischer KI-Ökosysteme zum Nutzen aller voranzubringen.

Methoden

Das Projektteam konzentriert sich auf folgende Kernaufgaben:

  • Stakeholder-Dialog: Der intensive Austausch mit verschiedenen Akteur*innen stellt sicher, dass unterschiedlichste Bedürfnisse gehört und erfüllt werden können. Dabei decken wir dabei rechtliche, ethische, technische Themenfelder und Fragen der Zertifizierung ab.
  • Living Labs: In Testumgebungen mit starker Praxisorientierung arbeiten Forscher*innen, Unternehmen und Nutzer*innen zusammen, um neue Ideen, Produkte oder Dienstleistungen zu entwickeln und zu testen. Es entstehen Prototypen und Richtlinien, die in iterative Feedback-schleifen (Entwicklung- Evaluation- Weiterentwicklung- Evaluation etc.) fortwährend optimiert wurden.
  • Validierung: Die entwickelten Werkzeuge, Richtlinien und Zertifizierungsprozesse werden in einem operativen Umfeld getestet. So stellen wir sicher, dass sie sich effektiv unter Alltagsbedingungen anwenden lassen und bewähren.

Ergebnisse und Auswirkungen

Im CERTAIN-Projekt nehmen wir die regulatorische Landschaft zu künstlicher Intelligenz (z. B. EU-KI-Gesetz) in den Fokus. Wir erarbeiten eine umfassende, benutzer*innenfreundliche Lösung, die den öffentlichen Sektor und die Unternehmen dabei unterstützt, die komplexen Vorschriften im Bereich KI besser zu durchschauen und sich darauf einzustellen. Darüber hinaus setzen wir Impulse für Innovationen und stellen ethische KI-Praktiken vor. Das Projekt deckt viele Themenbereiche ab und bindet ein breites Spektrum von Stakeholdern, Partner*innen, Rechtsexpert*innen und KI-Anbieter*innen ein. Bei den Bemühungen die KI-Zertifizierung zu optimieren, damit die Zeit bis zur Markteinführung reduziert und Entwicklungskosten gesenkt werden können, kommen die Interessen und Bedürfnisse der Stakeholder daher nicht zu kurz.

Weil Standards für Dateninteroperabilität und die Konformität mit bestehenden Regularien etabliert werden, trägt CERTAIN dazu bei, dass offene und vertrauenswürdige europäische Datenräume entstehen. Transparente und datenschutzfreundliche Lösungen, die sich einem verantwortlichen Umgang mit Daten und Ressourcen verschreiben, werden vorgelegt. Im Einklang mit dem Grünen Deal der EU legen wir zudem besonderen Wert auf energieeffiziente KI und nachhaltige Methoden der Datenbewirtschaftung.

Sie wollen mehr wissen? Fragen Sie nach!

Senior Researcher Institut für IT Sicherheitsforschung
Department Informatik und Security
Arbeitsplatz: B - Campus-Platz 1
Externe Projektleitung
Claude Bauzou (lead)
PartnerInnen
  • Idemia Identity & Security France [Frankreich]
  • University of Luxembourg [Luxemburg]
  • Idiap Research Institute [Schweiz]
  • Netcompany-Intrasoft [Luxemburg]
  • Digital For Planet [Schweiz]
  • University of Maribor [Slowenien]
  • Maribor University Medical Centre [Slowenien]
  • National Bank of Greece [Griechenland]
  • EIT Digital [Belgien]
  • Harokopio University [Griechenland]
  • University of Tartu [Estland]
  • NVISION Systems and Technologies [Spanien]
  • Bürgerenergiegemeinschaft EMPOWER [Österreich]
  • Red Alert Labs [Frankreich]
  • DEXAI - Artificial Ethics [Italien]
  • INCOM Ltd. [Griechenland]
  • Novelcore [Griechenland]
  • Anadelta [Griechenland]
Finanzierung
Horizon Europe - Cluster 4: Digitalisierung, Industrie & Weltraum
Laufzeit
01.01.2025 – 31.12.2027
Projektstatus
laufend
Beteiligte Institute, Gruppen und Zentren
Institut für IT Sicherheitsforschung