Achtung:

Sie haben Javascript deaktiviert!
Sie haben versucht eine Funktion zu nutzen, die nur mit Javascript möglich ist. Um sämtliche Funktionalitäten unserer Internetseite zu nutzen, aktivieren Sie bitte Javascript in Ihrem Browser.

Info-Icon This content is not available in English
Forschungs- und Innovationscampus Zukunftsmeile 2; Foto: Matern Architekten Show image information

Forschungs- und Innovationscampus Zukunftsmeile 2; Foto: Matern Architekten

EML4U

Erklärbares Maschinelles Lernen für interaktive episodische Updates von Modellen 

1. Motivation 

ML erlaubt nicht nur die Modellierung komplexer Zusammenhänge anhand von Daten, sodass aufwändige und oft grob vereinfachte mathematische Modellierungen bestimmter Gegebenheiten damit umgangen werden können. Auch die Anpassung von ML-Modellen an geänderte Anforderungen und Gegebenheiten kann anhand von trainierten Daten erfolgen. Um eine regelmäßige Anpassung zu erreichen, werden die Daten während des Gebrauchs eines Modells gesammelt. Dieses Modell wird dann, unter der Berücksichtigung der gewonnenen Informationen, neu trainiert. Durch eine schrittweise kontinuierliche Verbesserung (inkrementelles Nachtraining), erfolgt ein episodisches Update des ML-Modells. Die Flexibilität dieser Methode geht jedoch mit zwei zentralen Herausforderungen einher. Zum einen wird für ein Nachtraining eine aufwändige manuelle Ersetzung der wesentlichen Primärdaten durch Sekundärdaten (Annotation) und Aufbereitung der Daten benötigt. Zum anderen ist unklar, wie die Validität des Modells nach einem Update garantiert werden kann, wenn keine oder wenige annotierte Daten zur Verfügung stehen. Diese Herausforderungen erfordern das Expertenwissen im Lernprozess und können nicht vollständig automatisiert gelöst werden. Hierbei spielt Erklärbarkeit eine entscheidende Rolle. Sie ermöglicht die zielgerichtete, effiziente und qualitative Integration von Expertenwissen, um so episodisches interaktives Lernen zu ermöglichen. 

2. Ziele und Vorgehen 

Das Projekt EML4U wird im Bereich der Erklärbarkeit und Transparenz des Maschinellen Lernens forschen. Ziel im Projekt ist es, den notwendigen Aufwand der manuellen Aufbereitung zu minimieren und durch Erklärbarkeit die Voraussetzung für interaktive Updates zu schaffen. Die Unsicherheit in ambigen Situationen soll so durch Expertenwissen aufgelöst werden und die Validität des Modells auch im Fall von sehr begrenzten Testdaten erhalten bleiben. Dabei sollen Erklärungskomponenten für ML-Modelle, insbesondere in der Domäne Natural Language Processing (NLP) im Kontext von Modell-Updates, nutzbar gemacht werden.  

3. Innovation und Perspektiven 

Der Bereich des Maschinellen Lernens weist nach wie vor große Potenziale für die Forschung und Wirtschaft auf, doch gibt es Themen und Rahmenbedingungen, in denen ML-Techniken noch weiterentwickelt und verbessert werden müssen. Eine der größten Herausforderungen betrifft, neben der Datennutzung und dem Ausbau der Fähigkeiten von ML-basierten Anwendungen, die Verbesserung der Akzeptanz. Nachvollziehbarkeit, Erklärbarkeit und Transparenz in der Nutzung von ML sind hierbei Schlüsseleigenschaften, die erreicht werden müssen, um den Nutzen für unterschiedlichste Anwendungen und die Anwender*innen sicherzustellen.  

In Kürze

Förderkennzeichen: 01IS19080B

Gefördert durch: Bundesministerium für Bildung und Forschung

Laufzeit: 04/2020 - 03/2022

Ansprechpartner

Dr. Gunnar Schomaker

Software Innovation Campus Paderborn (SICP)

Vice Managing Director Software Innovation Lab, R&D Manager – Smart Systems

Gunnar Schomaker
Phone:
+49 5251 60-6823
Phone:
+49 178 8192000
Office:
FU.237

Projektpartner
  • Universität Bielefeld 
  • Semalytix GmbH