Fakten
Leitung
Prof. Dr. Maria-Esther Vidal
Projektbearbeitung
Disha Purohit, Hao Huang, Yashrajsinh Chudasama
Förderung durch
Leibniz-Gemeinschaft im Programm "Leibniz Best Minds: Programm für Professorinnen"
Laufzeit
Oktober 2021 – September 2026
Ein Rahmenwerk für Wissensgraphen, das auf der semantischen Integration, Repräsentation und Kuratierung wissenschaftlicher Daten basiert, um eine vertrauenswürdige und interpretierbare Wissenserforschung und -entdeckung zu ermöglichen
Beschreibung
Daten sind ein grundlegender Faktor für die Förderung der Wirtschaft eines Landes und die Gewährleistung eines qualitativ hochwertigen Lebens für die Bürger. Obwohl sie als zentrale Infrastrukturen anerkannt sind, hinkt die weltweite Einführung datengesteuerter Lösungen noch hinterher, insbesondere in der Biomedizin. Neben jahrelanger Forschung in den Bereichen Datenintegration, -kuratierung und Wissensrepräsentation wird die Vertrauenswürdigkeit datengesteuerter Erkenntnisse immer noch durch das Fehlen interpretierbarer Methoden beeinträchtigt, mit denen die Korrektheit und Verzerrung datengesteuerter Pipelines nachgewiesen werden kann.
In TrustKG zielen wir darauf ab, erklärbare Datenintegration in Pipelines zu ermöglichen, um wissenschaftliche Daten in semantisch reichhaltige und verknüpfte Wissensgraphen zu transformieren. TrustKG wird mit Computerlogik und Ontologien ausgestattet sein, um zeitliche und kausale Beziehungen zwischen aufgenommenen, kuratierten und integrierten Daten auszudrücken. Darüber hinaus werden die TrustKG-Methoden auf das Wissen von Experten und computergestützte Techniken zurückgreifen, um Entscheidungen und Ergebnisse des Datenmanagements zu validieren und zu erklären.
Gegenwärtig zielen Formalismen für die Erklärbarkeit auf Berechnungsmethoden zur Interpretation von Algorithmen des maschinellen Lernens (ML) sowie auf potenzielle Verzerrungen in deren Erkenntnissen ab. TrustKG wird den Stand der Technik vorantreiben und eine interpretierbare Integration großer Datenmengen ermöglichen, um KI- und ML-Ansätze mit semantischen Beschreibungen der als Input erhaltenen Daten zu unterstützen. Diese Beschreibungen umfassen die Erklärung von Datenanpassungen und die Entscheidungen, die zur Kuratierung, Integration und Sammlung der Eingabedaten einer KI-Methode getroffen wurden. Logische Folgerungen werden die Ergebnisse von KI-Methoden ergänzen.
Infolgedessen erwarten wir einen Paradigmenwechsel in der semantischen Datenintegration hin zu erklärbarer KI. TrustKG wird im Kontext von Lungen- und Brustkrebs angewendet. Aus der Entwicklung der Krankheit eines Patienten, die auf der Grundlage des Patientenprofils vorhergesagt wird, werden personalisierte Therapien abgeleitet. Die Beschreibung von Patientenprofilen in Verbindung mit verfügbarem Wissen über Therapien wird eine Erklärung für die Krankheitsentwicklung und die Wirksamkeit der Therapie liefern.
Arbeitspakete:
AP1 - Verstehen von Kausalität in einer Wissensgraphen-Pipeline
AP2 - Wissensgraphenbasierte Wissensextraktion
AP3 - Semantische Datenintegration und Wissensgraphenerstellung
AP4- Erklärbare analytische und prädiktive Modelle
AP5- Erforschung und Visualisierung der Erklärbarkeit
AP6- Evaluierung des TrustKG-Frameworks
Weiterführende Links
- https://github.com/SDM-TIB/Medical-Knowledge-Graph
- https://labs.tib.eu/falcon/falcon2/
- https://github.com/SDM-TIB/SDM-RDFizer
- https://github.com/SDM-TIB/EABlock
- https://github.com/SDM-TIB/kgcp-demo
- https://github.com/SDM-TIB/Trav-SHACL
Twitter @TIB_SDM
Förderung durch die Leibniz-Gemeinschaft im Programm "Leibniz Best Minds: Programm für Professorinnen", Projekt TrustKG-Transforming Data in Trustable Insights mit Förderung P99/2020