LLMs und Ontologien: Die Zukunft des AI Engineering
Künstliche Intelligenz, Large Language Model, Ontologie, Semper-KI

LLMs und Ontologien: Die Zukunft des AI Engineering

Mit Ontologien und Large Language Models (LLMs) können Unternehmen ihr Datenmanagement verbessern. Im Interview erklärt Dr. Sanju Tiwari anhand von praktischen Beispielen, wie Unternehmen diese Technologien einsetzen können und wie sie das AI Engineering beeinflussen.

Hören statt Lesen? Hier gehts zum Interview (englisch):

In der Europäischen Union haben die Mitgliedsstaaten mit dem AI Act eine Regelung für Künstliche Intelligenz verabschiedet. Was ist Künstliche Intelligenz?

Künstliche Intelligenz (KI) sind Technologien, die es Computern und Maschinen ermöglichen, menschliche Intelligenz und Problemlösungsfähigkeiten zu simulieren. Dazu gehören maschinelles Lernen, Deep Learning, NLP-Technologien, Computer Vision, Robotik, Expertensysteme, Spracherkennung, Empfehlungssysteme, autonome Systeme oder kognitives Rechnen. Einige Beispiele für KI in den täglichen Nachrichten und in unserem täglichen Leben sind digitale Assistenten, GPS-Lenkung, autonome Fahrzeuge und generative KI-Tools wie ChatGPT von Open AI. Bei diesen Technologien geht es um die Entwicklung von KI-Algorithmen, die den Entscheidungsprozessen des menschlichen Gehirns nachempfunden sind, die aus den verfügbaren Daten „lernen“ und immer genauere Klassifizierungen oder Vorhersagen treffen können.

Wenn wir über KI sprechen, geht es im Wesentlichen um Daten. Eine Technologie zur Verwaltung von Daten sind Ontologien. Ontologien gehören zu deinen Hauptforschungsgebieten. Warum ist diese Technologie in der KI-Entwicklung zurzeit so präsent?

Im Allgemeinen sind Ontologien formale Darstellungen von Wissen in einem bestimmten Bereich. Sie bestehen aus einer Reihe von Konzepten, Kategorien, Beziehungen und Regeln, die festlegen, wie diese Konzepte miteinander interagieren. Sie bieten einen strukturierten Rahmen, um Informationen zu organisieren.

Ontologien stehen heute an der Spitze der KI-Entwicklung, da sie vielversprechende Herausforderungen im Zusammenhang mit semantischem Verständnis, Datenintegration, Wissensdarstellung und interdisziplinären Anwendungen adressieren. Der technologische Fortschritt und die zunehmende Komplexität von KI-Anwendungen haben die Bedeutung von Ontologien für die Entwicklung intelligenter, vielseitiger und effektiver KI-Systeme deutlich gemacht. Bei der Entwicklung von KI spielen verschiedene Faktoren eine Rolle, wie z. B:

  • Semantisches Verstehen: Moderne KI-Anwendungen, wie die Verarbeitung natürlicher Sprache (NLP) und Computer Vision, erfordern ein tiefes Verständnis der Semantik hinter den Daten, die sie verarbeiten. Ontologien bieten eine Möglichkeit, dieses semantische Wissen zu kodieren, so dass KI-Systeme den Kontext und die Bedeutung von Informationen genauer interpretieren können. Diese semantische Ebene ist wichtig für Aufgaben wie die Beantwortung von Fragen, die Informationsbeschaffung und die Empfehlung von Inhalten.
  • Wissensrepräsentation und Reasoning: Ontologien erleichtern die formale Darstellung von Wissen innerhalb eines bestimmten Bereichs. Dadurch sind KI-Systeme in der Lage, Schlussfolgerungen über dieses Wissen zu ziehen, Inferenzen zu ziehen und neue Erkenntnisse zu gewinnen. Diese Fähigkeit ist für Expertensysteme, Systeme zur Entscheidungsunterstützung und fortgeschrittene KI-Anwendungen, die ein hohes Maß an Verständnis und Schlussfolgerungen erfordern, unerlässlich.
  • Wissensaustausch: In vielen Branchen sind Zusammenarbeit und Wissensaustausch der Schlüssel zu Innovation und Problemlösung. Ontologien ermöglichen die Erstellung gemeinsamer Vokabulare und konzeptioneller Rahmen, die von verschiedenen Teams und Organisationen genutzt werden können, und fördern so die Zusammenarbeit und den Wissensaustausch.
  • Fortschritte bei Technologie und Tools: Bei den Werkzeugen und Technologien für die Erstellung, Verwaltung und Verwendung von Ontologien sind erhebliche Fortschritte zu verzeichnen. Die Entwicklung von Standards wie OWL (Web Ontology Language) und RDF (Resource Description Framework) hat eine solide Grundlage für ontologiebasierte Systeme geschaffen. Darüber hinaus haben verbesserte Ontologie-Editoren und Reasoner es den Entwicklern erleichtert, Ontologien in KI-Anwendungen zu implementieren und zu nutzen.

Angenommen, ich gehöre zu einem kleinen oder mittelständischen Unternehmen (KMU): Wobei können mir Ontologien helfen?

Ontologien können für kleine und mittlere Unternehmen (KMU) in verschiedener Hinsicht äußerst wertvoll sein, da sie die Datenverwaltung verbessern, die Entscheidungsfindung fördern und eine bessere Kommunikation ermöglichen.

Im Falle verschiedener Softwaresysteme (z. B. CRM, ERP, Marketing-Automatisierung) können Ontologien beispielsweise dazu beitragen, Daten aus diesen verschiedenen Systemen zu integrieren, indem sie ein einheitliches und konsistentes Datenmodell bereitstellen. Dies führt zu einer effizienteren Datenverarbeitung und reduziert Fehler, die auf inkonsistente Datenformate zurückzuführen sind.

Eine Ontologie kann die Suchfunktionalität verbessern, indem sie einen strukturierten Weg zum Verständnis der Beziehungen zwischen verschiedenen Konzepten bietet, wenn Ihr Unternehmen einen großen Bestand an Dokumenten, Produktinformationen oder Kundeninteraktionen verwaltet. Sie kann Wissen in einem bestimmten Bereich darstellen, z. B. in einem Unternehmen, das sich mit dem Gesundheitswesen befasst, oder eine Ontologie kann die Beziehungen zwischen Symptomen, Diagnosen und Krankheiten modellieren.

Die Wiederverwendbarkeit ist ein wichtiges Merkmal der Ontologie für den Wissensaustausch und die Zusammenarbeit innerhalb des Unternehmens.

Zusammenfassend lässt sich sagen, dass Ontologien Abläufe rationalisieren, die Datenverwaltung verbessern und Entscheidungsprozesse optimieren können. Durch die Bereitstellung eines strukturierten Rahmens für die Organisation und Nutzung von Wissen ermöglichen Ontologien den Unternehmen, effizienter zu arbeiten, bessere Entscheidungen zu treffen und letztendlich ihren Kunden bessere Produkte und Dienstleistungen zu liefern.

In dem Forschungsprojekt Semper-KI entwickeln wir eine unabhängige Matching-Plattform für 3D-Druck. Um dynamische Kriterien wie Qualität, Preis und Nutzungskontext zu implementieren, erstellen wir eine 3d-Druck-Ontologie. Was sind die Kriterien für die Entwicklung einer gut funktionierenden Ontologie?

Grundsätzlich gibt es zwei sehr wichtige Punkte. Die Ontologie sollte einer vorgeschriebenen Methodik folgen, wie z.B. Neon oder Methontology. Zweitens sollte sie dem FAIR data Prinzip folgen. Das heißt, sie sollte auffindbar, zugänglich, interoperabel und wiederverwendbar sein.

So geht es Schritt für Schritt:

Definieren des Umfangs und des Zwecks: Anforderungsspezifikation
Konzeptualisierung: Identifizierung von Konzepten und Beziehungen
Formalisierung: Übersetzen des konzeptionellen Modells in eine formale Darstellung unter Verwendung einer Standard-Ontologiesprache (z. B. OWL).
Definieren von Klassen, Eigenschaften und Instanzen.
Implementierung: Verwendung von Standard-Ontologiesprachen wie OWL (Web Ontology Language) und RDF (Resource Description Framework) zur formalen Darstellung Ihrer Ontologie Ontologiemodellierung
Bewertung der Genauigkeit und Korrektheit der modellierten Daten
Veröffentlichung: Strukturieren Sie Ihre Ontologie auf modulare Weise, um Wiederverwendung und Skalierbarkeit zu erleichtern

Ontologien hängen mit so genannten Wissensgraphen zusammen. Welche Bedeutung haben diese in der KI-Entwicklung?

Der Begriff Wissensgraph wurde 2012 von Google eingeführt, war an sich aber nicht neu. Es gibt zwei wichtige Begriffe: TBox und ABox. TBox steht für Terminologie-Box. Die Instanz-Ebene wird ABox genannt. Die Entwicklung eines Schemas wird Ontologie genannt. Wenn die Instanzen einer Ontologie veröffentlicht werden, spricht man von einem Wissensgraphen. Kurz gesagt, der Wissensgraph ist eine Erweiterung der Ontologie.

Eine andere KI-Technologie, die zurzeit sehr präsent ist, sind Sprachmodelle. Das derzeit beliebteste Modell ist ChatGPT. Wie sind Ontologien und große Sprachmodelle miteinander verbunden?

Ontologien und LLMs sind durch ihre sich ergänzenden Stärken miteinander verbunden: Ontologien bieten eine strukturierte, explizite Wissensdarstellung, während LLMs leistungsstarke Funktionen zum Verstehen und Generieren von Sprache bieten. Durch die Integration dieser beiden Technologien können wir intelligentere, kontextbewusste und leistungsfähige KI-Systeme schaffen, die sowohl explizites Domänenwissen als auch das umfassende Sprachverständnis von LLMs nutzen.

In einigen unserer Forschungsarbeiten haben wir festgestellt, dass die Fähigkeiten von LLMs in Bezug auf das Ontologie-Engineering variieren. Wie kann ich sicherstellen, dass die LLMs, die ich verwende, für das Ontologie-Engineering, das ich durchführen möchte, zuverlässig sind?

Um die Zuverlässigkeit von LLMs für das Ontologie-Engineering zu gewährleisten, sollten Sie die Modelle anhand von domänenspezifischen Datensätzen feinabstimmen und ihre Ergebnisse durch strenge Tests und eine Überprüfung durch Experten validieren. Der Einsatz eines Human-in-the-Loop-Ansatzes ermöglicht es Domänenexperten, die Beiträge des LLM zu korrigieren und zu validieren und so die Übereinstimmung mit etablierten ontologischen Strukturen und semantischen Regeln sicherzustellen.

Die Nutzung bestehender Ontologien für Querverweise, die Verwendung von Ontologie-Management-Tools für Konsistenzprüfungen und die Abschwächung von Verzerrungen durch die Sicherstellung vielfältiger und repräsentativer Trainingsdaten tragen ebenfalls dazu bei, die Genauigkeit und Relevanz des Modells zu erhalten.

Regelmäßige Aktualisierungen und iterative Validierungsprozesse sorgen dafür, dass das LLM ein zuverlässiges Werkzeug für Ihre Ontologie-Entwicklungsaufgaben bleibt.

Werfen wir einen Blick in die Zukunft: Werden LLMs Ontologien langfristig ersetzen?

LLMs und Ontologien haben unterschiedliche primäre Funktionen, ihre Stärken können sich in vielen Anwendungen gegenseitig ergänzen. Anstatt LLMs als Ersatz für Ontologien zu sehen, ist es produktiver, sie als Werkzeuge zu betrachten, die zusammenarbeiten können, um leistungsfähigere und vielseitigere KI-Systeme zu schaffen. Ontologien liefern das strukturierte Wissen, das für logische Schlussfolgerungen und Interoperabilität notwendig ist, während LLMs ein flexibles und kontextbezogenes Sprachverständnis bieten.

Die Zukunft der KI wird wahrscheinlich in einer verstärkten Integration dieser Technologien liegen, wobei das Beste aus beiden Welten genutzt wird, um anspruchsvollere und effektivere Lösungen zu erzielen.

Sanju, vielen Dank für das Gespräch.

Dr. Sanju Tiwari ist Doktorin der Philosophie sowie Professorin und leitende Forscherin an verschiedenen Einrichtungen, unter anderem am Institute of Computer Applications and Management in Neu-Delhi. Sie hat das Institut für Angewandte Informatik (InfAI) e.V. in Leipzig besucht anlässlich ihres Beitrags zu DBPedia mit einem Kapitel in Hindi.