Wissensmanagement mit LLM

So chatten Sie mit den Wissensdatenbanken Ihres Unternehmens

ERP, CRM, Wiki, SharePoint, BI-Plattform: Solche Systeme, die unternehmens- und fachspezifische Informationen enthalten, werden meist von den Mitarbeiter:innen über Jahre hinweg mit Daten gefüttert und gepflegt. Daten und Strukturen wachsen dabei mit der Zeit. Wie lassen sich unter diesen Umständen zwischen Millionen von Datensätzen genau die Information wiederfinden, die für eine spezielle Aufgabe benötigt werden? Die gute alte Freitextsuche stößt für spezifische Fragestellungen schnell an ihre Grenzen, da sie die Semantik der Texte nicht berücksichtigen kann – insbesondere dann, wenn unterschiedliche (Fach-)Sprachen genutzt werden. Mitarbeiter:innen, die sich in den oft komplexen Strukturen auskennen, verlassen irgendwann das Unternehmen und können auch nicht mehr weiterhelfen. Tagtäglich geht so immer wieder wertvolle Zeit bei der Suche nach Informationen in den Systemen verloren, ganz zu schweigen von der Frustration, die mit dieser unproduktiven Arbeitszeit verbunden ist. Ist man dann endlich fündig geworden, muss meist erst ein seitenlanges Dokument gelesen werden, um die gewünschten Antworten zu erhalten. Generative KI kann hier Abhilfe leisten, Informationen auf den Punkt gebracht bereitstellen und noch viel mehr bieten als eine Liste von „Lesetipps“.

Wissen schneller abrufen mit Generativer KI

Eine Stärke der neuen, großen Sprachmodelle (Large Language Models) ist, dass sie in einem vorgegebenen Kontext relevante Informationen finden und für eine spezifische Fragestellung passend aufbereiten können – und das ganz einfach per Chat-Anfrage.

Der Schlüssel dafür ist die sog. Retrieval Augmented Generation (RAG). Dabei werden interne Dokumente laufend durch ein LLM für die semantische Suche vorbereitet und als Vektor-Repräsentation in einer sog. Vektordatenbank gespeichert. Bei einer späteren Frage im Chat werden die passendsten Dokumentteile zur Beantwortung schnell herausgesucht und der Frage als erweiterter Kontext für das LLM hinzugefügt, z. B.: „Berücksichtige bei der Beantwortung der o. g. Frage folgende Texte …“ Durch diesen Ansatz lassen sich Modelltraining und Feintuning von der Erzeugung relevanter Dokumente entkoppeln. Die Antworten werden dadurch besser, konsistenter und auch nachvollziehbar, da stets der Quellenverweis auf die für die Antwort benutzten Dokumente vorliegt und von den Nutzer:innen bei Bedarf direkt aufgerufen werden kann. Die bestehenden Zugriffsrechte auf die Dokumente lassen sich hierbei berücksichtigen, sodass vertrauliche Dokumente weiterhin geschützt bleiben.

So können beispielsweise Sachbearbeiter:innen die Generative KI fragen, wie sie einen Antrag für ein neues Projekt erstellen, statt wie bisher per Stichwortsuche die Tiefen von Datenbanken zu durchforsten. In der Antwort erhalten sie eine Step-by-Step-Anleitung sowie ähnliche frühere Projektanträge als Referenzen. Das spart nicht nur Zeit, sondern stellt auch sicher, dass alle relevanten Informationen berücksichtigt und irrelevante ausgeschlossen werden können.

Weitere Beispiele für Informationen, die mit Generativer KI zur Beantwortung spezifischer Fragen genutzt werden können:

  • Relevante Vertragsbedingungen bei verschiedenen Dienstleistungs- oder Service-Produkten (z. B. Versicherungsbedingungen)
  • Vom Unternehmen veröffentlichte Medien wie Newsletter, Mitarbeitermagazine etc.
  • Gesetzestexte und ähnliche regulatorische Vorgaben
  • Ausschreibungen
  • Wissenschaftliche Forschungsartikel
  • Patente
  • Endnutzer-Dokumentation für Software oder Informationen aus dem Support-Desk
  • Standard Operation Procedures (SOP)
  • Fehler- & Lageberichte sowie Berichte zu FMEA (Failure Mode and Effects Analysis)
  • Störungs-, Wartungs- & Reparaturprotokolle

 

RAG

Sprachmodelle und eigene Wissensdatenbanken kombinieren

Bei gängigen KI-Tools, die z. B. als Plugins SharePoint erweitern, sind meist nur die Inhalte für GenAI-generierte Antworten nutzbar, die sich in dieser speziellen Anwendung befinden. Zur Anbindung weiterer externer Quellen ist meist aufwändiges Customizing notwendig.

Bei dem hier vorgestellten Ansatz für das Wissensmanagement mit GenAI wird von Anfang an berücksichtigt, dass mehrere Quellen durchsuchbar sein sollen – denn die verstreute Ablage von Informationen in verschiedenen Silos stellt das Grundproblem bei der Wiederauffindbarkeit dar. Technisch wird dies so gelöst, dass die Generative KI mit den verschiedenen Wissensdatenbanken gekoppelt wird. Hierfür sind u. a. Kenntnisse in Natural Language Processing (NLP), Data Science und Machine Learning Operations (MLOps) sowie IT-Infrastruktur und IT-Security nötig. Verfügt ein Unternehmen darüber, kann es seine Wissensdatenbanken mit dem Sprachmodell eines Drittanbieters, bspw. ChatGPT, verbinden. Zusätzlich lässt sich die die GenAI-Lösung auch in bekannte User Interfaces wie z. B. SharePoint oder das Intranet integrieren, sodass die Mitarbeiter:innen wie gewohnt mit ihren Fachanwendungen arbeiten können und nicht bei jeder Anfrage in den Internet-Browser wechseln müssen.

Unbedenklich mit unternehmensinternem LLM

Nicht jedes Unternehmen will proprietäre LLM-Services wie ChatGPT verwenden – insbesondere im regulierten Umfeld oder bei speziellen Compliance-Vorgaben. Wenn das bei Ihnen der Fall ist, empfehlen wir ein unternehmensinternes LLM, bei dem Sie selbst bestimmen, wo es gehostet wird und was mit den verarbeiteten Daten passiert.

Comma Soft LLM / GenAI

Boosten Sie Ihr Wissensmanagement mit Generativer KI – gemeinsam mit Comma Soft

Wenn Sie Generative KI – ob eine unternehmenseigene oder eine marktübliche – für Ihr Wissensmanagement nutzen möchten, unterstützen wir Sie gerne: beratend, bei der Umsetzung einzelner Teilschritte oder komplett, so wie es zu Ihren Anforderungen passt. Kontaktieren Sie uns gerne, wenn Sie ein erstes unverbindliches Beratungsgespräch wünschen.

Kontakt aufnehmen

Ansprechpartner:innen

Head of Consulting Insurance & Health
Dr. rer. nat. Psychologie & Neurowissenschaften
Diplom-Physiker

Kontakt aufnehmen »

Valentin verantwortet den Bereich Insurance & Health Consulting bei Comma Soft. Sein besonderes Interesse liegt darin, wie Unternehmen durch Machine Learning und andere neue Technologien Prozesse optimieren und Erkenntnisse aus ihren Daten gewinnen können. Dabei legt er großen Wert auf zielorientiertes Projektmanagement und eine enge Abstimmung mit den Fachbereichen. Außerdem betreut Valentin die Data Competence Trainings von Comma Soft. Durch diese Trainings wird die bereichsübergreifende Datenkompetenz von Mitarbeiter:innen gestärkt. Dies schafft die Voraussetzung für eine erfolgreiche Einführung und Operationalisierung datengetriebener Geschäftsprozesse.

Kontakt aufnehmen »

Valentin verantwortet den Bereich Insurance & Health Consulting bei Comma Soft. Sein besonderes Interesse liegt darin, wie Unternehmen durch Machine Learning und andere neue Technologien Prozesse optimieren und Erkenntnisse aus ihren Daten gewinnen können. Dabei legt er großen Wert auf zielorientiertes Projektmanagement und eine enge Abstimmung mit den Fachbereichen. Außerdem betreut Valentin die Data Competence Trainings von Comma Soft. Durch diese Trainings wird die bereichsübergreifende Datenkompetenz von Mitarbeiter:innen gestärkt. Dies schafft die Voraussetzung für eine erfolgreiche Einführung und Operationalisierung datengetriebener Geschäftsprozesse.

Vernetzen Sie sich mit unseren Expert:innen!