Von Daten zu Design

LLM-gestützte Informationsextraktion über Branchen hinweg

Autor/innen

  • Robert Becker August-Wilhelm Scheer Institut für digitale Produkte und Prozesse gGmbH
  • Laura Steffny August-Wilhelm Scheer Institut gGmbH
  • Thomas Bleistein August-Wilhelm Scheer Institut gGmbH
  • Dirk Werth August-Wilhelm Scheer Institut gGmbH

DOI:

https://doi.org/10.17560/atp.v66i6-7.2738

Schlagworte:

Large Language Model, Retrieval Augmented Generation, Python, Efficiency

Abstract

In diesem Beitrag wird die Anwendung von  Großsprachmodelle (Large Language Models, LLMs) in der Automobil- und Zuliefererindustrie untersucht, wobei der Schwerpunkt auf dem Einsatz von Retrieval-Augmented-Generating-Systemen (RAG) zur Rationalisierung der Informationsbeschaffung aus technischen Unterlagen liegt. Die Forschungsarbeit, die Teil des CoLab4DigiTwin-Projekts ist, untersucht, wie digitale Zwillinge, die von intelligenten Diensten unterstützt werden, die interdisziplinäre  Zusammenarbeit verbessern und die Abhängigkeit von der manuellen Datensuche verringern können. Wir haben eine Pipeline mit einer RAG-Architektur entwickelt, die eine  Vektordatenbank für ein effizientes Datenmanagement und einen schnellen Zugriff auf relevante Informationen nutzt, wodurch teure Rechenressourcen überflüssig werden. Die Leistung verschiedener Open-Source-LLMs, die auf Deutsch abgestimmt sind, wurde bewertet, wobei der Schwerpunkt auf Lesbarkeit, Klarheit und Genauigkeit lag. Die Ergebnisse zeigen eine gute Leistung des Systems, ohne dass eine Feinabstimmung des Modells erforderlich ist. Zukünftige Forschung wird darauf abzielen, diese Prozesse zu   verfeinern und die Anwendbarkeit von RAG-Systemen zu erweitern, um das Potenzial von Large Language Models für die Interaktion mit industriellen Daten zu verdeutlichen.

Downloads

Veröffentlicht

01.07.2024

Ausgabe

Rubrik

Hauptbeitrag / Peer-Review

##plugins.generic.funding.fundingData##