Anforderungen

Linux

  • 64-Bit (Kernel 3.2+, glibc 2.17+)
  • Möglicherweise müssen Sie die folgenden Bibliotheken über den Paketmanager Ihrer Distribution installieren: libgl1 libmagic1. Auf einem Debian- oder Ubuntu-System können Sie dies mit sudo apt install libgl1 libmagic1 tun.

    Windows

  • 64-Bit (Windows 10+, Windows Server 2016+)

Installation

  1. Laden Sie die Version für Ihre Plattform von https://learn2rag.de/download herunter.
  2. Extrahieren Sie das Archiv.
  3. Führen Sie die Datei namens start aus.

🛈 Beim ersten Start werden die Python-Umgebung und die Abhängigkeiten vorbereitet, was einige Zeit in Anspruch nehmen kann.

Konfiguration

Die Konfiguration der Learn2RAG Software ist als Weboberfläche gestaltet und kann über den Browser geöffnet werden. Dies sollte nach Ausführung des Start-Befehls automatisch geschehen. Falls dies nicht geschieht finden Sie in der Ausgabe des Start-Befehls die URL, die Sie mit ihrem Browser öffnen können, um die Benutzeroberfläche zur Konfiguration zu öffnen.

configurator main screen

Die Oberfläche des Konfigurators ist in 3 Bereiche eingeteilt: Sprachmodelle, Datenquellen, und Pipelines. Zusätzlich wird beim ersten Starten ein Assistent im oberen Bereich angezeigt, der bei der Erstellung einer ersten RAG Pipeline unterstützt. Diese Assistent und die 3 einzelnen Bereich werden im folgenden näher betrachtet.

Learn2RAG beinhaltet englische und deutsche Lokalisierungen der Benutzeroberfläche. Die Lokalisierung wird gemäß den Einstellungen Ihres Webbrowsers ausgewählt. Weitere Details finden Sie in der Dokumentation Ihres Webbrowsers.

Assistent für den ersten Start

Beim ersten Start, bevor Sie Konfigurationen erstellt haben, wird ein Assistent im oberen Bereich der Seite angezeigt. Dieser hilft Ihnen dabei in wenigen Schritten eine einfache RAG Pipeline zu erstellen. Folgen Sie einfach den vorgegebenen Schritten, um eine grundlegende Beispielkonfiguration einzurichten.

Sprachmodelle

Herunterladbare Sprachmodelle

Learn2RAG kann ein Sprachmodell herunterladen und bereitstellen. Dies geschieht mit Ollama, das automatisch gestartet wird.

Eine kurze Liste empfohlener Sprachmodelle zum Herunterladen wird für einen schnellen Start bereitgestellt. Sie können aber auch jedes andere von Ollama unterstützte Modell auswählen. Eine Übersicht über verfügbare Modelle finden Sie unter: https://ollama.com/library.

🛈 Beachten Sie bitte, dass einige Modelle hohe Anforderungen an die zur Verfügung gestellt Hardware haben können.

Externe Sprachmodelle

Ein externes (lokales oder Remote-) Sprachmodell kann verwendet werden, wenn es über eine OpenAI- oder Ollama-kompatible API verfügbar ist. Sie benötigen eine API-URL und (falls erforderlich) ein Zugriffstoken.

OpenAI’s ChatGPT
API-Typ
ChatOpenAI API-URL
(leer lassen) Zugriffstoken
<Ihr Token> Sprachmodell
gpt-4o oder ein anderes OpenAI Modell

Datenquellen

In diesem Untermenü werden existierende Datenquellen aufgeführt und es können neue Quellen konfiguriert werden. Dabei hat eine Datenquelle grundsätzlich einen Namen, den Sie frei wählen können, um später die Quelle auswählen zu können.

Auf dieser Seite werden die Datenquellen lediglich konfiguriert. Das Abrufen der eigentlichen Daten von der Quelle erfolgt in einem späteren Schritt, nachdem eine Pipeline konfiguriert und der Datenimport gestartet wurde.

Dateien

Fügen Sie lokale Verzeichnisse (auf demselben PC oder Server, auf dem Learn2RAG ausgeführt wird) hinzu. Zum Beispiel: /home/user/Documents, oder C:\Users\User\Documents.

configurator file source

Webseiten

Sie können auch Webseiten als Datenquellen hinzufügen. Zum Beispiel: https://en.wikipedia.org/wiki/Berlin.

configurator file source

Pipelines

Auf dieser Seite können sie eine oder mehrere RAG Pipelines konfigurieren, starten und stoppen.

Minimale Konfiguration

Um eine Pipeline zu erstellen, müssen Sie das Speicherverzeichnis angeben, in dem das System alle zugehörigen Daten speichert, und auswählen, welches konfigurierte Sprachmodelle und welche Datenquellen verwendet werden sollen.

Optionale Konfiguration

Ports

Sie können angeben, welche Ports die Pipeline-Komponenten verwenden sollen. Ansonsten wird die Software automatisch Ports auswählen.

Datenimport

Sie können über eine Checkbox festlegen, ob der Datenimport direkt nach der Konfiguration der Pipeline ausgeführt werden soll. Der Import kann zu jeder Zeit separat gestartet werden (siehe unten).

Verwendung

Nachdem eine Pipeline Pipeline konfiguriert wurde, können Sie diese Pipeline nun steuern. Dabei sollte zunächst der Datenimport gestartet werden, da die Pipeline sonst keinerlei Daten für ihre Arbeit hat.

configurator pipeline start

Datenimport

Sobald der Import gestartet wurde verarbeitet die Pipeline alle Daten der ausgewählten Datenquellen. Nach dem Start des Imports müssen Sie warten, bis dieser abgeschlossen ist.

Starten der Pipeline

Durch die Auswahl eine Pipeline zu starten werden die erforderlichen Komponenten der Pipeline erzeugt und gestartet.

Nach dem Start können Sie die Schaltfläche “Open” verwenden, um die Benutzeroberfläche für die RAG Pipeline zu öffnen. Für Details zur Benutzeroberfläche verweisen wir auf das Benutzerhandbuch.

Die Pipeline kann aber auch über eine API in bestehende Software eingebunden werden.

Aktualisierung

  1. Führen Sie die Datei namens uninstall aus.
  2. Laden Sie die neue Version der Learn2RAG Software herunter.
  3. Installieren Sie diese Version wie oben beschrieben.

Deinstallation

Führen Sie die Datei namens uninstall aus. Dadurch werden automatisch erstellte Anwendungsdateien entfernt, Ihre Konfigurationsdaten und heruntergeladenen Modelle jedoch an ihrem Speicherort belassen.

Datenspeicherorte

Linux

$XDG_DATA_HOME/pyapp/ (~/.local/share/pyapp/)
Anwendungsdaten
$XDG_DATA_HOME/Learn2RAG/ (~/.local/share/Learn2RAG/)
Benutzerdaten

Windows

%LOCALAPPDATA%\pyapp\data\

Anwendungsdaten
%LOCALAPPDATA%\Learn2RAG\
Benutzerdaten

Erweiterte Konfiguration

Sie können eine Datei config.yml neben der Datei start erstellen, um die Konfigurationsoberfläche anzupassen. Ein Beispiel mit allen unterstützten Optionen: ```yml flask: # Pfad für Anwendungsdaten instance_path: ‘/data/learn2rag’ SUGGESTED_MODELS: local-chat: label: Lokale LLM Konfiguration description: Fügen Sie dort weitere Informationen ein. config: api: ChatOpenAI url: https://example.com/api model: gemma-3-27b-it token: xxx