Wie implementiert man die ReAct-Logik für die Arbeit mit Document Store?

Wie Implementiert Man Die React Logik Fur Die Arbeit Mit Document Store



LangChain ist das Framework, das alle Abhängigkeiten und Bibliotheken zum Erstellen von Sprachmodellen und Chatbots enthält. Diese Chatbots müssen mit riesigen Datenmengen trainiert werden, um die Komplexität der Sprache effizient zu verstehen. Die Entwickler können die ReAct-Logik mit diesen Modellen verwenden, um die Sprache genau zu lernen und zu verstehen. Der Reagieren Logik ist die Kombination von Argumentation (Training und Schauspielkunst (Test-)Phasen, um die optimierten Ergebnisse aus dem Modell zu erhalten.

Kurzer Überblick

Dieser Beitrag zeigt:







So implementieren Sie die ReAct-Logik mit Document Store in LangChain



Abschluss



Wie implementiert man die ReAct-Logik mit Document Store in LangChain?

Die Sprachmodelle werden anhand eines riesigen Datenpools trainiert, der in natürlichen Sprachen wie Englisch usw. geschrieben ist. Die Daten werden in den Dokumentspeichern verwaltet und gespeichert, und der Benutzer kann die Daten einfach aus dem Speicher laden und das Modell trainieren. Das Modelltraining kann mehrere Iterationen erfordern, da jede Iteration das Modell effektiver und verbessert.





Um den Prozess der Implementierung der ReAct-Logik für die Arbeit mit dem Dokumentenspeicher in LangChain zu erlernen, folgen Sie einfach dieser einfachen Anleitung:

Schritt 1: Frameworks installieren

Beginnen Sie zunächst mit der Implementierung der ReAct-Logik für die Arbeit mit dem Dokumentenspeicher, indem Sie das LangChain-Framework installieren. Durch die Installation des LangChain-Frameworks werden alle erforderlichen Abhängigkeiten abgerufen, um die Bibliotheken abzurufen oder zu importieren und den Vorgang abzuschließen:



pip langchain installieren

Installieren Sie die Wikipedia-Abhängigkeiten für dieses Handbuch, da es verwendet werden kann, um die Dokumentspeicher mit der ReAct-Logik zum Laufen zu bringen:

Pip Wikipedia installieren

Installieren Sie die OpenAI-Module mit dem Befehl pip, um deren Bibliotheken abzurufen und Large Language Models oder LLMs zu erstellen:

pip openai installieren

Schritt 2: Bereitstellung des OpenAI-API-Schlüssels

Nach der Installation aller erforderlichen Module einfach Umgebung einrichten Verwenden des API-Schlüssels aus dem OpenAI-Konto mit dem folgenden Code:

importieren Du

importieren getpass

Du . etwa [ „OPENAI_API_KEY“ ] = getpass . getpass ( „OpenAI-API-Schlüssel:“ )

Schritt 3: Bibliotheken importieren

Sobald die Umgebung eingerichtet ist, importieren Sie die Bibliotheken aus LangChain, die zum Konfigurieren der ReAct-Logik für die Arbeit mit den Dokumentspeichern erforderlich sind. Verwenden von LangChain-Agenten zum Abrufen des DocstoreExplaorer und Agenten mit seinen Typen zum Konfigurieren des Sprachmodells:

aus langchain. lms importieren OpenAI

aus langchain. docstore importieren Wikipedia

aus langchain. Agenten importieren initialize_agent , Werkzeug

aus langchain. Agenten importieren AgentType

aus langchain. Agenten . reagieren . Base importieren DocstoreExplorer

Schritt 4: Verwenden des Wikipedia-Explorers

Konfigurieren Sie die „ docstore ”-Variable mit der DocstoreExplorer()-Methode und rufen Sie die Wikipedia()-Methode in ihrem Argument auf. Erstellen Sie das Large Language Model mit der OpenAI-Methode mit dem „ text-davinci-002 ”-Modell nach dem Festlegen der Tools für den Agenten:

docstore = DocstoreExplorer ( Wikipedia ( ) )
Werkzeuge = [
Werkzeug (
Name = 'Suchen' ,
Funktion = docstore. suchen ,
Beschreibung = „Es wird verwendet, um bei der Suche Fragen/Eingabeaufforderungen zu stellen.“ ,
) ,
Werkzeug (
Name = 'Nachschlagen' ,
Funktion = docstore. Nachschlagen ,
Beschreibung = „Es wird zum Stellen von Abfragen/Eingabeaufforderungen mit Suche verwendet“ ,
) ,
]

llm = OpenAI ( Temperatur = 0 , Modellname = „text-davinci-002“ )
#Definieren der Variablen durch Konfigurieren des Modells mit dem Agenten
reagieren = initialize_agent ( Werkzeuge , llm , Agent = AgentType. REACT_DOCSTORE , ausführlich = WAHR )

Schritt 5: Testen des Modells

Sobald das Modell erstellt und konfiguriert ist, legen Sie die Fragezeichenfolge fest und führen Sie die Methode mit der Fragevariablen in ihrem Argument aus:

Frage = „Welcher Admiral der US-Marine hat mit dem Autor David Chanoff zusammengearbeitet?“

reagieren. laufen ( Frage )

Sobald die Fragevariable ausgeführt wird, hat das Modell die Frage ohne externe Eingabeaufforderungsvorlage oder Schulung verstanden. Das Modell wird automatisch trainiert, indem das im vorherigen Schritt hochgeladene Modell verwendet und entsprechend Text generiert wird. Die ReAct-Logik arbeitet mit den Dokumentspeichern zusammen, um Informationen basierend auf der Frage zu extrahieren:

Stellen Sie eine weitere Frage anhand der Daten, die dem Modell aus den Dokumentenspeichern bereitgestellt werden, und das Modell extrahiert die Antwort aus dem Speicher:

Frage = „Der Autor David Chanoff hat mit William J. Crowe zusammengearbeitet, der unter welchem ​​Präsidenten gedient hat?“

reagieren. laufen ( Frage )

Dabei geht es darum, die ReAct-Logik für die Arbeit mit dem Dokumentenspeicher in LangChain zu implementieren.

Abschluss

Um die ReAct-Logik für die Arbeit mit dem Dokumentenspeicher in LangChain zu implementieren, installieren Sie die Module oder Frameworks zum Aufbau des Sprachmodells. Anschließend richten Sie die Umgebung für OpenAI ein, um das LLM zu konfigurieren und das Modell aus dem Dokumentenspeicher zu laden, um die ReAct-Logik zu implementieren. In diesem Leitfaden wurde die Implementierung der ReAct-Logik für die Arbeit mit dem Dokumentenspeicher erläutert.