Wie verwende ich den Entitätsspeicher in LangChain?

Wie Verwende Ich Den Entitatsspeicher In Langchain



LangChain ist ein Modul, das die Erstellung von Modellen ermöglicht, die natürliche Sprachen verarbeiten können, also die Sprachen, die Menschen zur Kommunikation verwenden. LangChain enthält alle erforderlichen Module und Abhängigkeiten, die zum Aufbau großer Sprachmodelle oder Chatbots verwendet werden können. Diese Modelle müssen trainiert werden, um die natürliche Sprache zu erlernen, um Texte basierend auf den vom Benutzer bereitgestellten Abfragen zu generieren.

Dieser Leitfaden veranschaulicht den Prozess der Verwendung des Entity-Speichers in LangChain.

Wie verwende ich den Entitätsspeicher in LangChain?

Die Entität wird verwendet, um die Schlüsselfakten im Speicher zu speichern und zu extrahieren, wenn sie vom Menschen mithilfe der Abfragen/Eingabeaufforderungen gefragt werden. Um den Prozess der Verwendung des Entity-Speichers in LangChain zu erfahren, besuchen Sie einfach die folgende Anleitung:







Schritt 1: Module installieren

Installieren Sie zunächst das LangChain-Modul mit dem Befehl pip, um seine Abhängigkeiten abzurufen:



pip langchain installieren



Installieren Sie anschließend das OpenAI-Modul, um seine Bibliotheken zum Erstellen von LLMs und Chat-Modellen zu erhalten:





pip openai installieren

Richten Sie die OpenAI-Umgebung ein Verwenden des API-Schlüssels, der aus dem OpenAI-Konto extrahiert werden kann:



importieren Du

importieren getpass

Du . etwa [ „OPENAI_API_KEY“ ] = getpass . getpass ( „OpenAI-API-Schlüssel:“ )

Schritt 2: Entitätsspeicher verwenden

Um den Entitätsspeicher zu verwenden, importieren Sie die erforderlichen Bibliotheken zum Erstellen des LLM mithilfe der OpenAI()-Methode:

aus langchain. lms importieren OpenAI

aus langchain. Erinnerung importieren ConversationEntityMemory

llm = OpenAI ( Temperatur = 0 )

Danach definieren Sie die Erinnerung Variable mithilfe der ConversationEntityMemory()-Methode, um das Modell mithilfe der Eingabe- und Ausgabevariablen zu trainieren:

Erinnerung = ConversationEntityMemory ( llm = llm )

_Eingang = { 'Eingang' : „Joe are Root hat ein Projekt gemacht“ }

Erinnerung. Load_memory_variables ( _Eingang )

Erinnerung. save_context (

_Eingang ,

{ 'Ausgabe' : „Großartig! Was ist das denn für ein Projekt?“ }

)

Testen Sie nun den Speicher mithilfe der Abfrage/Eingabeaufforderung im Eingang Variable durch Aufrufen der Methode „load_memory_variables()“:

Erinnerung. Load_memory_variables ( { 'Eingang' : „Wer ist Root?“ } )

Geben Sie nun einige weitere Informationen an, damit das Modell dem Speicher einige weitere Entitäten hinzufügen kann:

Erinnerung = ConversationEntityMemory ( llm = llm , return_messages = WAHR )

_Eingang = { 'Eingang' : „Joe are Root hat ein Projekt gemacht“ }

Erinnerung. Load_memory_variables ( _Eingang )

Erinnerung. save_context (

_Eingang ,

{ 'Ausgabe' : „Super! Was ist das denn für ein Projekt?“ }

)

Führen Sie den folgenden Code aus, um die Ausgabe mithilfe der im Speicher gespeicherten Entitäten zu erhalten. Es ist möglich durch die Eingang enthält die Eingabeaufforderung:

Erinnerung. Load_memory_variables ( { 'Eingang' : „Wer ist Joe?“ } )

Schritt 3: Entity Memory in einer Kette verwenden

Um den Entity-Speicher nach dem Aufbau einer Kette zu nutzen, importieren Sie einfach die erforderlichen Bibliotheken mit dem folgenden Codeblock:

aus langchain. Ketten importieren Konversationskette

aus langchain. Erinnerung importieren ConversationEntityMemory

aus langchain. Erinnerung . prompt importieren ENTITY_MEMORY_CONVERSATION_TEMPLATE

aus pydantisch importieren Basismodell

aus Tippen importieren Aufführen , Diktat , Beliebig

Erstellen Sie das Konversationsmodell mit der ConversationChain()-Methode und verwenden Sie Argumente wie llm:

Gespräch = Konversationskette (

llm = llm ,

ausführlich = WAHR ,

prompt = ENTITY_MEMORY_CONVERSATION_TEMPLATE ,

Erinnerung = ConversationEntityMemory ( llm = llm )

)

Rufen Sie die Methode „conversation.predict()“ mit der Eingabe auf, die mit der Eingabeaufforderung oder Abfrage initialisiert wurde:

Gespräch. vorhersagen ( Eingang = „Joe are Root hat ein Projekt gemacht“ )

Rufen Sie nun die separate Ausgabe für jede Entität ab, die die Informationen darüber beschreibt:

Gespräch. Erinnerung . Entity_Store . speichern

Verwenden Sie die Ausgabe des Modells als Eingabe, damit das Modell weitere Informationen zu diesen Entitäten speichern kann:

Gespräch. vorhersagen ( Eingang = „Sie versuchen, Langchain komplexere Speicherstrukturen hinzuzufügen“ )

Nachdem Sie die im Speicher gespeicherten Informationen angegeben haben, stellen Sie einfach die Frage, um die spezifischen Informationen über Entitäten zu extrahieren:

Gespräch. vorhersagen ( Eingang = „Was wissen Sie über Joe und Root?“ )

Schritt 4: Testen des Speichers

Mit dem folgenden Code kann der Benutzer die Speicher direkt überprüfen, um die darin gespeicherten Informationen abzurufen:

aus drucken importieren drucken

drucken ( Gespräch. Erinnerung . Entity_Store . speichern )

Stellen Sie mehr Informationen zur Verfügung, die im Speicher gespeichert werden sollen, da mehr Informationen zu genaueren Ergebnissen führen:

Gespräch. vorhersagen ( Eingang = „Root hat ein Unternehmen namens HJRS gegründet“ )

Extrahieren Sie Informationen aus dem Speicher, nachdem Sie weitere Informationen zu den Entitäten hinzugefügt haben:

aus drucken importieren drucken

drucken ( Gespräch. Erinnerung . Entity_Store . speichern )

Der Speicher enthält Informationen über mehrere Entitäten wie HJRS, Joe, LangChain und Root:

Extrahieren Sie nun Informationen zu einer bestimmten Entität mithilfe der in der Eingabevariablen definierten Abfrage oder Eingabeaufforderung:

Gespräch. vorhersagen ( Eingang = „Was wissen Sie über Root?“ )

Dabei geht es um die Nutzung des Entity-Speichers mithilfe des LangChain-Frameworks.

Abschluss

Um den Entitätsspeicher in LangChain zu nutzen, installieren Sie nach dem Einrichten der OpenAI-Umgebung einfach die erforderlichen Module, um die zum Erstellen von Modellen erforderlichen Bibliotheken zu importieren. Erstellen Sie anschließend das LLM-Modell und speichern Sie Entitäten im Speicher, indem Sie Informationen über die Entitäten bereitstellen. Der Benutzer kann mithilfe dieser Entitäten auch Informationen extrahieren und diese Erinnerungen in den Ketten mit gerührten Informationen über Entitäten aufbauen. In diesem Beitrag wurde der Prozess der Verwendung des Entitätsspeichers in LangChain näher erläutert.