In dieser Anleitung wird der Prozess der Verwendung eines Konversations-Token-Puffers in LangChain veranschaulicht.
Wie verwende ich einen Konversations-Token-Puffer in LangChain?
Der ConversationTokenBufferMemory Die Bibliothek kann aus dem LangChain-Framework importiert werden, um die neuesten Nachrichten im Pufferspeicher zu speichern. Die Token können so konfiguriert werden, dass die Anzahl der im Puffer gespeicherten Nachrichten begrenzt wird und die früheren Nachrichten automatisch geleert werden.
Um den Prozess der Verwendung des Konversations-Token-Puffers in LangChain zu erlernen, verwenden Sie die folgende Anleitung:
Schritt 1: Module installieren
Installieren Sie zunächst das LangChain-Framework mit allen erforderlichen Modulen mit dem Befehl pip:
pip langchain installieren
Installieren Sie nun das OpenAI-Modul, um die LLMs und Ketten mithilfe der OpenAI()-Methode zu erstellen:
pip openai installieren
Nach der Installation der Module verwenden Sie einfach den API-Schlüssel von OpenAI Umgebung einrichten Verwenden der OS- und GetPass-Bibliotheken:
importieren Duimportieren getpass
Du . etwa [ „OPENAI_API_KEY“ ] = getpass . getpass ( „OpenAI-API-Schlüssel:“ )
Schritt 2: Verwenden des Konversationstoken-Pufferspeichers
Erstellen Sie die LLMs mit der OpenAI()-Methode nach dem Import ConversationTokenBufferMemory Bibliothek aus dem LangChain-Framework:
aus langchain. Erinnerung importieren ConversationTokenBufferMemoryaus langchain. lms importieren OpenAI
llm = OpenAI ( )
Konfigurieren Sie den Speicher so, dass das Token festgelegt wird. Es löscht die alten Nachrichten und speichert sie im Pufferspeicher. Speichern Sie anschließend die Nachrichten aus der Konversation und rufen Sie die aktuellsten ab, um sie als Kontext zu verwenden:
Erinnerung = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )Erinnerung. save_context ( { 'Eingang' : 'Hallo' } , { 'Ausgabe' : 'Wie geht es dir' } )
Erinnerung. save_context ( { 'Eingang' : 'Mir geht es gut und dir' } , { 'Ausgabe' : 'nicht viel' } )
Führen Sie den Speicher aus, um die im Pufferspeicher gespeicherten Daten mithilfe der Methode „load_memory_variables()“ abzurufen:
Erinnerung. Load_memory_variables ( { } )
Schritt 3: Verwenden des Konversationstoken-Pufferspeichers in einer Kette
Erstellen Sie die Ketten, indem Sie die konfigurieren ConversationChain() Methode mit mehreren Argumenten zur Verwendung des Konversationstoken-Pufferspeichers:
aus langchain. Ketten importieren KonversationsketteKonversation_mit_Zusammenfassung = Konversationskette (
llm = llm ,
Erinnerung = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
ausführlich = WAHR ,
)
Konversation_mit_Zusammenfassung. vorhersagen ( Eingang = 'Hi was geht?' )
Bringen Sie nun das Gespräch in Gang, indem Sie mithilfe der in natürlicher Sprache verfassten Aufforderungen Fragen stellen:
Konversation_mit_Zusammenfassung. vorhersagen ( Eingang = „Ich arbeite gerade am NLP-Projekt“ )
Erhalten Sie die Ausgabe der im Pufferspeicher gespeicherten Daten mithilfe der Anzahl der Token:
Konversation_mit_Zusammenfassung. vorhersagen ( Eingang = „Ich arbeite gerade an der Gestaltung von LLMs“ )
Der Puffer wird mit jeder neuen Eingabe ständig aktualisiert, da die vorherigen Nachrichten regelmäßig geleert werden:
Konversation_mit_Zusammenfassung. vorhersagen (Eingang = „LLM nutzt LangChain! Haben Sie schon davon gehört?“
)
Dabei geht es um die Verwendung des Konversations-Token-Puffers in LangChain.
Abschluss
Um den Konversations-Token-Puffer in LangChain zu verwenden, installieren Sie einfach die Module, um die Umgebung mithilfe des API-Schlüssels aus dem OpenAI-Konto einzurichten. Anschließend importieren Sie die ConversationTokenBufferMemory-Bibliothek mithilfe des LangChain-Moduls, um die Konversation im Puffer zu speichern. Der Pufferspeicher kann in einer Kette verwendet werden, um die älteren Nachrichten mit jeder neuen Nachricht im Chat zu löschen. In diesem Beitrag wurde die Verwendung des Konversations-Token-Pufferspeichers in LangChain näher erläutert.