Wie verwende ich einen Konversations-Token-Puffer in LangChain?

Wie Verwende Ich Einen Konversations Token Puffer In Langchain



LangChain ermöglicht es den Entwicklern, Modelle mithilfe von maschinellem Lernen oder Deep Learning zu erstellen, die Modelle mithilfe der Datensätze trainieren können. Diese Modelle können unterschiedliche Muster aus den Daten gewinnen oder die Form des Datensatzes und seine Sprache verstehen, um Informationen zu extrahieren. Große Sprachmodelle oder LLMs können mithilfe der LangChain-Frameworks konfiguriert oder entworfen werden, die Texte in natürlichen Sprachen verstehen und generieren können.

In dieser Anleitung wird der Prozess der Verwendung eines Konversations-Token-Puffers in LangChain veranschaulicht.

Wie verwende ich einen Konversations-Token-Puffer in LangChain?

Der ConversationTokenBufferMemory Die Bibliothek kann aus dem LangChain-Framework importiert werden, um die neuesten Nachrichten im Pufferspeicher zu speichern. Die Token können so konfiguriert werden, dass die Anzahl der im Puffer gespeicherten Nachrichten begrenzt wird und die früheren Nachrichten automatisch geleert werden.







Um den Prozess der Verwendung des Konversations-Token-Puffers in LangChain zu erlernen, verwenden Sie die folgende Anleitung:



Schritt 1: Module installieren

Installieren Sie zunächst das LangChain-Framework mit allen erforderlichen Modulen mit dem Befehl pip:



pip langchain installieren





Installieren Sie nun das OpenAI-Modul, um die LLMs und Ketten mithilfe der OpenAI()-Methode zu erstellen:

pip openai installieren



Nach der Installation der Module verwenden Sie einfach den API-Schlüssel von OpenAI Umgebung einrichten Verwenden der OS- und GetPass-Bibliotheken:

importieren Du

importieren getpass

Du . etwa [ „OPENAI_API_KEY“ ] = getpass . getpass ( „OpenAI-API-Schlüssel:“ )

Schritt 2: Verwenden des Konversationstoken-Pufferspeichers

Erstellen Sie die LLMs mit der OpenAI()-Methode nach dem Import ConversationTokenBufferMemory Bibliothek aus dem LangChain-Framework:

aus langchain. Erinnerung importieren ConversationTokenBufferMemory

aus langchain. lms importieren OpenAI

llm = OpenAI ( )

Konfigurieren Sie den Speicher so, dass das Token festgelegt wird. Es löscht die alten Nachrichten und speichert sie im Pufferspeicher. Speichern Sie anschließend die Nachrichten aus der Konversation und rufen Sie die aktuellsten ab, um sie als Kontext zu verwenden:

Erinnerung = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )

Erinnerung. save_context ( { 'Eingang' : 'Hallo' } , { 'Ausgabe' : 'Wie geht es dir' } )

Erinnerung. save_context ( { 'Eingang' : 'Mir geht es gut und dir' } , { 'Ausgabe' : 'nicht viel' } )

Führen Sie den Speicher aus, um die im Pufferspeicher gespeicherten Daten mithilfe der Methode „load_memory_variables()“ abzurufen:

Erinnerung. Load_memory_variables ( { } )

Schritt 3: Verwenden des Konversationstoken-Pufferspeichers in einer Kette

Erstellen Sie die Ketten, indem Sie die konfigurieren ConversationChain() Methode mit mehreren Argumenten zur Verwendung des Konversationstoken-Pufferspeichers:

aus langchain. Ketten importieren Konversationskette

Konversation_mit_Zusammenfassung = Konversationskette (
llm = llm ,
Erinnerung = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
ausführlich = WAHR ,
)
Konversation_mit_Zusammenfassung. vorhersagen ( Eingang = 'Hi was geht?' )

Bringen Sie nun das Gespräch in Gang, indem Sie mithilfe der in natürlicher Sprache verfassten Aufforderungen Fragen stellen:

Konversation_mit_Zusammenfassung. vorhersagen ( Eingang = „Ich arbeite gerade am NLP-Projekt“ )

Erhalten Sie die Ausgabe der im Pufferspeicher gespeicherten Daten mithilfe der Anzahl der Token:

Konversation_mit_Zusammenfassung. vorhersagen ( Eingang = „Ich arbeite gerade an der Gestaltung von LLMs“ )

Der Puffer wird mit jeder neuen Eingabe ständig aktualisiert, da die vorherigen Nachrichten regelmäßig geleert werden:

Konversation_mit_Zusammenfassung. vorhersagen (

Eingang = „LLM nutzt LangChain! Haben Sie schon davon gehört?“

)

Dabei geht es um die Verwendung des Konversations-Token-Puffers in LangChain.

Abschluss

Um den Konversations-Token-Puffer in LangChain zu verwenden, installieren Sie einfach die Module, um die Umgebung mithilfe des API-Schlüssels aus dem OpenAI-Konto einzurichten. Anschließend importieren Sie die ConversationTokenBufferMemory-Bibliothek mithilfe des LangChain-Moduls, um die Konversation im Puffer zu speichern. Der Pufferspeicher kann in einer Kette verwendet werden, um die älteren Nachrichten mit jeder neuen Nachricht im Chat zu löschen. In diesem Beitrag wurde die Verwendung des Konversations-Token-Pufferspeichers in LangChain näher erläutert.