Wie verwende ich eine Konversationszusammenfassung in LangChain?

Wie Verwende Ich Eine Konversationszusammenfassung In Langchain



LangChain ist das Framework, das zum Erstellen von Sprachmodellen unter Verwendung der riesigen Menge an Trainingsdatensätzen verwendet werden kann, die in natürlichen Sprachen erstellt wurden. LangChain stellt die Bibliotheken und Abhängigkeiten bereit, die zum Erstellen und Verwalten von Chatbots und Sprachmodellen wie LLMs verwendet werden können. Bei diesen Modellen handelt es sich meist um Maschinen, mit denen man auf der Grundlage von Eingabeaufforderungen, die in menschenähnlichen Sprachen verfasst sind, eine Konversation führt oder bestimmte Informationen extrahiert.

Dieser Leitfaden veranschaulicht den Prozess der Verwendung einer Konversationszusammenfassung in LangChain.

Wie verwende ich eine Konversationszusammenfassung in LangChain?

LangChain bietet Bibliotheken wie ConversationSummaryMemory, die die vollständige Zusammenfassung des Chats oder der Konversation extrahieren können. Es kann verwendet werden, um die wichtigsten Informationen der Konversation abzurufen, ohne alle im Chat verfügbaren Nachrichten und Texte lesen zu müssen.







Um den Prozess der Verwendung der Konversationszusammenfassung in LangChain zu erlernen, führen Sie einfach die folgenden Schritte aus:



Schritt 1: Module installieren

Installieren Sie zunächst das LangChain-Framework, um seine Abhängigkeiten oder Bibliotheken mithilfe des folgenden Codes abzurufen:



pip langchain installieren





Installieren Sie nun die OpenAI-Module nach der Installation von LangChain mit dem Befehl pip:

pip openai installieren



Nach der Installation der Module einfach Umgebung einrichten Verwenden Sie den folgenden Code, nachdem Sie den API-Schlüssel vom OpenAI-Konto erhalten haben:

importieren Du

importieren getpass

Du . etwa [ „OPENAI_API_KEY“ ] = getpass . getpass ( „OpenAI-API-Schlüssel:“ )

Schritt 2: Gesprächszusammenfassung verwenden

Beginnen Sie mit der Verwendung der Konversationszusammenfassung, indem Sie die Bibliotheken aus LangChain importieren:

aus langchain. Erinnerung importieren KonversationZusammenfassungSpeicher , ChatMessageHistory

aus langchain. lms importieren OpenAI

Konfigurieren Sie den Speicher des Modells mit den Methoden ConversationSummaryMemory() und OpenAI() und speichern Sie die Daten darin:

Erinnerung = KonversationZusammenfassungSpeicher ( llm = OpenAI ( Temperatur = 0 ) )

Erinnerung. save_context ( { 'Eingang' : 'Hallo' } , { 'Ausgabe' : 'Hi' } )

Führen Sie den Speicher aus, indem Sie die aufrufen load_memory_variables() Methode zum Extrahieren der Daten aus dem Speicher:

Erinnerung. Load_memory_variables ( { } )

Der Benutzer kann die Daten auch in Form einer Konversation erhalten, wie bei jeder Entität mit einer separaten Nachricht:

Erinnerung = KonversationZusammenfassungSpeicher ( llm = OpenAI ( Temperatur = 0 ) , return_messages = WAHR )

Erinnerung. save_context ( { 'Eingang' : 'Hallo' } , { 'Ausgabe' : 'Hallo, wie geht es dir' } )

Um die Botschaft von KI und Menschen getrennt zu erhalten, führen Sie die Methode „load_memory_variables()“ aus:

Erinnerung. Load_memory_variables ( { } )

Speichern Sie die Zusammenfassung der Konversation im Speicher und führen Sie dann den Speicher aus, um die Zusammenfassung des Chats/der Konversation auf dem Bildschirm anzuzeigen:

Mitteilungen = Erinnerung. chat_memory . Mitteilungen

previous_summary = „“

Erinnerung. Vorhersage_neue_Zusammenfassung ( Mitteilungen , previous_summary )

Schritt 3: Konversationszusammenfassung mit vorhandenen Nachrichten verwenden

Der Benutzer kann mit der ChatMessageHistory()-Nachricht auch die Zusammenfassung der Konversation abrufen, die außerhalb der Klasse oder des Chats stattfindet. Diese Nachrichten können dem Speicher hinzugefügt werden, sodass automatisch eine Zusammenfassung der gesamten Konversation erstellt werden kann:

Geschichte = ChatMessageHistory ( )

Geschichte. add_user_message ( 'Hi' )

Geschichte. add_ai_message ( 'Hallo!' )

Erstellen Sie das Modell wie LLM mit der OpenAI()-Methode, um die vorhandenen Nachrichten im auszuführen chat_memory Variable:

Erinnerung = KonversationZusammenfassungSpeicher. from_messages (
llm = OpenAI ( Temperatur = 0 ) ,
chat_memory = Geschichte ,
return_messages = WAHR
)

Führen Sie den Speicher mithilfe des Puffers aus, um die Zusammenfassung der vorhandenen Nachrichten zu erhalten:

Erinnerung. Puffer

Führen Sie den folgenden Code aus, um das LLM zu erstellen, indem Sie den Pufferspeicher mithilfe der Chat-Nachrichten konfigurieren:

Erinnerung = KonversationZusammenfassungSpeicher (
llm = OpenAI ( Temperatur = 0 ) ,
Puffer = '''Der Mensch fragt die Fragemaschine nach sich selbst
Das System antwortet, dass KI für das Gute geschaffen sei, da sie Menschen dabei helfen könne, ihr Potenzial auszuschöpfen.
,
chat_memory = Geschichte ,
return_messages = WAHR
)

Schritt 4: Konversationszusammenfassung in Kette verwenden

Im nächsten Schritt wird der Prozess der Verwendung der Konversationszusammenfassung in einer Kette mithilfe des LLM erläutert:

aus langchain. lms importieren OpenAI
aus langchain. Ketten importieren Konversationskette
llm = OpenAI ( Temperatur = 0 )
Konversation_mit_Zusammenfassung = Konversationskette (
llm = llm ,
Erinnerung = KonversationZusammenfassungSpeicher ( llm = OpenAI ( ) ) ,
ausführlich = WAHR
)
Konversation_mit_Zusammenfassung. vorhersagen ( Eingang = 'Hallo, wie geht es dir' )

Hier haben wir mit dem Aufbau von Ketten begonnen, indem wir das Gespräch mit einer höflichen Anfrage begonnen haben:

Steigen Sie nun in das Gespräch ein, indem Sie etwas mehr über die letzte Ausgabe fragen, um sie näher zu erläutern:

Konversation_mit_Zusammenfassung. vorhersagen ( Eingang = 'Erzähle mir mehr darüber!' )

Die letzte Nachricht hat das Model mit einer ausführlichen Einführung in die KI-Technologie bzw. den Chatbot erklärt:

Extrahieren Sie einen interessanten Punkt aus der vorherigen Ausgabe, um die Konversation in eine bestimmte Richtung zu lenken:

Konversation_mit_Zusammenfassung. vorhersagen ( Eingang = „Erstaunlich. Wie gut ist dieses Projekt?“ )

Hier erhalten wir detaillierte Antworten vom Bot mithilfe der Speicherbibliothek für Konversationszusammenfassungen:

Dabei geht es um die Verwendung der Konversationszusammenfassung in LangChain.

Abschluss

Um die Konversationszusammenfassungsnachricht in LangChain zu verwenden, installieren Sie einfach die Module und Frameworks, die zum Einrichten der Umgebung erforderlich sind. Sobald die Umgebung festgelegt ist, importieren Sie die KonversationZusammenfassungSpeicher Bibliothek zum Erstellen von LLMs mit der OpenAI()-Methode. Verwenden Sie anschließend einfach die Konversationszusammenfassung, um die detaillierte Ausgabe aus den Modellen zu extrahieren, die die Zusammenfassung der vorherigen Konversation darstellt. In diesem Leitfaden wurde der Prozess der Verwendung des Konversationszusammenfassungsspeichers mithilfe des LangChain-Moduls näher erläutert.