Dieser Leitfaden veranschaulicht den Prozess der Verwendung einer Konversationszusammenfassung in LangChain.
Wie verwende ich eine Konversationszusammenfassung in LangChain?
LangChain bietet Bibliotheken wie ConversationSummaryMemory, die die vollständige Zusammenfassung des Chats oder der Konversation extrahieren können. Es kann verwendet werden, um die wichtigsten Informationen der Konversation abzurufen, ohne alle im Chat verfügbaren Nachrichten und Texte lesen zu müssen.
Um den Prozess der Verwendung der Konversationszusammenfassung in LangChain zu erlernen, führen Sie einfach die folgenden Schritte aus:
Schritt 1: Module installieren
Installieren Sie zunächst das LangChain-Framework, um seine Abhängigkeiten oder Bibliotheken mithilfe des folgenden Codes abzurufen:
pip langchain installieren
Installieren Sie nun die OpenAI-Module nach der Installation von LangChain mit dem Befehl pip:
pip openai installieren
Nach der Installation der Module einfach Umgebung einrichten Verwenden Sie den folgenden Code, nachdem Sie den API-Schlüssel vom OpenAI-Konto erhalten haben:
importieren Duimportieren getpass
Du . etwa [ „OPENAI_API_KEY“ ] = getpass . getpass ( „OpenAI-API-Schlüssel:“ )
Schritt 2: Gesprächszusammenfassung verwenden
Beginnen Sie mit der Verwendung der Konversationszusammenfassung, indem Sie die Bibliotheken aus LangChain importieren:
aus langchain. Erinnerung importieren KonversationZusammenfassungSpeicher , ChatMessageHistoryaus langchain. lms importieren OpenAI
Konfigurieren Sie den Speicher des Modells mit den Methoden ConversationSummaryMemory() und OpenAI() und speichern Sie die Daten darin:
Erinnerung = KonversationZusammenfassungSpeicher ( llm = OpenAI ( Temperatur = 0 ) )Erinnerung. save_context ( { 'Eingang' : 'Hallo' } , { 'Ausgabe' : 'Hi' } )
Führen Sie den Speicher aus, indem Sie die aufrufen load_memory_variables() Methode zum Extrahieren der Daten aus dem Speicher:
Erinnerung. Load_memory_variables ( { } )
Der Benutzer kann die Daten auch in Form einer Konversation erhalten, wie bei jeder Entität mit einer separaten Nachricht:
Erinnerung = KonversationZusammenfassungSpeicher ( llm = OpenAI ( Temperatur = 0 ) , return_messages = WAHR )Erinnerung. save_context ( { 'Eingang' : 'Hallo' } , { 'Ausgabe' : 'Hallo, wie geht es dir' } )
Um die Botschaft von KI und Menschen getrennt zu erhalten, führen Sie die Methode „load_memory_variables()“ aus:
Erinnerung. Load_memory_variables ( { } )
Speichern Sie die Zusammenfassung der Konversation im Speicher und führen Sie dann den Speicher aus, um die Zusammenfassung des Chats/der Konversation auf dem Bildschirm anzuzeigen:
Mitteilungen = Erinnerung. chat_memory . Mitteilungenprevious_summary = „“
Erinnerung. Vorhersage_neue_Zusammenfassung ( Mitteilungen , previous_summary )
Schritt 3: Konversationszusammenfassung mit vorhandenen Nachrichten verwenden
Der Benutzer kann mit der ChatMessageHistory()-Nachricht auch die Zusammenfassung der Konversation abrufen, die außerhalb der Klasse oder des Chats stattfindet. Diese Nachrichten können dem Speicher hinzugefügt werden, sodass automatisch eine Zusammenfassung der gesamten Konversation erstellt werden kann:
Geschichte = ChatMessageHistory ( )Geschichte. add_user_message ( 'Hi' )
Geschichte. add_ai_message ( 'Hallo!' )
Erstellen Sie das Modell wie LLM mit der OpenAI()-Methode, um die vorhandenen Nachrichten im auszuführen chat_memory Variable:
Erinnerung = KonversationZusammenfassungSpeicher. from_messages (llm = OpenAI ( Temperatur = 0 ) ,
chat_memory = Geschichte ,
return_messages = WAHR
)
Führen Sie den Speicher mithilfe des Puffers aus, um die Zusammenfassung der vorhandenen Nachrichten zu erhalten:
Erinnerung. Puffer
Führen Sie den folgenden Code aus, um das LLM zu erstellen, indem Sie den Pufferspeicher mithilfe der Chat-Nachrichten konfigurieren:
Erinnerung = KonversationZusammenfassungSpeicher (llm = OpenAI ( Temperatur = 0 ) ,
Puffer = '''Der Mensch fragt die Fragemaschine nach sich selbst
Das System antwortet, dass KI für das Gute geschaffen sei, da sie Menschen dabei helfen könne, ihr Potenzial auszuschöpfen. ,
chat_memory = Geschichte ,
return_messages = WAHR
)
Schritt 4: Konversationszusammenfassung in Kette verwenden
Im nächsten Schritt wird der Prozess der Verwendung der Konversationszusammenfassung in einer Kette mithilfe des LLM erläutert:
aus langchain. lms importieren OpenAIaus langchain. Ketten importieren Konversationskette
llm = OpenAI ( Temperatur = 0 )
Konversation_mit_Zusammenfassung = Konversationskette (
llm = llm ,
Erinnerung = KonversationZusammenfassungSpeicher ( llm = OpenAI ( ) ) ,
ausführlich = WAHR
)
Konversation_mit_Zusammenfassung. vorhersagen ( Eingang = 'Hallo, wie geht es dir' )
Hier haben wir mit dem Aufbau von Ketten begonnen, indem wir das Gespräch mit einer höflichen Anfrage begonnen haben:
Steigen Sie nun in das Gespräch ein, indem Sie etwas mehr über die letzte Ausgabe fragen, um sie näher zu erläutern:
Konversation_mit_Zusammenfassung. vorhersagen ( Eingang = 'Erzähle mir mehr darüber!' )Die letzte Nachricht hat das Model mit einer ausführlichen Einführung in die KI-Technologie bzw. den Chatbot erklärt:
Extrahieren Sie einen interessanten Punkt aus der vorherigen Ausgabe, um die Konversation in eine bestimmte Richtung zu lenken:
Konversation_mit_Zusammenfassung. vorhersagen ( Eingang = „Erstaunlich. Wie gut ist dieses Projekt?“ )Hier erhalten wir detaillierte Antworten vom Bot mithilfe der Speicherbibliothek für Konversationszusammenfassungen:
Dabei geht es um die Verwendung der Konversationszusammenfassung in LangChain.
Abschluss
Um die Konversationszusammenfassungsnachricht in LangChain zu verwenden, installieren Sie einfach die Module und Frameworks, die zum Einrichten der Umgebung erforderlich sind. Sobald die Umgebung festgelegt ist, importieren Sie die KonversationZusammenfassungSpeicher Bibliothek zum Erstellen von LLMs mit der OpenAI()-Methode. Verwenden Sie anschließend einfach die Konversationszusammenfassung, um die detaillierte Ausgabe aus den Modellen zu extrahieren, die die Zusammenfassung der vorherigen Konversation darstellt. In diesem Leitfaden wurde der Prozess der Verwendung des Konversationszusammenfassungsspeichers mithilfe des LangChain-Moduls näher erläutert.