Wie führt man LLMChains in LangChain aus?

Wie Fuhrt Man Llmchains In Langchain Aus



LangChain ist das Framework, das es Entwicklern ermöglicht, große Sprachmodelle oder Chat-Modelle zu erstellen, die von Menschen zum Extrahieren von Informationen verwendet werden können. Diese Modelle können für die Interaktion in natürlichen Sprachen verwendet werden, nachdem die Befehle verstanden wurden, um entsprechende Texte zu generieren. LLMs oder Chatbots verwenden Ketten zur Interaktion mit Menschen, indem sie die vorherigen Nachrichten als Beobachtungen speichern, um den Kontext des Chats zu erhalten.

Dieser Leitfaden veranschaulicht den Prozess der Ausführung von LLMChains in LangChain.

Wie führt man LLMChains in LangChain aus?

LangChain bietet die Funktionen oder Abhängigkeiten zum Erstellen von LLMChains mithilfe der LLMs/Chatbots und Eingabeaufforderungsvorlagen. Um den Prozess zum Erstellen und Ausführen der LLMChains in LangChain zu erlernen, folgen Sie einfach der folgenden Schritt-für-Schritt-Anleitung:







Schritt 1: Pakete installieren

Beginnen Sie zunächst mit dem Prozess, indem Sie das LangChain-Modul installieren, um seine Abhängigkeiten zum Erstellen und Ausführen von LLMChains zu erhalten:



pip langchain installieren



Installieren Sie das OpenAI-Framework mit dem Befehl pip, um die Bibliotheken dazu zu bringen, die OpenAI()-Funktion zum Erstellen von LLMs zu verwenden:





pip openai installieren

Nach der Installation der Module einfach Umgebung einrichten Variablen mithilfe des API-Schlüssels aus dem OpenAI-Konto:



importieren Du

importieren getpass

Du . etwa [ „OPENAI_API_KEY“ ] = getpass . getpass ( „OpenAI-API-Schlüssel:“ )

Schritt 2: Bibliotheken importieren

Sobald das Setup abgeschlossen ist und alle erforderlichen Pakete installiert sind, importieren Sie die erforderlichen Bibliotheken zum Erstellen der Eingabeaufforderungsvorlage. Anschließend erstellen Sie einfach das LLM mit der OpenAI()-Methode und konfigurieren die LLMChain mithilfe der LLMs und der Eingabeaufforderungsvorlage:

aus langchain importieren PromptTemplate

aus langchain importieren OpenAI

aus langchain importieren LLMChain

prompt_template = „Geben Sie mir einen guten Titel für das Unternehmen, das {Produkt} herstellt?“

llm = OpenAI ( Temperatur = 0 )

llm_chain = LLMChain (

llm = llm ,

prompt = PromptTemplate. von Vorlage ( prompt_template )

)

llm_chain ( 'farbenfrohe Kleider' )

Schritt 3: Ketten laufen lassen

Rufen Sie die Eingabeliste mit den verschiedenen vom Unternehmen hergestellten Produkten ab und führen Sie die Kette aus, um die Liste auf dem Bildschirm anzuzeigen:

Eingabeliste = [
{ 'Produkt' : „Socken“ } ,
{ 'Produkt' : 'Computer' } ,
{ 'Produkt' : 'Schuhe' }
]

llm_chain. anwenden ( Eingabeliste )

Führen Sie die Methode „generate()“ mit dem aus Eingabeliste mit LLMChains, um die Ausgabe im Zusammenhang mit der vom Modell generierten Konversation zu erhalten:

llm_chain. generieren ( Eingabeliste )

Schritt 4: Einzeleingabe verwenden

Fügen Sie ein weiteres Produkt hinzu, um die LLMChains mit nur einer einzigen Eingabe auszuführen, und sagen Sie dann die LLMChain voraus, um die Ausgabe zu generieren:

llm_chain. vorhersagen ( Produkt = „bunte Socken“ )

Schritt 5: Mehrere Eingaben verwenden

Erstellen Sie nun die Vorlage für die Verwendung mehrerer Eingaben zur Bereitstellung des Befehls für das Modell, bevor Sie die Kette ausführen:

Vorlage = „Erzähl mir einen {Adjektiv}-Witz über {Thema}.““
prompt = PromptTemplate ( Vorlage = Vorlage , Eingabevariablen = [ 'Adjektiv' , 'Thema' ] )
llm_chain = LLMChain ( prompt = prompt , llm = OpenAI ( Temperatur = 0 ) )

llm_chain. vorhersagen ( Adjektiv = 'traurig' , Thema = 'Enten' )

Schritt 6: Verwenden des Ausgabeparsers

In diesem Schritt wird die Ausgabeparser-Methode verwendet, um LLMChain auszuführen und die Ausgabe basierend auf der Eingabeaufforderung zu erhalten:

aus langchain. Ausgabeparser importieren CommaSeparatedListOutputParser

Ausgabeparser = CommaSeparatedListOutputParser ( )

Vorlage = „Listen Sie alle Farben eines Regenbogens auf“

prompt = PromptTemplate ( Vorlage = Vorlage , Eingabevariablen = [ ] , Ausgabeparser = Ausgabeparser )

llm_chain = LLMChain ( prompt = prompt , llm = llm )

llm_chain. vorhersagen ( )

Wenn Sie die Methode parse() verwenden, um die Ausgabe zu erhalten, wird eine durch Kommas getrennte Liste aller Farben im Regenbogen generiert:

llm_chain. vorhersagen_und_parsen ( )

Schritt 7: Initialisierung aus Strings

In diesem Schritt wird der Prozess der Verwendung einer Zeichenfolge als Eingabeaufforderung zum Ausführen von LLMChain mithilfe des LLM-Modells und der LLM-Vorlage erläutert:

Vorlage = „Erzähl mir einen {Adjektiv}-Witz über {Thema}““

llm_chain = LLMChain. from_string ( llm = llm , Vorlage = Vorlage )

Geben Sie die Werte der Variablen in der Zeichenfolgenaufforderung an, um die Ausgabe des Modells durch Ausführen von LLMChain zu erhalten:

llm_chain. vorhersagen ( Adjektiv = 'traurig' , Thema = 'Enten' )

Dabei geht es darum, die LLMChains mithilfe des LangChain-Frameworks auszuführen.

Abschluss

Um die LLMChains in LangChain zu erstellen und auszuführen, installieren Sie die Voraussetzungen wie Pakete und richten Sie die Umgebung mit dem API-Schlüssel von OpenAI ein. Anschließend importieren Sie die erforderlichen Bibliotheken zum Konfigurieren der Eingabeaufforderungsvorlage und des Modells für die Ausführung von LLMChain mithilfe der LangChain-Abhängigkeiten. Der Benutzer kann Ausgabeparser und Zeichenfolgenbefehle verwenden, um LLMChains auszuführen, wie im Handbuch gezeigt. In diesem Leitfaden wurde der gesamte Prozess der Ausführung der LLMChains in LangChain erläutert.