So verwenden Sie die LangChain LLMChain-Funktion in Python

So Verwenden Sie Die Langchain Llmchain Funktion In Python



LangChain verfügt über eine Vielzahl von Modulen zum Erstellen von Sprachmodellanwendungen. Anwendungen können durch die Kombination von Modulen komplizierter oder durch die Verwendung eines einzelnen Moduls vereinfacht werden. Der Aufruf eines LLM für eine bestimmte Eingabe ist die wichtigste LangChain-Komponente.

Ketten funktionieren nicht nur für einen einzelnen LLM-Aufruf; Dabei handelt es sich um Sammlungen von Aufrufen entweder an ein LLM oder ein anderes Dienstprogramm. End-to-End-Ketten für weit verbreitete Anwendungen werden von LangChain zusammen mit einer Standard-Ketten-API und zahlreichen Tool-Integrationen bereitgestellt.

Die Flexibilität und Fähigkeit, mehrere Elemente zu einer einzigen Entität zu verknüpfen, kann nützlich sein, wenn wir eine Kette entwerfen möchten, die Benutzereingaben akzeptiert, sie mithilfe einer PromptTemplate einrichtet und das generierte Ergebnis dann an ein LLM liefert.







Dieser Artikel hilft Ihnen dabei, die Verwendung einer LangChain-LLMchain-Funktion in Python zu verstehen.



Beispiel: Verwendung der LLMchain-Funktion in LangChain

Wir haben darüber gesprochen, was Ketten sind. Jetzt sehen wir eine praktische Demonstration dieser Ketten, die in einem Python-Skript implementiert sind. In diesem Beispiel verwenden wir die einfachste LangChain-Kette, nämlich LLMchain. Es enthält ein PromptTemplate und ein LLM und verkettet diese, um eine Ausgabe zu generieren.



Um mit der Umsetzung des Konzepts zu beginnen, müssen wir einige erforderliche Bibliotheken installieren, die nicht in der Python-Standardbibliothek enthalten sind. Die Bibliotheken, die wir installieren müssen, sind LangChain und OpenAI. Wir installieren die LangChain-Bibliothek, da wir sowohl deren LLMchain-Modul als auch das PromptTemplate verwenden müssen. Mit der OpenAI-Bibliothek können wir die OpenAI-Modelle verwenden, um die Ausgaben vorherzusagen, d. h. GPT-3.





Um die LangChain-Bibliothek zu installieren, führen Sie den folgenden Befehl auf dem Terminal aus:

$ pip Langchain installieren

Installieren Sie die OpenAI-Bibliothek mit dem folgenden Befehl:



$ pip openai installieren

Sobald die Installationen abgeschlossen sind, können wir mit der Arbeit am Hauptprojekt beginnen.

aus langchain. Aufforderungen importieren PromptTemplate

aus langchain. lms importieren OpenAI

importieren Du

Du . etwa [ „OPENAI_API_KEY“ ] = „sk-IHR API-SCHLÜSSEL“

Das Hauptprojekt beginnt mit dem Import der notwendigen Module. Daher importieren wir zunächst das PromptTemplate aus der Bibliothek „langchain.prompts“. Anschließend importieren wir die OpenAI aus der Bibliothek „langchain.llms“. Als nächstes importieren wir das „os“, um die Umgebungsvariable festzulegen.

Zunächst legen wir den OpenAI-API-Schlüssel als Umgebungsvariable fest. Die Umgebungsvariable ist eine Variable, die aus einem Namen und einem Wert besteht und auf unserem Betriebssystem festgelegt wird. Das „os.environ“ ist ein Objekt, das zur Zuordnung der Umgebungsvariablen verwendet wird. Also nennen wir die „os.environ“. Der Name, den wir für den API-Schlüssel festlegen, ist OPENAI_API_KEY. Anschließend weisen wir den API-Schlüssel als Wert zu. Der API-Schlüssel ist für jeden Benutzer einzigartig. Wenn Sie dieses Codeskript üben, schreiben Sie also Ihren geheimen API-Schlüssel.

llm = OpenAI ( Temperatur = 0,9 )

prompt = PromptTemplate (

Eingabevariablen = [ 'Produkte' ] ,

Vorlage = „Wie würde eine Marke heißen, die {Produkte} verkauft?“ ,

)

Nachdem der Schlüssel nun als Umgebungsvariable festgelegt ist, initialisieren wir einen Wrapper. Stellen Sie die Temperatur für die OpenAI GPT-Modelle ein. Die Temperatur ist ein Merkmal, das uns hilft zu bestimmen, wie unvorhersehbar die Reaktion sein wird. Je höher der Temperaturwert, desto unregelmäßiger sind die Reaktionen. Den Temperaturwert stellen wir hier auf 0,9 ein. Somit erhalten wir die zufälligsten Ergebnisse.

Anschließend initialisieren wir eine PromptTemplate-Klasse. Wenn wir das LLM verwenden, generieren wir eine Eingabeaufforderung aus der Eingabe des Benutzers und geben sie dann an das LLM weiter, anstatt die Eingabe direkt an das LLM zu senden, was eine harte Codierung erfordert (eine Eingabeaufforderung ist eine Eingabe, die wir vom LLM übernommen haben). Benutzer und auf dem das definierte KI-Modell eine Antwort erstellen soll). Also initialisieren wir das PromptTemplate. Dann definieren wir in den geschweiften Klammern die input_variable als „Produkte“ und der Vorlagentext lautet „Wie würde eine Marke heißen, die {Produkte} verkauft?“ Die Benutzereingabe sagt aus, was die Marke tut. Anschließend wird die Eingabeaufforderung basierend auf diesen Informationen formatiert.

aus langchain. Ketten importieren LLMChain

Kette = LLMChain ( llm = llm , prompt = prompt )

Nachdem unser PromptTemplate nun formatiert ist, besteht der nächste Schritt darin, eine LLMchain zu erstellen. Importieren Sie zunächst das LLMchain-Modul aus der Bibliothek „langchain.chain“. Anschließend erstellen wir eine Kette, indem wir die Funktion LLMchain() aufrufen, die die Benutzereingaben entgegennimmt und die Eingabeaufforderung damit formatiert. Abschließend sendet es die Antwort an das LLM. Es verbindet also PromptTemplate und LLM.

drucken ( Kette. laufen ( 'Kunstbedarf' ) )

Um die Kette auszuführen, rufen wir die Methode chain.run() auf und stellen die Benutzereingabe als Parameter bereit, der als „Art Supplies“ definiert ist. Anschließend übergeben wir diese Methode an die Python-Funktion print(), um das vorhergesagte Ergebnis auf der Python-Konsole anzuzeigen.

Das KI-Modell liest die Eingabeaufforderung und reagiert darauf.

Da wir nach dem Namen einer Marke gefragt haben, die Künstlerbedarf verkauft, ist der vom KI-Modell vorhergesagte Name im folgenden Schnappschuss zu sehen:

Dieses Beispiel zeigt uns die LLMchaining, wenn eine einzelne Eingabevariable bereitgestellt wird. Dies ist auch bei Verwendung mehrerer Variablen möglich. Dazu müssen wir lediglich ein Wörterbuch mit Variablen erstellen, um sie insgesamt einzugeben. Mal sehen, wie das funktioniert:

aus langchain. Aufforderungen importieren PromptTemplate

aus langchain. lms importieren OpenAI

importieren Du

Du . etwa [ „OPENAI_API_KEY“ ] = „sk- Your-API-KEY“

llm = OpenAI(temperatur=0,9)

prompt = PromptTemplate(

input_variables=['
Marke ',' Produkt '],

template='
Wie würde der Name lauten? { Marke } das verkauft { Produkt } ? ',

)

aus langchain.chains importieren Sie LLMChain

chain = LLMChain(llm=llm, prompt=prompt)

print(chain.run({

'Marke': '
Kunstbedarf ',

'Produkt': '
Farben '

}))

Der Code ähnelt dem vorherigen Beispiel, außer dass wir zwei Variablen in der Prompt-Vorlagenklasse übergeben müssen. Erstellen Sie also ein Wörterbuch mit Eingabevariablen. Die langen Klammern stellen ein Wörterbuch dar. Hier haben wir zwei Variablen – „Marke“ und „Produkt“ – die durch ein Komma getrennt sind. Der von uns bereitgestellte Vorlagentext lautet nun „Wie würde die Marke {Marke} heißen, die das Produkt {Produkt} verkauft?“ Somit sagt das KI-Modell einen Namen voraus, der sich auf diese beiden Eingabevariablen konzentriert.

Anschließend erstellen wir eine LLMchain, die die Benutzereingabe mit der Aufforderung formatiert, die Antwort an LLM zu senden. Um diese Kette auszuführen, verwenden wir die Methode chain.run() und übergeben das Variablenwörterbuch mit der Benutzereingabe als „Marke“: „Kunstbedarf“ und „Produkt“ als „Farben“. Anschließend übergeben wir diese Methode an die Python-Funktion print(), um die erhaltene Antwort anzuzeigen.

Das Ausgabebild zeigt das vorhergesagte Ergebnis:

Abschluss

Ketten sind die Bausteine ​​von LangChain. In diesem Artikel wird das Konzept der Verwendung der LLMchain in LangChain erläutert. Wir haben eine Einführung in LLMchain gegeben und die Notwendigkeit dargestellt, sie im Python-Projekt einzusetzen. Anschließend führten wir eine praktische Veranschaulichung durch, die die Implementierung der LLMchain durch die Verbindung von PromptTemplate und LLM demonstriert. Sie können diese Ketten mit einer einzelnen Eingabevariablen sowie mehreren vom Benutzer bereitgestellten Variablen erstellen. Die generierten Antworten aus dem GPT-Modell werden ebenfalls bereitgestellt.