Wie erstellt man LLM und LLMChain in LangChain?

Wie Erstellt Man Llm Und Llmchain In Langchain



LangChain ist das Framework mit der Anwendung im Bereich Natural Language Processing oder NLP, um Modelle in menschenähnlichen Sprachen zu erstellen. Diese Modelle können von Menschen verwendet werden, um Antworten vom Modell zu erhalten oder wie jeder andere Mensch ein Gespräch zu führen. LangChain wird zum Aufbau von Ketten verwendet, indem jeder Satz in der Konversation gespeichert und weiter interagiert wird, indem er als Kontext verwendet wird.

Dieser Beitrag veranschaulicht den Prozess der Erstellung von LLM und LLMChain in LangChain.







Wie erstellt man LLM und LLMChain in LangChain?

Um LLM und LLMChain in LangChain zu erstellen, führen Sie einfach die aufgeführten Schritte aus:



Schritt 1: Module installieren

Installieren Sie zunächst das LangChain-Modul, um seine Bibliotheken zum Erstellen von LLMs und LLMChain zu verwenden:



pip langchain installieren





Ein weiteres Modul, das zum Erstellen von LLMs erforderlich ist, ist OpenAI und kann mit dem Befehl pip installiert werden:

pip openai installieren



Schritt 2: Richten Sie eine Umgebung ein

Richten Sie eine Umgebung mit dem OpenAI-API-Schlüssel aus ihrer Umgebung ein:

Importieren Sie uns
import getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')

Beispiel 1: Erstellen Sie LLMs mit LangChain

Das erste Beispiel besteht darin, die großen Sprachmodelle mithilfe von LangChain zu erstellen, indem OpenAI- und ChatOpenAI-Bibliotheken importiert und die Funktion llm() verwendet werden:

Schritt 1: Verwendung des LLM-Chat-Modells

Importieren Sie OpenAI- und ChatOpenAI-Module, um ein einfaches LLM mit der OpenAI-Umgebung von LangChain zu erstellen:

aus langchain.chat_models ChatOpenAI importieren

aus langchain.llms OpenAI importieren

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('Hallo!')

Das Modell hat mit der Antwort „Hallo“ geantwortet, wie im folgenden Screenshot unten dargestellt:

Die Funktion „predict()“ aus dem chat_model wird verwendet, um die Antwort vom Modell abzurufen:

chat_model.predict('Hallo!')

Die Ausgabe zeigt an, dass das Modell dem Benutzer zur Verfügung steht, der Fragen stellt:

Schritt 2: Textabfrage verwenden

Der Benutzer kann auch Antworten vom Modell erhalten, indem er den vollständigen Satz in die Textvariable eingibt:

text = „Was wäre ein guter Firmenname für ein Unternehmen, das bunte Socken herstellt?“

llm.predict(text)

Das Model hat mehrere Farbkombinationen für bunte Socken gezeigt:

Erhalten Sie die detaillierte Antwort des Modells mithilfe der Funktion „predict()“ mit den Farbkombinationen für die Socken:

chat_model.predict(text)

Schritt 3: Text mit Inhalt verwenden

Der Benutzer kann die Antwort mit einer kleinen Erklärung zur Antwort erhalten:

from langchain.schema import HumanMessage

text = „Was wäre ein guter Titel für ein Unternehmen, das farbenfrohe Kleidung herstellt?“
Nachrichten = [HumanMessage(content=text)]

llm.predict_messages(Nachrichten)

Das Model hat den Titel für das Unternehmen generiert, der „Creative Clothing Co“ lautet:

Sagen Sie die Nachricht voraus, um auch die Antwort auf den Titel des Unternehmens mit seiner Erklärung zu erhalten:

chat_model.predict_messages(Nachrichten)

Beispiel 2: Erstellen Sie LLMChain mit LangChain

Das zweite Beispiel unseres Leitfadens erstellt die LLMChain, um das Modell im Format der menschlichen Interaktion zu erhalten und alle Schritte aus dem vorherigen Beispiel zu kombinieren:

aus langchain.chat_models ChatOpenAI importieren
aus langchain.prompts.chat ChatPromptTemplate importieren
aus langchain.prompts.chat ChatPromptTemplate importieren
from langchain.prompts.chat import  SystemMessagePromptTemplatefrom langchain.prompts.chat import HumanMessagePromptTemplate
aus langchain.chains importieren Sie LLMChain
aus langchain.schema importieren BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def parse(self, text: str):
return text.strip().split(', ')

Erstellen Sie die Vorlage für das Chat-Modell, indem Sie eine detaillierte Erläuterung seiner Funktionsweise geben, und erstellen Sie dann die Funktion LLMChain(), die die Bibliotheken LLM, Ausgabeparser und chat_prompt enthält:

template = '''Du musst bei der Erstellung kommagetrennter Listen helfen
Holen Sie sich die Kategorie vom Benutzer und generieren Sie eine durch Kommas getrennte Liste mit fünf Objekten
Das einzige Ding sollte das Objekt aus der Kategorie „“ sein.
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = „{text}“
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Konfigurieren Sie LLMChain mit der Struktur der Abfrage
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
Kette = LLMChain(
llm=ChatOpenAI(),
prompt=chat_prompt,
Output_parser=CommaSeparatedListOutputParser()
)
chain.run('Farben')

Das Modell hat die Antwort mit der Liste der Farben bereitgestellt, da die Kategorie nur 5 in der Eingabeaufforderung angegebene Objekte enthalten sollte:

Dabei geht es um den Aufbau des LLM und der LLMChain in LangChain.

Abschluss

Um LLM und LLMChain mit LangChain zu erstellen, installieren Sie einfach die Module LangChain und OpenAI, um eine Umgebung mithilfe des API-Schlüssels einzurichten. Erstellen Sie anschließend das LLM-Modell mithilfe von chat_model, nachdem Sie die Eingabeaufforderungsvorlage für eine einzelne Abfrage bis hin zu einem vollständigen Chat erstellt haben. LLMChain wird verwendet, um Ketten aller Beobachtungen im Gespräch zu erstellen und sie als Kontext der Interaktion zu verwenden. Dieser Beitrag veranschaulicht den Prozess der Erstellung von LLM und LLMChain mithilfe des LangChain-Frameworks.