Pipeline
PipelineAI允许您在云中规模运行您的ML模型。它还提供API访问多个LLM模型 (opens in a new tab)。
本教程介绍了如何使用PipelineAI (opens in a new tab)来使用Langchain。
安装pipeline-ai#
使用pip install pipeline-ai
安装pipeline-ai
库是使用PipelineAI
API,也称为Pipeline Cloud
所必需的。
# Install the package
!pip install pipeline-ai
导入#
import os
from langchain.llms import PipelineAI
from langchain import PromptTemplate, LLMChain
设置环境API密钥#
Make sure to get your API key from PipelineAI. Check out the cloud quickstart guide (opens in a new tab). You’ll be given a 30 day free trial with 10 hours of serverless GPU compute to test different models.
os.environ["PIPELINE_API_KEY"] = "YOUR_API_KEY_HERE"
实例化PipelineAI #
当实例化PipelineAI时,您需要指定要使用的管道的ID或标签,例如 pipeline_key = "public/gpt-j:base"
。
然后,您可以选择传递其他与管道特定的关键字参数:
llm = PipelineAI(pipeline_key="YOUR_PIPELINE_KEY", pipeline_kwargs={...})
问答提示模板#
我们将创建一个问答提示模板。
template = """Question: {question}
Answer: Let's think step by step."""
prompt = PromptTemplate(template=template, input_variables=["question"])
初始化LLMChain#
llm_chain = LLMChain(prompt=prompt, llm=llm)
Run the LLMChain#
提供一个问题并运行LLMChain。
question = "What NFL team won the Super Bowl in the year Justin Beiber was born?"
llm_chain.run(question)