Predictionguard

LangChain

预测保护 Prediction-guard#

本页面介绍如何在LangChain中使用预测保护生态系统。它分为两个部分:安装和设置,然后是对特定预测保护包装器的引用。

安装和设置#

  • 使用 pip install predictionguard 安装Python SDK。

  • 获取预测保护访问令牌(如此处所述here (opens in a new tab)),并将其设置为环境变量(PREDICTIONGUARD_TOKEN

LLM包装器#

现在存在一个Prediction Guard LLM包装器,您可以使用它来访问

from langchain.llms import PredictionGuard
 

在初始化LLM时,您可以提供您的Prediction Guard“代理”的名称作为参数:

pgllm = PredictionGuard(name="your-text-gen-proxy")
 

或者,您可以使用Prediction Guard的默认代理来进行SOTA LLM:

pgllm = PredictionGuard(name="default-text-gen")
 

您还可以直接提供访问令牌作为参数:

pgllm = PredictionGuard(name="default-text-gen", token="<your access token>")
 

示例用法#

LLM包装器的基本用法:

from langchain.llms import PredictionGuard
 
pgllm = PredictionGuard(name="default-text-gen")
pgllm("Tell me a joke")
 

使用Prediction Guard包装器进行基本LLM链接:

from langchain import PromptTemplate, LLMChain
from langchain.llms import PredictionGuard
 
template = """Question: {question}
 
Answer: Let's think step by step."""
prompt = PromptTemplate(template=template, input_variables=["question"])
llm_chain = LLMChain(prompt=prompt, llm=PredictionGuard(name="default-text-gen"), verbose=True)
 
question = "What NFL team won the Super Bowl in the year Justin Beiber was born?"
 
llm_chain.predict(question=question)