我们的向量索引文件已经保存到数据湖,现在我们可以部署一个实例了。

-- 现在,我们可以把向量查询和大模型结合起来,
-- 提供一个新的函数 qa
!byzerllm setup single;
!byzerllm setup "num_gpus=0";

-- 加载向量数据
load delta.`ai_model.byzer_docs_vdb_model` as byzer_docs_vdb_model;

--- 部署
run command as LLM.`` where 
action="infer"
-- 配置查询节点向量数据的本地存储路径,方便后续清理
and localPathPrefix="/home/byzerllm/projects/byzer_docs_vdb_model"
and pretrainedModelType="qa"
and udfName="byzer_docs_qa"
and embeddingFunc="emb"
and chatFunc="llama_30b_chat"
and url="http://192.168.2.168:9003/model/predict"
and modelTable="byzer_docs_vdb_model";

启动后,你应该可以在 Ray Dashboard 的 Actors 页面看到一个名字为 byzer_docs_qa UDFMaster。

注意,你需要将 url 参数修改为你的大模型服务地址。

LLM 的参数,我们有如下 markdown 格式的表格:

参数名说明
action固定为 "infer"
localPathPrefix配置查询节点向量数据的本地存储路径,方便后续清理
pretrainedModelType固定为 "qa"
udfNameUDF 名称
embeddingFunc模型准备阶段启动的向量模型对应的函数
chatFunc模型准备阶段启动的大语言模型对应的函数
url大模型服务地址
modelTable向量索引表
Logo

更多推荐