开始体验:进行 LLM 查询,创建 AI 代理的原型,无需编码

本 5 分钟无代码教程介绍了 Azure Databricks 上的生成 AI。 你将使用 AI Playground 执行以下操作:

  • 查询大型语言模型(LLM),并对比结果以便更直观地进行比较
  • 构建工具调用 AI 代理的原型
  • 将您的代理导出为代码
  • 可选:使用检索扩充生成(RAG) 创建问答聊天机器人原型

在您开始之前

确保工作区可以访问以下内容:

步骤 1:使用 AI Playground 查询 LLM

使用 AI Playground 在聊天界面中查询 LLM。

  1. 在工作区中,选择 Playground
  2. 键入问题,例如“什么是 RAG?”。

添加新 LLM 以并行比较响应:

  1. 在右上角,选择 + 以添加用于比较的模型。
  2. 在新窗格中,使用下拉列表选择器选择其他模型。
  3. 选中 “同步 ”复选框以同步查询。
  4. 尝试新的提示,例如“什么是复合 AI 系统?”,以便同时查看两个响应。

AI游乐场 继续测试和比较不同的 LLM,以帮助你选择用于构建人工智能代理的最佳方案。

步骤 2:构建工具调用 AI 代理的原型

工具不仅仅允许 LLM 生成语言。 工具可以查询外部数据、运行代码并执行其他作。 AI Playground 提供一个无代码选项,用于原型工具调用代理:

  1. 在 Playground 中,选择 标记为“已启用工具”的模型。

    选择调用工具的 LLM

  2. 选择 “工具>+ 添加”工具 ,然后选择内置的 Unity 目录函数 system.ai.python_exec

    此函数允许代理运行任意 Python 代码。

    选择托管函数工具

  3. 提出一个涉及生成或运行 Python 代码的问题。 可以在提示句式上尝试不同的变体。 如果添加多个工具,LLM 会选择相应的工具来生成响应。

    使用托管函数工具制作 LLM 原型

步骤 3:导出您的代理为代码

在 AI Playground 中测试代理后,选择“ 导出 ”以将代理导出到 Python 笔记本。

Python 笔记本包含用于定义代理并将其部署到模型服务终结点的代码。

可选:创建 RAG 问答机器人的原型

如果在工作区中设置了矢量搜索索引,则可以创建问答机器人的原型。 这种类型的代理使用矢量搜索索引中的文档来根据这些文档回答问题。

  1. 单击 “工具>+ 添加”工具。 然后选择矢量搜索索引。

    选择矢量搜索工具

  2. 提出与文档相关的问题。 代理可以使用向量索引查找相关信息,并引用其答案中使用的任何文档。

    使用矢量搜索工具制作 LLM 原型

若要设置矢量搜索索引,请参阅 创建矢量搜索索引

后续步骤