Skip to content

function call

4. 方式三:使用 function call 模式调用 LLM

加入你与 LLM 的交互仅仅是文本对话,那么 RSC 并不能发挥多大作用。

实际上,RSC 的价值在于,我们可以预定义界面组件,然后根据 function call 或 tool call 的返回,去调用对应的函数,然后显示多样化的组件。

假设,我们要创建一个航班助理机器人,回答用户的问题。在用户要求航班信息时,由 LLM 根据用户的提问形成调用参数。然后,我们调用相关 API 服务查询航班信息。最后以预设的界面组件回复。

如下这一示例与前述的不同是:

  • 对话中,如果用户提问相关信息时,LLM 采用 function call 模式,即返回调用函数的「输入参数」;
  • 有了输入参数后,AI SDK 协助完成对响应函数的调用;
  • 使用自定义的预设界面组件,同样以流式输出将界面输出到页面。

用 LangSmith 进行 LLM 调用观测

在下代码示例中,为了更好地观测模型的调用,代码中接入了 LangChain 的 LangSmith 平台。

4.1 在 RSC 中配置 function call 模式

新建 lib/airsc/function_actions.tsx 如下,与之前的主要变化是加亮的部分。

这个部分指示 LLM 根据用户的对话在需要时采用 function call 模式,例如如果用户询问航班信息,则将用户对话中的航班代码解析出来。

然后,在 render 部分,我们查询航班信息,并用界面组件将之显示出来。这样,AI SDK 返回的就是一个界面组件。

注意 render 的函数是一个生成器函数(Generator function)。参考文档见:Tools and Function Calls with React Server Components

关于 Render()的说明

注意:Render() 仅支持兼容OpenAI SDK的模型/提供商。

render可用来返回 React 组件。你可以使用几种(docs):

  • () => ReactNode - 返回 React Node 的函数
  • async () => ReactNode - 返回 React Node 的异步函数
  • function* () {} - 返回 React Node 的生成器函数。
  • async function* () {} - 返回 React Node 的异步生成器函数。

如果你使用生成器函数,你可以 yield React Nodes,它们将作为客户端的不同更新发送。这对于加载状态、代理、多步骤行为非常强大。

如果你使用生成器(generator)签名,你可以使用 yield 关键字来产生(yield)React节点,并且这些节点会被作为独立的更新发送给客户端。

在JavaScript中,生成器是一种特殊类型的函数,它可以在执行过程中暂停和恢复。yield 关键字在生成器函数中使用,用于暂停函数执行,并返回一个值。

在这里,生成器可以用于创建一个可以产生多个React节点的函数。每次调用 yield,一个新的React节点就会被发送给客户端。这对于创建加载状态或者需要多步骤的行为非常有用,因为你可以在每一步产生一个新的React节点,而不需要一次性产生所有的节点。

(说明:Vercel AI SDK 官方提供的代码示例中使用的是 tools,但各模型均未能解析得到航班代码,改用 function call 可以成功运行。)

tsx
import { OpenAI } from "openai";
import { createAI, getMutableAIState, render } from "ai/rsc";
import { z } from "zod";
import { wrapOpenAI } from "langsmith/wrappers";

import { AIStateType, UIStateType } from "./type_helper";
import { getFlightInfo } from "./mockup_helper";
import { Spinner, FlightCard } from "@/components/rscui";

// LangSmith: https://docs.smith.langchain.com/tracing/integrations/typescript
const openai = wrapOpenAI(new OpenAI({
  apiKey: process.env.OPENAI_API_KEY,
}));

async function submitUserMessage(userInput: string):Promise<UIStateType> {
  'use server';

  const aiState = getMutableAIState<typeof AI>();

  // Update the AI state with the new user message.
  aiState.update([
    ...aiState.get(),
    {
      role: 'user',
      content: userInput,
    },
  ]);

  // The `render()` creates a generated, streamable UI.
  const ui = render({
    // model: 'gpt-3.5-turbo-0125',
    model: 'gpt-4-0125-preview',
    provider: openai,
    messages: [
      { role: 'system', content: 'You are a flight assistant' },
      { role: 'user', content: userInput }
    ],
    // `text` is called when an AI returns a text response (as opposed to a tool call).
    text: ({ content, done }) => {
      // When it's the final content, mark the state as done and ready for the client to access.
      if (done) {
        aiState.done([
          ...aiState.get(),
          {
            role: "assistant",
            content
          }
        ]);
      }

      return <p>{content}</p>
    },
    functions: {
      get_flight_info: {
        description: 'Get the information for a flight',
        parameters: z.object({
          flightNumber: z.string().describe('the number of the flight')
        }).required(),
        render: async function* ({ flightNumber }) {
          console.log("tools:", flightNumber)
          // Show a spinner on the client while we wait for the response.
          yield <Spinner/>

          // Fetch the flight information from an external API.
          const flightInfo = await getFlightInfo(flightNumber)

          // Update the final AI state.
          aiState.done([
            ...aiState.get(),
            {
              role: "function",
              name: "get_flight_info",
              // Content can be any string to provide context to the LLM in the rest of the conversation.
              content: JSON.stringify(flightInfo),
            }
          ]);

          // Return the flight card to the client.
          return <FlightCard flightInfo={flightInfo} />
        }
      }
    }
  })

  return {
    id: Date.now(),
    role: "assistant", //TODO: change to "function/tool" accordingly
    display: ui
  };
}

const initialAIState: AIStateType[] = [];

const initialUIState: UIStateType[] = [];

// AI is a provider you wrap your application with so you can access AI and UI state in your components.
export const AI = createAI({
  actions: {
    submitUserMessage
  },
  initialUIState,
  initialAIState
});

在如上代码中,在等待函数的输出时,我们使用了 <spinner />组件。更多可参考文档:createStreamableUI

显示航班信息,使用的是 <FlightCard flightInfo={flightInfo} />。示例代码如下:

tsx
// An example of a flight card component.
interface FlightInfo {
   flightNumber: string;
   departure: string;
   arrival: string;
}

export function FlightCard({ flightInfo }: { flightInfo: FlightInfo }) {
  return (
    <div className='border p-2 rounded-md bg-blue-50'>
      <h2>Flight Information</h2>
      <p>Flight Number: {flightInfo.flightNumber}</p>
      <p>Departure: {flightInfo.departure}</p>
      <p>Arrival: {flightInfo.arrival}</p>
    </div>
  );
}

4.2 编写 RSCFuncChat, Layout, Page

  1. RSCFuncChat 与之前的相似,变化是调用我们新编写的 function_actions.tsx

/components/rsc-func-chat.tsx

tsx
'use client'

import { useState } from 'react';
import { useUIState, useActions } from "ai/rsc";
import type { AI } from '@/lib/airsc/function_actions';
...
  1. 设置 layout

创建一个目录 flight,在其中加入 layout.tsx/page.tsx

/app/flight/layout.tsx

tsx
import { AI } from "@/lib/airsc/function_actions";

export default function Layout({
  children,
}: Readonly<{
  children: React.ReactNode;
}>) {
  return (
        <AI>
          {children}
        </AI>
  );
}
  1. 在页面中对话显示

/app/flight/page.tsx

tsx
import  RSCFuncChat  from '@/components/rsc-func-chat';

export const runtime = 'edge';

export default function Page() {
  return <RSCFuncChat />;
}

对话的界面效果如下:

4.3 使用 LangSmith 观测

为了能观测 LLM 的运行,我们使用了 LangSmith。在 smith.langchain.com ,我们注册获得 API KEY,并相应地修改 env.local

OPENAI_API_KEY=xxxxxxxxxx
LANGCHAIN_TRACING_V2=true
LANGCHAIN_API_KEY=xxxxxxxxxx

在调用 LLM 时,我们使用了 LangSmith 提供的 OpenAI 集成方式,文档可参看:[langsmith OpenAI integration] (https://docs.smith.langchain.com/tracing/integrations/typescript)。代码如下:

tsx
const openai = wrapOpenAI(new OpenAI({
  apiKey: process.env.OPENAI_API_KEY,
}));

我们进行的两次调用在 LangSmith 平台就可以看到具体的调用细节。

第一轮对话为常规对话

第二轮对话为函数调用

5. 小结

通过如上介绍与实力,你应该已经了解了 Vercel AI SDK 的调用方式,特别是采用了 RSC 之后的流式界面组件使用。之后,你可以接着根据文档继续探索与运用它。

资料来源:

Alang.AI - Make Great AI Applications