OpenAI推出的函数调用(function calling)功能其实是一个巨大的创新。它面向开发者,技术性强,但所有从业者都应理解。
下面我们深入浅出地解释它的原理和能力。
从本质上讲,对于LLM的开发者,这就像是为ChatGPT加上了插件。这让工程师为大脑加上了手脚,增加了它可以做的事情。
后面有具体例子:
基本流程如下,形成一个循环:
开发者
给LL发
指令并提供工具列表(function)。
LLM返回如何执行
工具和对应的参数。
根据LLM返回的
工具和参数,在本地执行
工具,获取执行结果。
利用这个结果重新组织
指令,告知LLM这次的执行结果,再决定下次应该怎么执行和参数是什么 不断循环。
以“为本公司客户数量最多的城市预约一个可容纳1万人的大会议厅”(简称命令
)为例,要完成这个任务,除了LLM,还需要三个工具:








如何配合LLM自动完成上述任务:

























































这样,对于用户来说,一句话就解决了这么复杂的问题。而且我们可以看到,随着过程的进行,命令的长度越来越长。这就是为什么OpenAI发布了能处理16K上下文的模型,让这样的复杂问题得以解决。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
暂无评论内容