首页 » 博客 » 是新模型有时会出现略有不同的提示

是新模型有时会出现略有不同的提示

所有这些努力都得到了回报。目前,Kodee 完全覆盖了所有实时聊天请求的 50%,而且这一比例还在不断提高。

不同 GPT 版本的优缺点
切换到新版本的 GPT 非常简单。

如果直接调用 OpenAI,则只需更改处理程序或 API 调用中的模型信息。较新版本的 GPT 与 GPT-3.5 中使用的结构和格式向后兼容,因此您现有的提示、自定义知识库和函数应该可以无缝运行。除非您想利用 GPT-4 的增强功能,否则无需更改任何内容。

因此可能需要进行些调整

大约一年前,我们开始使用 OpenAI 的 GPT-3.5 对 LLM 进行测试。它速度快、成本低,但答案质量不够好,而且它不是为特征选择而设计的。

首先,我们尝试使用 Domains AI 代理进行函数调用。使用仅限 LLM 的聊天助手实现它虽然复杂但可行,而且我们学到了很多关于如何更好地使用函数调用的知识。

经过一些测试后,我们决定尝试对 GPT-3.5 模型进行微调,看看它能否为我们带来更好的结果。不幸的是,结果更糟。我们提供了一个非常小的数据集来微调模型,但感觉 LLM 失去了自己的知识,只使用了我们提供的 电话号码库 微调响应。因此,我们放弃了这个想法。

然后我们开始测试 GPT-4 版本,并立即看到了更好的结果。响应更好,并且函数在需要调用时被调用。

与前代相比,GPT-4 在上下文理解和整体性能方面都有了显著的改进。例如,研究人员声称 GPT-4 的参数比 GPT-3.5 多 5 到 10 倍。

我们亲眼见证了这一点;GPT-4 的准确率提高了几倍,而且对上下文的理解也更好。

以下是 GPT-4 优势的一个例子:它不会盲目地执行查询,

而是评估更广泛的背景以确保任务正确完成

GPT-4 聊天示例。
然而,GPT-4 的成本大约是 GPT-3.5 的 10 倍,生成答案 如何在 Wix 中创建规范标签 需要大约 20 秒的时间,比 GPT-3.5 长得多。很可能是因为数据集急剧增加。

我们选择继续使用更便宜、更快的 GPT-3.5。令我们惊讶和高兴的是,OpenAI 在几周后,即 2023 年 11 月推出了 GPT-4 Turbo。

GPT-4 Turbo 针对更低的延迟和更高的吞吐量进行了优化,还具有令人印象深刻的 128k 上下文窗口,使其能够保存和调用更长的聊天记录,并减少出现错误或偏离主题的回复的可能性。除了速度更快、更精确之外,GPT-4 Turbo 的成本是 GPT-4 的一半。

第二天,我们开始测试 GPT-4 Turbo 并评估其实施 选择加入列表 可行性。事实证明,这对我们来说是完美的解决方案:GPT-4 Turbo 的性能与 GPT-4 一样好,甚至更好,但只需大约七到八秒即可给出答案。由于我们已但是新模型有时会 经尝试过不同的 GPT 模型,因此我们已做好了立即进行更改的准备。