AI量化实验室

 找回密码
 免费注册
查看: 513|回复: 0

第一性原理,看大模型周边框架。

[复制链接]

86

主题

183

帖子

958

积分

管理员

积分
958
发表于 2024-10-16 12:02:11 | 显示全部楼层 |阅读模式
一性原理,看大模型周边框架。

两个比较大的框架:langchain和llamaindex。

且对国内生态不友好。

最关键的问题是,它们到底做了什么呢?封装了不少东西,新手看得云里雾里,还以为是LLM就应该这么复杂呢。

其实,大模型api,尤其是openai兼容的api,本身调用是非常简洁且易用理解的,但被包装一层就更显复杂。

封装如果有用,或者带来很多便利当然好。

但事实上没有,大模型周边,有几件事:

1、所谓“记忆”,就是query的历史。需要的话,每一次带上就好了。然后是什么?

2、RAG,也就是第三方库查询一些片段,带到你的query里作为背景信息。

3、调用函数。全天候风险平价策略下载 | Quantlab AI v0.2:OpenAI的Swarm适配国内大模型(附python代码下载)swarm这种轻量的封装是有价值的,代码量也很小。

多智能体协作,目前还是概念,智能体之间协作,主要还是靠人工拆解来完成。

主要还是与大模型的交互上,也就是prompts。而prompts本身,也取决于大模型自身的能力。就是模型本身厉害的话,你怎么写也响应得还可以,如果本身模型不够,你如何tuning你的prompts也是没有用的。

大模型厉害的地方,在于,它能直接接受你的自然语言问答,意图识别与多轮对话,这在传统nlp领域里很难的命题。
您需要登录后才可以回帖 登录 | 免费注册

本版积分规则

AI量化实验室 ( 京ICP备16049031号-2 )

GMT+8, 2024-11-23 21:08 , Processed in 0.713126 second(s), 19 queries .

Powered by Discuz! X3.5

Copyright © 2001-2024 Tencent Cloud.

快速回复 返回顶部 返回列表