一性原理,看大模型周边框架。
两个比较大的框架:langchain和llamaindex。
且对国内生态不友好。
最关键的问题是,它们到底做了什么呢?封装了不少东西,新手看得云里雾里,还以为是LLM就应该这么复杂呢。
其实,大模型api,尤其是openai兼容的api,本身调用是非常简洁且易用理解的,但被包装一层就更显复杂。
封装如果有用,或者带来很多便利当然好。
但事实上没有,大模型周边,有几件事:
1、所谓“记忆”,就是query的历史。需要的话,每一次带上就好了。然后是什么?
2、RAG,也就是第三方库查询一些片段,带到你的query里作为背景信息。
3、调用函数。全天候风险平价策略下载 | Quantlab AI v0.2:OpenAI的Swarm适配国内大模型(附python代码下载)swarm这种轻量的封装是有价值的,代码量也很小。
多智能体协作,目前还是概念,智能体之间协作,主要还是靠人工拆解来完成。
主要还是与大模型的交互上,也就是prompts。而prompts本身,也取决于大模型自身的能力。就是模型本身厉害的话,你怎么写也响应得还可以,如果本身模型不够,你如何tuning你的prompts也是没有用的。
大模型厉害的地方,在于,它能直接接受你的自然语言问答,意图识别与多轮对话,这在传统nlp领域里很难的命题。 |