摘要:经过昨天的一通折腾,我心中大概了有了跟Trae AI合作的新思路。首先,我再次出发之前需要知道终点是哪?那就基于RAG搭建一个本地知识库,可以局域网访问调用吧!
经过昨天的一通折腾,我心中大概了有了跟Trae AI合作的新思路。首先,我再次出发之前需要知道终点是哪?那就基于RAG搭建一个本地知识库,可以局域网访问调用吧!
首先:我新建了一个需求文档requirement,稍微梳理了一下我的第一阶段需求。按照文档(类)分开描述。同时我也在单独一个文件夹新建了几个py文件:langchainLLM.py 用于实现与本地的大模型直接对话;lc_service.py 用于实现服务端接口;lc_client.py 用户客户端访问服务端。
然后我把langchainLLM里面的需求全部复制给Trae 的AI,让它帮我生成代码:
这样算是初步实现了对话功能,但是提示词模板和一些必要参数的设置,它帮我省略了,再提要求:
新的功能做出来,算是初步满足我前期的需求了。而且提供了测试方法,于是我复制他的代码新建了一个test01.py来测试。同时又提了一些新的要求
实现这些单个功能,效果还是很明显的,几乎不会错,添加到原文也方便。效率杠杠的。最后测试效果也符合预期。
接下来就是把这些功能暴露成API接口了,首先我选中lc_service.py,然后提需求:
几十秒一百多行整齐的代码就生成了,而且主要功能,怎么访问都写的清清楚楚。
我打开docs的文档,我要的功能全部实现了。
这个文档里面就可以做测试,于是我简单测了一下API接口的调用
查看当前对话列表,成功返回。
测试流式对话,也是正确返回。
到此为止,今天的langchain服务算是搭建成功了。明天再尝试添加一些本地知识库功能吧!
未完待续~
码字截图不易,各位大佬的点赞关注是小编持续学习的动力[比心][比心][比心]
来源:宅男娱乐