阅读量:7
LLMs之RAG:基于Ollama框架(开启服务器模式+加载LLMs)部署LLaMA3/Phi-3等大语言模型、并结合AnythingLLM框架(配置参数LLM Preference【LLM Provider-Chat Model】 /Embedding Preference/Vector Database)实现RAG功能(包括本地文档和抓取网页)实现Chat聊天以及本地知识库问答实战
目录
LLM之Ollama:ollama的简介、安装和使用方法、案例应用之详细攻略
3、配置AngthingLLM:期间要确保ollama开启服务(ollama serve)
T2、新建工作区(workspace)并测试RAG功能:上传文档并在界面中实现对话查询
5、生成系统 API 私钥:通过编程方式来管理AnythingLLM实例