Date
我的评论
@我的Notion
标签
黄建同学
黄建同学
2024-03-11 12:20:59
"Chat with your code"的RAG实现↓ 使用了 - LlamaIndex 编排框架 - Ollama 运行本地大模型 - Streamlit UI #程序员# 详细:lightning.ai/lightning-ai/studios/chat-with-your-code-using-rag 系统架构图见图2,里面包括的关键组件有: (1)加载知识库,知识库是作为 RAG 基础的相关最新信息的集合。在这个例子中,它是一个 GitHub 存储库!具体见图3 (2)嵌入模型(Embedfing model),嵌入是以数字形式对文本进行有意义的表示。嵌入模型负责为文档块和用户查询创建嵌入,具体见图4 (3)索引和存储,由嵌入模型创建的嵌入存储在向量存储中,该存储通过在数据上创建索引来提供快速检索和相似性搜索。默认情况下,LlamaIndex 提供内存中向量存储,非常适合快速实验。具体见图5 (4)创建提示模板,自定义提示模板用于细化 LLM 的响应并包含上下文。具体见图6 (5)设置查询引擎,查询引擎使用查询字符串来获取相关上下文,并使用提示模板将它们组合起来,然后将其发送到生成最终响应的 LLM!这里使用的LLM是 Mistral-7B,使用 Ollama 在本地提供服务! 具体见图7 (6)聊天界面,使用 Streamlit 创建一个 UI,为我们的 RAG 应用程序提供聊天界面。具体见图8 #ChatGPT[超话]#
notion image
notion image
notion image
notion image
notion image
notion image
notion image
notion image