跳过正文

AI

从论文到源码:详解 RAG 算法

从论文到源码:详解 RAG 算法

·11764 字·24 分钟
本文旨在通过论文+源码的解读,探究 RAG 算法的架构设计和具体的代码实现。本文主要讨论了 GraphRAG、LightRAG 和 RAPTOR RAG,除此之外还提及了 Anthropic 提出的 Contextual Retrieval 上下文检索和 RAG 算法的评估方法。最后在实践中,建议还是根据知识库文档的规模来选择不同的方法。
浅入浅出 Rerank 模型

浅入浅出 Rerank 模型

·4241 字·9 分钟
随着 Transformer 架构的流行,目前很多 Embedding 和 Rerank 模型都逐渐基于这个架构。借此机会梳理一下研究的过程和历史,盘点一下目前几个知名的 Rerank 模型的组织和公司所采用的架构。最后回归正题浅谈目前 RAG 场景到底要不要用 Rerank。
读书笔记《大语言模型》

读书笔记《大语言模型》

·19143 字·39 分钟
本文是《大语言模型》的阅读笔记,详细介绍了大语言模型的发展历程、训练优化方法、数据处理技术、解码策略、模型量化、模型压缩、提示学习、评测指标和方法,以及知识图谱在大语言模型中的应用,特别关注了扩展法则、涌现能力、人类对齐和多智能体系统等关键概念和技术。
TiDB Vector + Dify 快速构建 AI Agent

TiDB Vector + Dify 快速构建 AI Agent

·1996 字·4 分钟
本文介绍了如何使用 Dify 和 TiDB Vector 快速构建 AI Agent,包括前期准备、部署 Dify、配置知识库和创建 Agent 的详细步骤,以及源码分析和表结构设计。文章提供了 Dify 接入 TiDB Vector 后的表结构设计和 SQL 查询语句,帮助开发者更好地理解和使用这一集成方案。
读书笔记《大规模语言模型:从理论到实践》

读书笔记《大规模语言模型:从理论到实践》

·16129 字·33 分钟
本文是《大规模模型语言》一书的笔记。详细探讨了语言模型的发展历程、基本概念和概率分布建模方法,随后重点讨论了大模型的发展历程和构建流程。文章也详细描述了Transformer模型、GPT和LLaMA模型的特点和优化方法。此外,文章还介绍了分布式训练技术、并行策略、强化学习的基本概念和应用,以及语言模型的评估指标和方法。