RAG 技术演进:从朴素检索到智能代理增强

LLM 具备强大的分析能力、推理能力、生成能力,但它仍然无法记得上个月的今天发生了什么,哪怕你曾经在上个月告诉过它。

究其原因,是因为 LLM 基于静态语料库训练,你的个人经历并不在其中。它只具备短期记忆,这种记忆依靠一次对话的上下文维持(历史信息会被携带到下一次对话),当你换个对话窗口,它就忘记了。

当然,现在的诸多协议已经能够为 LLM 提供很多”外挂”,比如 MCP 协议、A2A 协议,它们在不断扩展 LLM 的认知边界,让 LLM 能够跳出其固有的知识范围。但是,RAG 仍然是一个重要方向,为 LLM 提供长期记忆、让它能够将神经元触达到你的个人数据。

...More

从单体智能到群体智慧:A2A 协议解析


AI模型已然从文字走向多模态,能力边界不断拓展。从斯坦福小镇到 ChatDev,再到 AutoGen 和 LangGraph,多 Agent 协作模式也在不断发展。
个体越聪明,协作越复杂,群体智慧越强大——人类如此,AI亦然。
当个体 LLM 成熟到一定程度,协作复杂度达到新的临界点,A2A(Agent to Agent)协议的出现,为智能体互联提供标准化规范。

...More

MCP 协议完全指南:架构设计

Host 就像是一个作战大厅,大厅里主要有三种角色:

  • LLM Client 扮演者将军的角色,负责作战计划的制定。
  • Orchestrator 扮演着作战参谋的角色,负责协调各个 MCP Client 的行动。
  • MCP Client 扮演者通信兵的角色,负责与外部 MCP Server 进行通信。

    ...More

三角函数与位置编码:Transformer 模型的核心设计

词语的位置决定其语义功能,这是 seq2seq 模型必须解决的核心问题。比如,I saw a saw,两个 saw 在不同位置含义完全不同。

Transformer 模型并行处理所有输入词汇,失去了序列的内在顺序。位置编码通过将位置信息注入输入表示来解决这一问题。理想的位置编码应具备两个数学特性:位置的唯一性(不同位置有不同编码)和相对位置的可学习性(位置间的关系可被模型捕捉)。

...More

进程、线程和协程


进程,是程序运行时的实例,是操作系统分配资源的基本单位。确保了程序运行的独立性。
线程,是进程中的执行单元,是操作系统调度的最小单位。线程共享进程的内存空间,可以访问进程的资源。
协程,是一种用户态的轻量级”线程”,这种机制的关键在于 Python 中的事件循环。事件循环维护着一个就绪队列,通过不断轮询来检查和调度可以执行的协程。所有的协程都在同一个线程中执行,它们通过主动交出控制权来实现任务切换。

...More

© 2025 YueGS