编码 Agent / Dev Tooling
View all →终端、IDE 和 CLI 形态的编码智能体;近一年密集发布、高速增长的方向。
anomalyco/opencode
开源的终端编码 agent,定位类似 Claude Code 与 Codex CLI,主体用 TypeScript 写成。适合想自己魔改 agent 行为、或在私有模型上跑编码 workflow 的研究者参考实现。
anthropics/claude-code
Anthropic 官方的 agentic 编码工具,跑在终端里。读得懂仓库结构,能 把跑测试、处理 git 工作流、解释陌生代码这些日常活自然语言化。 CLAUDE.md 用于注入项目上下文,subagent 和 custom slash command 是 常见的扩展手段。
google-gemini/gemini-cli
Google 官方把 Gemini 接进终端的开源 agent,TypeScript 实现。除了 常规的代码问答和文件操作,自带 MCP client 与 server 能力,方便接 外部工具或被别的 agent 调用。Claude Code 的同位替代品之一。
openai/codex
OpenAI 官方的终端编码 agent,用 Rust 写,主打轻量。和 Claude Code、 Gemini CLI 属于同一类产品形态,研究 agent harness 设计时可以拿来 做横向对比。
cline/cline
Cline 提供同一套自主编码 agent 的三种形态:SDK、IDE 插件、CLI 助手。VS Code 用户熟悉的那个 Cline 插件就出自这里。想把 agent 嵌 进自家产品时,SDK 形态比较常用。
AntonOsika/gpt-engineer
早期的 CLI 代码生成实验项目,给一段自然语言描述就能生成整个 codebase 的雏形。后来商业化的 lovable.dev 由这条线长出来。今天主要作为 codegen agent 的历史参考。
continuedev/continue
Continue 把 AI code review 做成可写进 CI 的源码受控规则,背后是开 源的 Continue CLI,同时有 VS Code 与 JetBrains 插件。适合团队把 "AI 在 PR 上自动跑哪些检查"沉淀成版本化的配置。
voideditor/void
Void 是开源 AI 原生编辑器,定位对标 Cursor,TypeScript 实现。研究 在编辑器层面而非终端层面集成 LLM、Copilot、Claude、ChatGPT 等模型 时可以作为参考工程。
anthropics/claude-agent-sdk-python
Anthropic 官方的 Claude agent SDK 的 Python 版本,把 Claude Code 背后的 agent 能力拆出来给开发者直接调用。想自建 agent loop、 自定义 tool、嵌进 Python 应用里跑 agentic workflow 时用。
codestoryai/aide
Aide 是开源的 AI 原生 IDE,和 Void、Cursor 同属一类产品。整个编辑 器围绕 agent 协作设计,研究 IDE 与 agent 深度集成的形态时可看其 实现。
anthropics/claude-agent-sdk-typescript
Claude agent SDK 的 TypeScript 版本,能力对齐 Python SDK。 Node/Next.js 项目里想接 Claude agent、自定义 tool dispatch 和上下 文管理时走这一条线。
Agent 框架
View all →多智能体、工作流编排、自主任务执行的通用框架。
Significant-Gravitas/AutoGPT
AutoGPT 是早期把"自主 agent"概念推开的项目,主打让普通人也能搭 自动跑任务的 AI workflow。今天更像 agent 历史里的标志性参考, 研究自主 agent 演化路径时绕不开。
langchain-ai/langchain
LangChain 把自己重新定位成 agent engineering 平台,提供从模型抽象、 tool、memory 到部署的整套基础设施。生态成熟、文档密集,做企业级 agent 应用时常作为起点,也常被诟病抽象层太厚。
OpenHands/OpenHands
OpenHands 是开源的 AI 驱动开发平台,agent 直接在容器里跑代码、改 仓库、走 git 流程,覆盖从需求到 PR 的完整链路。研究 agent 怎么 安全地动一个真实代码库时是常用参考实现。
microsoft/autogen
微软的 agent 编程框架,强调多 agent 协作与可编排的对话模式。 AutoGen 把 agent 视为可组合的程序单元,适合写需要多角色配合的 自动化流程,比如代码生成 + 评审 + 执行的小组协作。
crewAIInc/crewAI
CrewAI 围绕"角色扮演 + 协作"组织 agent,把每个 agent 定义成有 role、goal、backstory 的成员,组成 crew 共同完成任务。适合把 复杂业务流程拆成几个分工明确的 agent 跑通。
run-llama/llama_index
LlamaIndex 把自己定位成 document agent 与 OCR 平台,专长是把 非结构化文档(PDF、网页、扫描件)接进 LLM 的检索流程。做企业 知识库、文档问答、RAG 系统时常用它处理数据接入层。
anthropics/claude-cookbooks
Anthropic 官方维护的 Claude 用法 cookbook,以 Jupyter notebook 形 式给出各类 prompt、tool use、agent 模式的可运行示例。学 Claude 能力边界、找经过验证的写法时是第一手资料。
langchain-ai/langgraph
LangGraph 把 agent 工作流建模成图,节点是步骤、边是条件流转, 专门解决长链路 agent 容易跑飞的问题。需要显式管理状态、加重试 与回滚、做可恢复的多步 agent 时常用它替代 LangChain 里的 chain。
mastra-ai/mastra
Mastra 是 Gatsby 原班人马做的 TypeScript agent 框架,强调和现代 Node、Next.js 栈打通,自带 evals、MCP、chatbot 等模块。 TypeScript 团队想绕开 Python 生态独立做 agent 应用时可用。
模型推理与部署
View all →本地跑大模型、推理引擎、量化与服务化。
ollama/ollama
Ollama 提供本地一键拉起 LLM 的方式,覆盖 Llama、Qwen、Gemma、 DeepSeek、GLM 等常见开源模型。命令行 ollama run 就能起一个本地 OpenAI 兼容接口,研究者拿来做离线推理、隐私敏感数据处理很方便。
huggingface/transformers
Hugging Face 的 transformers 库是文本、视觉、语音、多模态模型的 事实标准实现层,既能跑推理也能做训练与微调。复现论文模型、加载 Hub 上的权重、写自定义模型类时几乎都会走它。
ggml-org/llama.cpp
llama.cpp 用纯 C/C++ 实现 LLM 推理,把开源大模型压到 CPU、 Apple Silicon、低配 GPU 上也能跑得动。GGUF 量化格式、Ollama 的底层都依赖它。本地部署、边缘端推理走这条路线。
vllm-project/vllm
vLLM 是面向服务端的高吞吐 LLM 推理引擎,靠 PagedAttention 等机 制把 GPU 显存利用率拉上去。自己搭模型服务、需要同时撑很多并发 请求、跑评测吞吐对比时是主流选型。
mlc-ai/mlc-llm
MLC-LLM 基于 TVM 编译栈,把 LLM 编译到各种异构硬件上跑,包括 iOS、Android、WebGPU、AMD、NVIDIA 等平台。需要把模型部署到非 主流硬件、或在浏览器里直接跑模型时用得上。
huggingface/text-generation-inference
Hugging Face 的 TGI 是面向生产的文本生成服务框架,支持 BLOOM、 Falcon、StarCoder、GPT 系列等模型的高效推理。和 vLLM 算同类, Hugging Face 自家 Inference Endpoints 背后用的就是它。
lmstudio-ai/lmstudio-js
LM Studio 的 TypeScript SDK,把 LM Studio 桌面端跑的本地模型暴 露给 Node 应用调用。喜欢用 LM Studio 的图形界面管理本地模型、 又想从 TypeScript 代码里接入推理结果时走这个 SDK。
RAG 与检索
View all →文档问答、向量库、检索增强生成、web 抓取。
microsoft/markitdown
微软维护的 Python 工具,把 PDF、Word、Excel、PPT 等 Office 文档 和常见格式统一转成 markdown。做 RAG 数据预处理、给 LLM 喂结构 干净的文本时是趁手的第一步,也常配合 LangChain、AutoGen 使用。
firecrawl/firecrawl
Firecrawl 把网页抓取、清洗、转 markdown 这条链路打包给 AI agent 用,输出可直接喂 LLM 的干净文本。做联网搜索、构建网页索引、 给 agent 加 web context 时常用它替代手写 scraper。
infiniflow/ragflow
RAGFlow 是开源的 RAG 引擎,把检索增强和 agent 能力结合起来做成 完整的 context 层。支持复杂文档解析、agentic retrieval、混合检 索等机制,适合搭企业知识库这类对召回质量敏感的场景。
milvus-io/milvus
云原生的高性能向量数据库,专攻大规模向量近似最近邻搜索。底层支持 DiskANN、 Faiss 等多种索引,分布式架构能扛住十亿级 embedding 的检索负载。生物医药文本 检索、跨模态相似性搜索、企业级 RAG 后端常用它做向量存储层。
qdrant/qdrant
用 Rust 写的向量数据库与搜索引擎,强调单机性能与混合检索能力。支持 HNSW 索引、payload 过滤、稀疏与稠密向量混合查询,适合需要把 embedding 相似度和 结构化条件一起搜的场景,例如带元数据筛选的语义搜索、图像检索。
chroma-core/chroma
面向 AI 应用的轻量级向量数据库,主打开发者友好。原本是 Python embedded 库,现在底层重写为 Rust。在 RAG 原型、Agent 长期记忆这类场景里,因为 API 简洁、上手成本低,常被用作起步阶段的向量存储。
weaviate/weaviate
开源向量数据库,把对象和向量一起存,支持向量相似度检索与结构化字段过滤 混合查询。生成式搜索模块可以直接对接 LLM 做 RAG。云原生设计带来横向扩展 和容错,常见于知识库检索、多模态检索这类企业应用。
SDK 与开发工具
View all →跨模型路由、构建 AI 应用的高层 SDK、observability。
BerriAI/litellm
统一调用 100+ LLM API 的 Python SDK 与代理网关,把 OpenAI、Anthropic、 Bedrock、Azure、VertexAI 等接口抹平成 OpenAI 兼容格式。配套成本统计、限流、 负载均衡、日志,研究里跨模型对比实验或多 provider 切换部署时省去大量胶水代码。
vercel/ai
Vercel 出品的 TypeScript AI SDK,给前端/全栈开发者构建 AI 应用与 Agent。 抽象了流式输出、tool calling、生成式 UI 等通用模式,适配 Anthropic、OpenAI、 Gemini 等模型。Next.js 项目里加 chatbot、Agent 工作流时常作为底层 SDK。
assistant-ui/assistant-ui
React 组件库,专门给 AI 聊天界面用。基于 Radix UI 和 shadcn 风格,提供消息流、 thread、工具调用展示等开箱即用的组件。前端要快速搭一个 ChatGPT 样式的对话界面、 接入自家模型时,省掉从零写 UI 的工作。
Helicone/helicone
开源的 LLM 可观测性平台,一行代码接入就能监控 API 调用、做评估和实验。 记录 prompt、响应、token、延迟、成本,并支持 A/B 测试和 prompt 版本管理。 研究里跑大量模型实验、生产环境追踪 Agent 行为时,作为统一的观测层。
openlit/openlit
AI 工程化的开源平台,基于 OpenTelemetry 做 LLM 可观测性,同时覆盖 GPU 监控、 Guardrails、评估、Prompt 管理、密钥仓和 Playground。对接 50+ 模型 provider、 向量库与 Agent 框架,适合需要把 LLM 调用链路接入既有 Grafana/ClickHouse 观测栈的团队。
对话 UI
View all →本地或自托管的 LLM 聊天界面。
open-webui/open-webui
自托管的对话 UI,原本是 Ollama 的 WebUI,现在同时支持 OpenAI 兼容接口和 MCP。 界面接近 ChatGPT,研究组在本地或私有服务器跑开源模型时,常用它给团队提供 统一的对话入口,附带知识库、RAG、用户管理等功能。
lobehub/lobehub
面向 Agent 协作的对话平台,定位是工作与生活的智能体工作空间,支持多 Agent 团队设计、协作与共享。对接 ChatGPT、Claude、Gemini、DeepSeek 等主流模型, 适合想把 Agent 当成日常协作单位使用的个人或小团队。
danny-avila/LibreChat
增强版 ChatGPT 开源克隆,自托管多用户对话平台。一份界面同时调用 Anthropic、 OpenAI、Azure、Bedrock、Vertex AI、OpenRouter 等模型,并集成 Agents、MCP、 Code Interpreter、DALL-E、消息搜索。研究组要给一群人提供安全的多模型入口时常用。
mckaywrigley/chatbot-ui
极简的开源 AI Chat 模板,TypeScript 实现,面向任意模型接入。代码结构清爽, 适合作为自建对话 UI 的起步框架——拿来当骨架,再按自己的业务定制 prompt、 记忆、tool calling。