kobolingfeng/ntk
NTK — 基于信息密度路由的多智能体框架。用最少的 token 做最多的事。
<div align="center">
Know less. Do more.
*当所有多Agent框架都在让AI看更多信息时,* *我们问了一个不同的问题:如果让AI看更少呢?*
[](https://github.com/kobolingfeng/ntk/actions/workflows/ci.yml) []() [](LICENSE) []() [](https://linux.do)
[English](README_EN.md) | 中文
</div>
---
每一个多Agent框架都在做同一件事:给每个Agent尽可能多的上下文。更长的对话历史、更大的记忆库、更复杂的工具链——期望AI从海量信息中找到答案。
NTK 做相反的事。
军事情报领域有一个原则叫 "Need-to-Know Basis"——即使你有最高安全权限,你也只会被告知完成任务所必须知道的最小信息集。NTK 把这个原则带进了多Agent系统:
> 每个Agent只收到它完成任务所需的最少信息,一个字都不多给。
这不是限制,这是优势。认知科学告诉我们,选择性注意力才是实现专注的本质——不是看到更多,而是忽略更多。LLM 同理:短上下文比长上下文更精确、更遵循指令、更不容易幻觉。给得越少,做得越好。
大多数"智能"框架对所有任务走同一个复杂管道。写一个斐波那契函数?也要经过规划→调研→执行→验证四步。
NTK 不这样做。它先用零开销正则分类器(在测试集中处理约 63% 的任务)判断复杂度,只在必要时才启动更深的管道:
| 你的任务 | NTK 怎么做 | 开销 | |---------|-----------|------| | "写个排序函数" | 一步直出 | ~400 tok, 4秒 | | "设计 REST API" | 调研→执行 | ~2500 tok, 19秒 | | "微服务架构设计" | 完整管线 | ~3000 tok, 20秒 |
写斐波那契和设计微服务架构不该花一样的钱。NTK 正是为此设计。
NTK 的核心策略是双模型成本分离:绝大多数工作交给廉价模型,只有真正需要深度推理的规划步骤才用强模型。
实测数据(9 类任务,每配置 3 次运行取均值):
| | 全强模型 | 全廉价模型 | NTK(廉价为主) | |---|-
Loading reviews...