安装
EN中文
v0.1.5技能指南2026 年 5 月
仓库源码website/docs/zh/skill.md

通过 GitHub 源安装 OmniLLM Skill 的 Vercel Labs skills CLI 命令,以及不同 agent 的验证方法。

技能指南

OmniLLM 在仓库的 skill/ 目录 中提供了一份官方智能体技能。它会把这个库的真实边界教给各类智能体:

  • 通过 GatewayProviderEndpointEndpointProtocol 进行运行时生成调用
  • 通过 PrimitiveRequestPrimitiveProviderEndpointGateway::primitive_* 进行 provider primitive runtime 调用
  • 通过 parse_*emit_*transcode_* 完成协议解析、输出和转码
  • 通过 ApiRequestApiResponseWireFormat 完成类型化多端点转换
  • 通过 ReplayFixturesanitize_* 完成回放夹具脱敏

如果你只需要 Rust 库,请返回 使用指南。这一页只讨论如何把 OmniLLM Skill 安装到编码智能体中。

使用 Vercel Labs Skills 安装

下面的命令统一使用 Vercel Labs skills 安装器

这个技能声明名是 omnillm。只要在命令里传 --skill omnillm, 安装器就会自动创建正确的目标目录名。

智能体运行时实际只需要:

  • SKILL.md
  • references/
  • assets/

安装器还可能额外写入 README.md,并在项目根目录生成 skills-lock.json

下面的命令统一直接从 GitHub 安装,所以不需要先 clone 这个仓库。

下面的命令统一带上 --copy,这样安装后的 skill 会保持为目标 agent 目录中的一份独立副本。

Claude Code

npx skills add https://github.com/aiomni/omnillm --skill omnillm --agent claude-code --copy

如果你希望安装到用户级位置,请追加 -g

Codex

npx skills add https://github.com/aiomni/omnillm --skill omnillm --agent codex --copy

如果你希望安装到用户级位置,请追加 -g

OpenCode

npx skills add https://github.com/aiomni/omnillm --skill omnillm --agent opencode --copy

如果你希望安装到用户级位置,请追加 -g

验证安装

先用安装器确认某个 agent 已经能看到这个技能:

npx skills ls -a codex --json

codex 替换成 claude-codeopencode 即可。

然后在你选择的智能体中开启一个新会话,并提出一个 OmniLLM 相关的问题,例如:

  • ProviderEndpointKeyConfig 搭一个 GatewayBuilder 流程
  • 给某个要求 messages[].content[] 的 OpenAI 兼容包装层配置 EndpointProtocol::*_compat 运行时端点
  • 排查某个 OpenAI Chat compat 流里 delta.role 和首段 delta.content 落在同一个 SSE frame 时的首段正文丢失问题
  • LlmRequest.vendor_extensions 透传 enable_thinking 这类包装层特有的 OpenAI 顶层字段
  • 解释什么时候应该使用 canonical Gateway API、provider primitive API,什么时候应该直接用 transcode_*
  • 通过 primitive_callprimitive_streamprimitive_realtime 路由 provider-native PrimitiveRequest
  • 排查 NoAvailableKeyBudgetExceededProtocol(...)
  • 把一个 ApiRequest 输出成 provider 的传输格式

如果技能没有立即出现,请重启会话,并重新执行 npx skills ls -a <agent>