通过 GitHub 源安装 OmniLLM Skill 的 Vercel Labs skills CLI 命令,以及不同 agent 的验证方法。
技能指南
OmniLLM 在仓库的
skill/ 目录
中提供了一份官方智能体技能。它会把这个库的真实边界教给各类智能体:
- 通过
Gateway、ProviderEndpoint与EndpointProtocol进行运行时生成调用 - 通过
PrimitiveRequest、PrimitiveProviderEndpoint与Gateway::primitive_*进行 provider primitive runtime 调用 - 通过
parse_*、emit_*与transcode_*完成协议解析、输出和转码 - 通过
ApiRequest、ApiResponse与WireFormat完成类型化多端点转换 - 通过
ReplayFixture与sanitize_*完成回放夹具脱敏
如果你只需要 Rust 库,请返回 使用指南。这一页只讨论如何把 OmniLLM Skill 安装到编码智能体中。
使用 Vercel Labs Skills 安装
下面的命令统一使用 Vercel Labs skills 安装器。
这个技能声明名是 omnillm。只要在命令里传 --skill omnillm,
安装器就会自动创建正确的目标目录名。
智能体运行时实际只需要:
SKILL.mdreferences/assets/
安装器还可能额外写入 README.md,并在项目根目录生成
skills-lock.json。
下面的命令统一直接从 GitHub 安装,所以不需要先 clone 这个仓库。
下面的命令统一带上 --copy,这样安装后的 skill 会保持为目标 agent
目录中的一份独立副本。
Claude Code
如果你希望安装到用户级位置,请追加 -g。
Codex
如果你希望安装到用户级位置,请追加 -g。
OpenCode
如果你希望安装到用户级位置,请追加 -g。
验证安装
先用安装器确认某个 agent 已经能看到这个技能:
把 codex 替换成 claude-code 或 opencode 即可。
然后在你选择的智能体中开启一个新会话,并提出一个 OmniLLM 相关的问题,例如:
- 用
ProviderEndpoint和KeyConfig搭一个GatewayBuilder流程 - 给某个要求
messages[].content[]的 OpenAI 兼容包装层配置EndpointProtocol::*_compat运行时端点 - 排查某个 OpenAI Chat compat 流里
delta.role和首段delta.content落在同一个 SSE frame 时的首段正文丢失问题 - 用
LlmRequest.vendor_extensions透传enable_thinking这类包装层特有的 OpenAI 顶层字段 - 解释什么时候应该使用 canonical
GatewayAPI、provider primitive API,什么时候应该直接用transcode_* - 通过
primitive_call、primitive_stream或primitive_realtime路由 provider-nativePrimitiveRequest - 排查
NoAvailableKey、BudgetExceeded或Protocol(...) - 把一个
ApiRequest输出成 provider 的传输格式
如果技能没有立即出现,请重启会话,并重新执行
npx skills ls -a <agent>。