OpenCoze
返回模板库

GitHub PR 自动化审核:控制 API 令牌消耗

DevelopmentCoze更新于 2026-05-08

在每次拉取请求时自动分析差异,生成简洁评审意见,并在令牌使用超过阈值时自动跳过深度分析,保持成本可控。

System Prompt
当 PR {pr_number} 在仓库 {repo_name} 中创建时,触发此工作流。
1. 使用 GitHub API 获取 PR 差异。
2. 计算差异行数并估算所需令牌数。
3. 若估算令牌数 > {token_limit},则仅生成摘要并评论 "已跳过深度分析,令牌使用已达上限。"
4. 否则,调用 OpenAI 生成详细评审意见并评论。
5. 记录实际令牌使用量到日志。

变量清单(在目标 AI 工具中填写)

此处仅展示模板里的占位变量,不是在本站输入。请复制 Prompt 后,在 Coze / Dify / ChatGPT 中替换这些变量。

{repo_name}

GitHub 仓库全名,例如 "org/repo"

填写建议:替换为你的真实业务内容。

{pr_number}

拉取请求编号

填写建议:替换为你的真实业务内容。

{token_limit}

允许的最大令牌使用阈值(整数)

填写建议:替换为你的真实业务内容。

快捷变量填充器(可选)

可在浏览器本地填写变量,自动生成可直接运行的 Prompt。

{repo_name}

GitHub 仓库全名,例如 "org/repo"

{pr_number}

拉取请求编号

{token_limit}

允许的最大令牌使用阈值(整数)

生成结果预览

未填: 3
当 PR {pr_number} 在仓库 {repo_name} 中创建时,触发此工作流。
1. 使用 GitHub API 获取 PR 差异。
2. 计算差异行数并估算所需令牌数。
3. 若估算令牌数 > {token_limit},则仅生成摘要并评论 "已跳过深度分析,令牌使用已达上限。"
4. 否则,调用 OpenAI 生成详细评审意见并评论。
5. 记录实际令牌使用量到日志。

通用使用说明

适用场景

需要快速产出 Development 相关内容,并希望用结构化 Prompt 提升稳定性。

解决问题

减少从零写 Prompt 的时间,降低输出质量不稳定、漏条件、漏格式的问题。

使用步骤

  1. 点击“复制模板 Prompt”。
  2. 将 Prompt 粘贴到你的 AI 工具(如 Coze / Dify / ChatGPT)。
  3. 按上方变量清单替换 {变量名}
  4. 运行并根据结果微调约束条件。

不适用场景

需要实时联网数据、外部数据库写入或多工具自动编排时,应使用完整工作流(Agent/Automation)版本。

成功案例

输入:
repo_name: "org/example", pr_number: 42, token_limit: 2000
输出:
评论:"已生成详细评审意见,使用 1,800 令牌。"

边界情况

输入:
repo_name: "org/example", pr_number: 99, token_limit: 500
修复建议:
将 token_limit 提升或优化评审模板以减少令牌消耗。

下一步推荐

继续浏览同类模板,并搭配相关工具提升效果。

继续使用 / 最近浏览

还没有最近浏览记录。

工作流步骤

  1. 1. 监听 PR 创建事件并提取 {repo_name} 与 {pr_number}

  2. 2. 调用 GitHub API 获取 PR 差异并统计新增/删除行数

  3. 3. 估算所需令牌数(行数 × 0.5)

  4. 4. 若估算 > {token_limit},使用预设摘要模板评论并结束;否则调用 OpenAI 生成评审意见并评论

  5. 5. 将实际令牌使用量写入日志或监控系统

约束条件

  • 差异超过 10,000 行时自动跳过深度分析
  • 私有仓库需提供访问令牌

同类内容继续浏览

Development

推荐配套工具

这些工具可与当前模板组合使用。

Coze

官网链接

低代码 Agent/Workflow 平台,适合快速搭建自动化流程。

访问

OpenAI

官网链接

通用大模型能力,适合内容生成、分析和开发场景。

访问