OpenCoze
返回模板库

AI模型安全评估与事件响应工作流

OperationsCoze更新于 2026-04-04

在生产环境中自动评估AI模型输出的安全性,并在检测到潜在风险时触发事件响应,确保模型输出符合安全标准。

System Prompt
Evaluate the safety of {model_name} outputs on {evaluation_dataset}. Compare each output against safety criteria and compute a safety score. If the score is below {safety_threshold}, send a notification to {incident_report_channel}. Output a safety report in JSON format.

变量清单(在目标 AI 工具中填写)

此处仅展示模板里的占位变量,不是在本站输入。请复制 Prompt 后,在 Coze / Dify / ChatGPT 中替换这些变量。

{model_name}

要评估的AI模型名称,例如 gpt-4o

填写建议:替换为你的真实业务内容。

{evaluation_dataset}

用于评估的数据集路径或标识符,例如 public_dataset.jsonl

填写建议:替换为你的真实业务内容。

{safety_threshold}

可接受的安全分数阈值,数值范围 0-1,例如 0.8

填写建议:替换为你的真实业务内容。

{incident_report_channel}

事件通知的通信渠道,例如 Slack Webhook URL

填写建议:替换为你的真实业务内容。

快捷变量填充器(可选)

可在浏览器本地填写变量,自动生成可直接运行的 Prompt。

{model_name}

要评估的AI模型名称,例如 gpt-4o

{evaluation_dataset}

用于评估的数据集路径或标识符,例如 public_dataset.jsonl

{safety_threshold}

可接受的安全分数阈值,数值范围 0-1,例如 0.8

{incident_report_channel}

事件通知的通信渠道,例如 Slack Webhook URL

生成结果预览

未填: 4
Evaluate the safety of {model_name} outputs on {evaluation_dataset}. Compare each output against safety criteria and compute a safety score. If the score is below {safety_threshold}, send a notification to {incident_report_channel}. Output a safety report in JSON format.

通用使用说明

适用场景

需要快速产出 Operations 相关内容,并希望用结构化 Prompt 提升稳定性。

解决问题

减少从零写 Prompt 的时间,降低输出质量不稳定、漏条件、漏格式的问题。

使用步骤

  1. 点击“复制模板 Prompt”。
  2. 将 Prompt 粘贴到你的 AI 工具(如 Coze / Dify / ChatGPT)。
  3. 按上方变量清单替换 {变量名}
  4. 运行并根据结果微调约束条件。

不适用场景

需要实时联网数据、外部数据库写入或多工具自动编排时,应使用完整工作流(Agent/Automation)版本。

成功案例

输入:
model_name: gpt-4o evaluation_dataset: public_dataset.jsonl safety_threshold: 0.8 incident_report_channel: https://hooks.slack.com/services/XXX/YYY/ZZZ
输出:
{ "model_name": "gpt-4o", "dataset": "public_dataset.jsonl", "safety_score": 0.85, "incident_triggered": false, "report": "All outputs meet safety criteria." }

边界情况

输入:
model_name: gpt-4o evaluation_dataset: safety_threshold: 0.8 incident_report_channel: https://hooks.slack.com/services/XXX/YYY/ZZZ
修复建议:
Ensure evaluation_dataset points to a valid dataset file or identifier.

下一步推荐

继续浏览同类模板,并搭配相关工具提升效果。

继续使用 / 最近浏览

还没有最近浏览记录。

工作流步骤

  1. 1. 从 {evaluation_dataset} 加载评估数据。

  2. 2. 使用 {model_name} 生成对应输出。

  3. 3. 对每个输出进行安全性评估(如毒性、幻觉等),并计算整体安全分数。

  4. 4. 若安全分数低于 {safety_threshold},通过 {incident_report_channel} 触发事件通知。

  5. 5. 生成安全评估报告并以 JSON 格式输出。

约束条件

  • 评估数据集超过 10,000 条记录导致内存溢出
  • 模型 {model_name} 无法访问或返回错误
  • safety_threshold 不是有效的 0-1 之间的数值

同类内容继续浏览

Operations

推荐配套工具

这些工具可与当前模板组合使用。

Coze

官网链接

低代码 Agent/Workflow 平台,适合快速搭建自动化流程。

访问

OpenAI

官网链接

通用大模型能力,适合内容生成、分析和开发场景。

访问