生效日期:2026年3月12日
AI 治理政策
阐述 GoodJob.Guide 在 AI 技术使用和治理中的基本原则、透明度承诺、内容标识制度、禁止用途、人工监督机制及风险评估流程,确保 AI 技术的负责任应用。
政策背景与目的
人工智能技术正在深刻改变信息生产和传播方式。GoodJob.Guide 积极拥抱技术进步的同时,也充分认识到 AI 技术在内容治理和信息真实性方面带来的挑战。
本 AI 治理政策依据《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等相关法规制定,旨在建立负责任的 AI 使用和治理框架,保护用户权益和社区信息生态的健康。
AI 基本原则
GoodJob.Guide 在 AI 技术的使用和治理中遵循以下基本原则:
- 辅助性原则:AI 的输出属于辅助信息和参考建议,不直接作为平台最终的事实裁决或处置依据。在所有涉及用户权益的重要决策中,AI 判断均需经人工审核确认。
- 透明性原则:平台将主动披露 AI 技术的使用场景、能力边界和已知局限性。用户有权了解 AI 在内容推荐、审核等环节中扮演的角色。
- 可控性原则:所有 AI 系统的部署和运行处于人工监督之下。在出现异常或争议时,可及时介入调整或暂停 AI 功能。
- 公平性原则:AI 系统不得基于用户的种族、性别、宗教、地域等特征产生歧视性对待。我们将持续监测和纠正 AI 系统中可能存在的偏见。
- 安全性原则:AI 系统在上线前需通过安全评估和合规审查,确保不会对用户隐私、数据安全或社区秩序造成风险。
- 保守性原则:在高风险场景(如涉及举报、封禁、侵权判定、名誉争议等)中,AI 系统默认采取保守策略,宁可误放不可误判。
透明度承诺
GoodJob.Guide 致力于在 AI 应用中保持高度透明度:
如果您对 AI 系统在您的具体案例中的参与情况有疑问,可以通过"申诉机制"要求披露相关信息。
- 平台将在适当位置说明 AI 技术在内容推荐、审核辅助等环节中的应用方式和范围。
- 当 AI 系统的判断可能影响用户的内容展示或账号状态时,用户将被告知 AI 参与了相关决策过程。
- 平台将定期发布 AI 系统的使用情况报告,包括 AI 辅助审核的规模、准确率、误判率等关键指标。
- AI 系统的能力边界和已知局限性将在本政策中持续更新和披露。
AI 内容标识
为保障社区内容的透明度和可信度,GoodJob.Guide 实行 AI 内容标识制度:
- 对于由 AI 工具(如 ChatGPT、Midjourney 等)生成或 AI 辅助创作的内容,如被平台识别,将添加"AI 生成"或"AI 辅助"标识。
- 使用深度合成技术(包括但不限于 AI 换脸、语音克隆、AI 生成的人物图像等)创作的内容,必须由发布者主动标注。未标注的深度合成内容一经发现将被强制标识,并可能触发进一步审核。
- 用户如果发现内容的 AI 标识有误(如非 AI 创作的内容被误标,或 AI 创作的内容未被标识),可以通过反馈功能申请修正。
- 标识系统的准确性将持续优化。我们承认当前技术条件下 AI 内容识别可能存在误差,这也是我们保留人工复核通道的原因。
禁止的 AI 用途
以下 AI 使用行为在 GoodJob.Guide 上被严格禁止:
违反上述禁止规定的行为,将根据违规的性质和严重程度,依据《社区规则》和《内容治理策略》进行处置,包括但不限于内容移除、账号限制直至永久封禁。
- 利用 AI 工具批量生成虚假帖子、评论或用户评价,冒充真实用户的职场分享。
- 使用深度合成技术伪造他人身份、冒充他人发布信息或制作误导性内容。
- 利用 AI 工具生成骚扰、威胁、诽谤或其他违反《社区规则》的内容。
- 使用 AI 工具自动化规避平台的内容审核和安全措施(如自动化改写被标记的违规内容)。
- 利用 AI 工具大规模采集或分析平台用户的个人信息。
- 使用 AI 工具操纵社区互动数据(如自动化赞同、收藏、评论等)。
- 利用 AI 生成虚假的薪资数据、工作体验、面试经历等可能误导他人做出重大职业决策的内容。
人工监督机制
GoodJob.Guide 确保在所有重要的治理决策环节中保留人工监督和介入能力:
- 内容审核辅助:AI 初筛结果必须经人工审核确认后方可作为处置依据。禁止完全依赖 AI 做出删除、封禁等不可逆的处置决定。
- 申诉处理:用户提出的申诉必须由人工审核人员处理,不得由 AI 系统自动驳回。
- 版权侵权判定:AI 可辅助识别疑似侵权内容,但侵权与否的最终判定必须经人工审核或由司法机关裁决。
- 账号处罚决定:任何可能导致账号冻结或封禁的决定,必须经人工审核确认。
- 异常监测与干预:当 AI 系统的行为指标出现异常(如误判率显著升高)时,运维团队可立即暂停相关 AI 功能并切换至人工处理模式。
风险评估与持续改进
所有 AI 功能在上线前必须通过合规与风险评估,评估内容包括:是否符合相关法律法规的要求、对用户隐私和数据安全的影响、对内容生态和社区秩序的潜在风险、偏见和歧视风险评估。评估结果将记录在案,供后续审计使用。
已上线的 AI 功能将接受定期复评。如发现新的风险或法规变化,将及时调整或下线相关功能。
本 AI 治理政策将根据技术发展、法律法规变化和社区反馈进行持续更新。重大更新将通过站内通知告知用户。我们欢迎用户就 AI 相关问题提出反馈和建议。