生效日期:2026年3月12日

内容治理策略

定义 GoodJob.Guide 平台的内容标准、高风险内容识别规则、审核流程、处置动作体系、人工复核保障和 AI 内容治理规范,确保内容治理的一致性、透明度和可追溯性。

策略目的与原则

本内容治理策略旨在为 GoodJob.Guide 的内容审核和处置工作提供统一、透明、可执行的操作规范。本策略确保"同类问题同等处理",避免因审核人员的主观判断差异导致处理结果不一致。

内容治理的核心目标是:维护社区秩序和用户安全、保障合法内容的正常传播、确保处置过程的可追溯性和可申诉性。本策略与《社区规则》共同构成 GoodJob.Guide 的内容治理体系。

内容标准

GoodJob.Guide 对平台上的内容适用以下基本标准:

  • 合法性标准:所有内容必须符合中华人民共和国法律法规,不得含有法律法规禁止的信息。
  • 真实性标准:鼓励基于真实经历的分享。故意编造虚假信息或严重误导性内容将被标记或移除。但平台认可主观体验的差异性,不会仅因他人不同意某一观点即认定其为"虚假信息"。
  • 相关性标准:内容应与职场话题具有合理关联。纯粹的商业推广、无关话题灌水或低质重复内容可能被降低分发权重或移除。
  • 文明性标准:表达方式应当文明理性。允许直接、尖锐的批评和讨论,但不允许人身攻击、侮辱谩骂或恶意骚扰。
  • 隐私性标准:分享职场经历时应注意保护第三方隐私。不应发布足以使特定个人被直接识别的敏感个人信息(除非该信息为公开信息且发布具有合理的公共利益)。

高风险内容识别

以下类型的内容被识别为高风险内容,将触发优先审核和更严格的处置流程:

  • 涉违法犯罪内容:任何可能触犯刑法或行政法规的内容,包括但不限于涉及恐怖主义、极端主义、淫秽色情、赌博、毒品等的信息。此类内容一经发现立即移除,并依法向有关机关报告。
  • 严重谣言与虚假信息:可能引发公众恐慌、扰乱市场秩序或严重损害他人名誉的不实信息。特别是涉及重大公共事件、企业重大丑闻等敏感话题的未经证实信息。
  • 侵权争议内容:涉及著作权、商标权、商业秘密侵权投诉的内容,或涉及名誉权、隐私权纠纷的内容。此类内容按照"通知-处理"机制处理。
  • 深度合成与伪造内容:使用 AI 或其他技术手段生成的高度仿真伪造内容,包括但不限于深度伪造的公司评价、伪造的薪资截图、虚假的面试经历等。
  • 涉未成年人风险内容:任何可能对未成年人造成身体或心理伤害的内容,或涉及对未成年人的任何形式的剥削或侵害的内容。此类内容适用零容忍政策。
  • 严重网络暴力内容:有组织的围攻、人肉搜索、持续骚扰或煽动对特定个人的暴力行为。包括发布他人私密信息并煽动线下骚扰的行为。
  • 异常协同行为:多个账号协同进行刷帖、操纵投票、水军控评或有组织的虚假信息传播活动。

审核流程

GoodJob.Guide 的内容审核流程包括以下环节:

审核过程中,审核人员应当遵循以下原则:证据优先(基于具体内容而非猜测做出判断)、保守处理(对于存在合理争议的内容,优先采取限流而非删除措施)、一致性(对同类问题适用相同的处理标准)。

  • 自动化初筛:系统对新发布的内容进行自动化扫描,检测明显违规的关键词、链接和媒体内容。自动化初筛结果仅作为预警标记,不直接触发最终处置。
  • 风险分级:根据初筛结果和内容特征,将内容标记为低风险、中风险或高风险。高风险内容将优先进入人工审核队列。
  • 人工审核:经过培训的内容审核人员对标记内容进行审查,判断是否违反社区规则或法律法规,并决定适当的处置措施。
  • 复核机制:对于存在争议的审核决定,可由高级审核人员或法务团队进行复核。涉及名誉纠纷、侵权争议等复杂案件,将进入专门的复核通道。

平台处置动作

平台可根据违规内容的性质和严重程度采取以下处置动作。每项处置动作均有明确的适用场景和操作规范:

每一次处置动作都必须在系统中留下完整的审计记录,包括:处置时间、操作人员、处置原因(关联的规则条款)、处置类型、通知记录。所有处置记录可供后续申诉和内部审计使用。

  • 限流(Reduce):降低内容在信息流和推荐中的分发权重,但不影响通过直接链接访问。适用于质量较低但未明确违规的内容,或存在争议但尚未裁定的内容。限流不需要通知作者(但作者可在内容状态中查看)。
  • 折叠(Collapse):将内容折叠显示,需要用户主动点击展开。适用于引发争议或接近违规边界的内容。作者将收到折叠通知。
  • 下架(Hide):将内容从所有公开入口移除,仅作者和审核人员可见。适用于疑似违规但需进一步调查确认的内容。作者将收到下架通知和申诉入口。
  • 删除(Remove):在确认违规后正式移除内容。平台将保留内容的证据快照用于审计和可能的法律程序。作者将收到删除通知、违规说明和申诉入口。
  • 冻结账号(Freeze):临时或永久限制账号的全部或部分功能。适用于严重违规或多次违规的情形。临时冻结期限为 1-30 天;永久冻结适用于极端严重的违规行为。
  • 封禁账号(Ban):永久终止账号的全部功能并清除违规内容。适用于最严重的违规情形(如涉嫌犯罪、严重危害社区安全等)。封禁决定可通过申诉流程申请复核。

人工复核保障

在以下场景中,平台必须确保人工审核人员介入,不得仅依据自动化系统的判断做出最终决定:

涉及版权侵权投诉和反通知的案件;涉及名誉权、隐私权纠纷的内容;用户对处置决定提出申诉的案件;可能触发账号冻结或封禁的严重违规案件;涉及未成年人保护的敏感内容;涉及深度合成或伪造内容的识别判定。

人工审核人员在做出决定时,应当综合考虑内容的完整上下文、发布者的历史行为记录、相关举报和投诉信息、适用的社区规则和法律法规等因素。对于复杂或高影响的案件,应报请上级审核人员或法务团队复核。

AI 内容治理

随着人工智能技术的发展,GoodJob.Guide 制定了专门的 AI 内容治理规范:

  • AI 生成内容标识:凡被识别为 AI 生成或 AI 辅助创作的内容,平台将添加相应标识,以保障信息透明度。用户若发现标识有误,可提交反馈申请修正。
  • 深度合成内容治理:对于使用深度合成技术(如 AI 换脸、语音克隆、AI 生成的人物图像等)创作的内容,适用更严格的审核标准。禁止将深度合成技术用于冒充真实人物、伪造证据或制造虚假信息。
  • AI 辅助审核的边界:平台可能使用 AI 工具辅助内容审核(如自动检测违规关键词和图像),但 AI 审核结果仅作为辅助参考,不直接作为最终处置依据。在所有争议场景中,必须支持人工复核。
  • 禁止的 AI 使用:禁止使用 AI 工具批量生成虚假帖子、伪造用户评价、模拟真实用户互动或以任何方式欺骗其他用户或操纵社区内容。

透明度与持续改进

GoodJob.Guide 致力于内容治理的透明度。我们将定期通过适当方式公布内容治理的相关统计数据,包括:举报数量与处理情况、各类违规内容的分布趋势、处置措施的类型与数量等。

本内容治理策略将根据社区发展、法律法规变化和用户反馈进行不定期修订。重大修订将提前通知用户。