ChatGPT 引入年龄验证 ─ 公司被迫审查人工智能政策的原因

开放人工智能ChatGPT 引入年龄认证功能我们已经宣布了这样做的政策。这项新功能将于 2025 年 12 月起实施,仅允许身份经过验证的成年用户使用包含性和感性表达的内容(所谓的“色情内容”),而限制模式将自动应用于 18 岁以下的用户。

这是在生成人工智能领域明确引入“年龄限制”的开创性尝试。这一变化将对在工作中使用人工智能的公司产生直接影响,并将成为重新考虑使用人工智能的道德和安全性的转折点。 ChatGPT年龄验证的引入不仅仅是一个功能的补充,而且作为代表人工智能治理新标准的举措而引起人们的关注。


OpenAI 推进的年龄验证 ─ 解除成人内容禁令和保护未成年人的双轴策略

OpenAI引入年龄验证有两个目的。一是为成人用户提供更灵活的AI体验这是要做的。首席执行官 Sam Altman 表示,“我们将只为经过身份验证的成人用户处理成熟的表达”,并表示将 ChatGPT 发展为“根据年龄进行个性化的人工智能”的政策。

另一件事是加强未成年人保护这是要做的。如果未满 18 岁的用户访问该网站,将应用“安全模式”,人工智能将自动限制与性、暴力和自残相关的主题。 OpenAI 宣布了一种通过结合年龄估计算法和 ID 认证来实现这一机制的概念。

“年龄限制的人工智能”是什么意思

到目前为止,生成式人工智能基本上已经“对所有年龄段的人都有同样的反应”这是一个系统。然而,人工智能输出的句子和图像内容已经产生了社会影响,并且越来越需要根据用户的年龄和职位来“划清输出之间的界限”。

例如,在教育领域,未成年人存在接触敏感信息或错误信息的风险。相反,在商业领域,过度的信息控制会损害创造力和生产力。换句话说,当谈到使用人工智能时,我们已经进入了一个时代,人们会问谁使用它、出于什么目的、在什么背景下使用它。

迈向根据不同用户属性优化的时代

OpenAI年龄认证的介绍是迈向人工智能个性化的象征性第一步是。未来,我们将看到一个人工智能响应将根据多种用户属性进行优化的时代,从年龄的基本属性开始,例如职业、专业、证书等。年龄验证不仅仅是一种限制,而是“个体优化的前提”,也是人工智能理解人类多样性的基础。

这一趋势还将扩展到公司内部人工智能的使用,超越简单的年龄类别,到根据工作内容、技能水平和法律责任范围等多方面标准来管理访问权限。

企业实施人工智能面临的三大挑战

这些变化对企业如何使用生成式人工智能产生直接影响。特别是以下三点将迫使企业重新审视其内部人工智能政策。

第 1 点对于拥有 18 岁以下员工的组织尤其重要,例如外部教育机构、地方政府和医疗领域。随着人工智能应用的进步,将需要访问控制和使用范围的透明度。

用户治理和人工智能风险管理

年龄认证的引入为企业重新设计“用户治理”提供了机会。到目前为止,制定人工智能政策的重点是不应该输入人工智能的信息(机密、个人信息等)。然而,从现在开始,谁可以使用人工智能以及人工智能应该用于什么目的的问题将变得更加重要。用户控制成为新的焦点。

例如,需要对公司内部使用人工智能的员工进行等级划分,如“经理、普通员工、实习生、兼职人员”,并明确设定可以使用的范围和模式。

此外,对于使用 ChatGPT 和 Claude 等外部人工智能的公司来说,拥有一个允许他们根据供应商服务条款的变化更新策略的操作系统至关重要。全球越来越多的企业已经设立“首席人工智能道德官”,日本企业也在致力于“人工智能道德政策+准入认证设计”的双支柱。风险管理的阶段就进去了

年龄验证只是人工智能应用走向成熟的一个“入口”

OpenAI年龄验证的推出是人工智能领域从“任何人免费使用”阶段转向“安全和负责任使用”阶段的里程碑。重点不在于限制本身,而在于它们如何提高人工智能使用的成熟度。

未来,人工智能的使用将不仅根据年龄进行控制,还会根据工作内容、技能、法律责任范围等多重标准进行控制。

对于企业来说,这不仅加强了治理,也标志着“创建框架”的开始,让员工更安心地使用人工智能。 ChatGPT的年龄验证功能或将成为AI社会新标准的试金石。

摘要:现在是开始“盘点”你的人工智能政策的时候了

从表面上看,ChatGPT年龄认证的引入似乎无非是对普通用户的规范改变,但其本质是伦理设计的基本问题:“AI应该为谁提供什么?”当企业将生成式AI纳入运营时,需要明确以下三点。

  • 基于员工属性的访问权限
  • 按业务目的使用范围
  • 对生成内容的责任

随着人工智能技术持续快速发展,现在是重新审视内部人工智能政策的最佳时机。年龄验证不仅仅是一种限制,而且是迈向人工智能可以安全使用的时代的重要第一步。企业如何战略性地拥抱这一变化将决定其组织在即将到来的人工智能时代的信誉和竞争力。