OpenAI添加开源工具以帮助开发人员构建青少年安全

OpenAI周二表示,它推出了一组提示,开发人员可以使用这些提示来让他们的应用程序对青少年来说更安全。 AI实验室表示,这组常见的安全策略可以与其称为gpt-oss-safeguard的开放式安全模型一起使用。

开发人员可以利用这些提示来强化他们构建的内容,而不是从头开始研究如何让人工智能对青少年来说更安全。它们解决诸如暴力和性内容、有害的身体理想和行为、危险的活动和挑战、浪漫或暴力的角色扮演以及有年龄限制的商品和服务等问题。

这些安全策略被设计为提示,使它们很容易与gpt-oss-safeguard之外的其他模型兼容,尽管它们可能在OpenAI自己的生态系统中最有效。

为了编写这些提示,OpenAI表示它与人工智能安全监管机构Common Sense Media和everyer.ai合作。

Common Sense Media人工智能与数字评估主管Robbie Torney在声明中表示:“这些基于提示的政策有助于在整个生态系统中设定有意义的安全底线,而且由于它们是开源发布的,因此可以随着时间的推移进行调整和改进。”

OpenAI在其博客中指出,开发人员(包括经验丰富的团队)常常难以将安全目标转化为精确的操作规则。

该公司写道:“这可能会导致保护方面的差距、执法不一致或过滤过于广泛。” “清晰、范围广泛的政策是有效安全系统的关键基础。”

← 上一篇文章 Talat的AI会议记录保留在您的计算机上,而不是云端 下一篇文章 → Google电视的新Gemini功能让粉丝了解运动队等的最新信息

← 返回列表