OpenAI 安全体系升级:核心模型“物理隔离”,上网需明确许可

数码 0 5
数码资讯
IT之家 数码资讯 发布于 昨天 17:30
本条新闻为单纯事实消息的时事新闻,转载自IT之家,版权归源站所有,如有侵权,烦请联系我们

7 月 8 日消息,据《金融时报》报道,OpenAI 近期全面升级了安全体系,以防范企业间谍活动。此次升级的安全措施包括“信息隔离”政策,旨在限制员工接触敏感算法和新产品。

例如,在 OpenAI 开发 o1 模型期间,只有通过审查且具备相应权限的团队成员,才可以在公共办公区讨论相关内容。

此外,OpenAI 还将专有技术隔离在离线计算机系统中,在办公区域实施生物识别门禁(包括指纹识别),并采取“默认拒绝”的互联网接入政策,要求所有外部连接必须获得明确许可。报道还称,OpenAI 已提升了数据中心的物理安全等级,并扩充了网络安全团队。

据悉,这些举措凸显了外界对外国对手试图窃取 OpenAI 知识产权的普遍担忧。不过,考虑到美国 AI 企业间的人才争夺战愈演愈烈,以及 CEO 萨姆・奥尔特曼(Sam Altman)内部发言泄露事件频发,OpenAI 或许也在试图解决其内部安全隐患。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

点赞 0 收藏(0)  分享
0个评论
  • 消灭零评论