昨天在 WWDC 2024 上 Apple Intelligence 首次亮相期间,软件工程高级副总裁 Craig Federighi 多次吹捧新功能的安全性和对敏感用户数据的精细处理。为了保护用户隐私,Apple Intelligence 在设备上执行许多生成操作。对于那些超出其机载能力的工作,系统会将工作转移到该公司新开发的私有云计算(PCC)上。
然而,正如巴尔的摩约翰霍普金斯大学计算机科学副教授 Matthew Green 博士周一在一个帖子中问道,苹果的人工智能云可能是安全的,但它值得信赖吗?
Apple Intelligence 承诺为您的 iPhone、iPad 和 Mac 提供尖端的生成模型,这些模型可以创建图像、编辑您的文字,并在任意数量的应用程序中代表您执行操作。苹果设备多年来一直在设备上执行机器学习任务;以相机胶卷的搜索功能和光学字符识别(OCR)文本识别为例。然而, 正如格林指出的那样,即使是最新一代的苹果处理器也还不足以处理一些更复杂和资源密集型的在线人工智能操作,因此需要使用云计算服务器。
问题是,这些复杂的模型还需要对用户数据进行未加密的访问,以便执行推理功能,并将该数据传输到公共云会使其面临被黑客攻击、泄露或彻底被盗的风险。苹果的解决方案是建立自己的独立、强化的数据中心,专门用于处理苹果情报数据:PCC。 根据最近的一篇Apple 安全博客文章,这个“突破性的云智能系统”将 Apple 设备行业领先的安全性和隐私性扩展到云端,确保发送到 PCC 的个人用户数据除了 Apple 以外的任何人都无法访问。用户——甚至不是苹果。”
问题在于,虽然现代手机的“神经”硬件正在改进,但它的改进速度还不够快,无法充分利用硅谷希望从现代人工智能中获得的所有疯狂功能,包括生成式人工智能及其类似功能。这从根本上需要服务器。 3/
—马修·格林 (@matthew_d_green) 2024 年 6 月 10 日
但在实践中确保隐私要困难得多。 “构建值得信赖的计算机实际上是计算机安全中最困难的问题,”格林写道。 “老实说,这几乎是计算机安全中唯一的问题。”他赞扬该公司将其移动和桌面设备中内置的许多相同安全功能应用到其新服务器中,包括安全启动、“无状态”软件和安全飞地处理器(SEP),以及“抛出各种在服务器硬件上进行处理,以确保硬件不被篡改。”
Apple 竭尽全力确保其服务器上运行的软件是合法的,一旦请求完成,就会自动擦除 PCC 节点上的所有用户数据,并使设备的操作系统能够“证明”它是什么软件映像跑步。
“如果你给一个优秀的团队一大笔钱,并告诉他们构建世界上最好的‘私有’云,它可能看起来像这样,”格林写道。 “但现在是棘手的问题。这是不是一个好主意?它和苹果现在所做的一样安全吗?”用户可以选择退出吗?用户似乎不会选择使用这项新服务。 “你甚至不一定会被告知这件事正在发生,”他继续说道。 “这就会发生。神奇的是。我不喜欢那部分。”
格林继续辩称,黑客甚至没有对用户数据构成最大的威胁:而是硬件和软件公司本身。因此,“这个 PCC 系统代表了苹果公司不‘偷看’你的数据的真正承诺,”格林总结道。 “这是一件大事。”
据报道,Apple Intelligence 将于今年夏天晚些时候开始推出。在未来几周内,苹果计划邀请安全研究人员首先了解 PCC 软件和虚拟研究环境。