您可能已经在手机上尝试过一堆生成式人工智能应用程序。 OpenAI 的 ChatGPT或 HeyPi 是聊天 AI 应用程序的一些示例,而 Runway ML 等应用程序可让您直接在手机上创建 AI 生成的视频。
但到目前为止,几乎每个生成式人工智能应用程序都依赖于基于云的计算,这意味着所有神奇的人工智能处理都发生在云中,就像当你在自己的电脑上流式传输游戏机游戏时,Xbox 套件在微软服务器中心完成繁重的工作一样。手机或平板电脑。
联发科技希望改变这一现状,允许在智能手机上进行设备内生成式人工智能计算。这一雄心勃勃的登月计划将通过联发科的下一款旗舰芯片组实现,该芯片组将于今年年底出现在 Android 手机中。该公司的努力得到了 Facebook 母公司 Meta 的帮助,后者提供了 Llama 2 模型作为生成人工智能应用程序的基石。
这家芯片制造商正在宣传其设备上的生成式人工智能处理方法的一系列好处,其中包括“无缝性能、更好的隐私、更好的安全性和可靠性、更低的延迟、能够在几乎没有连接的区域工作,以及更低的性能”。运营成本。”
加速手机上的生成式人工智能
即将推出的高端联发科技芯片将采用三种关键策略来增强智能手机的生成式人工智能体验。首先,它将采用专门为运行Llama 2 而优化的软件堆栈,Llama 2 是 Meta 开发的开源大型语言模型,旨在挑战 OpenAI 的 GPT 和谷歌的 PaLM 2 模型。
Llama 2 于 7 月发布,“免费用于研究和商业用途”。到目前为止,依赖 Llama 2 语言模型的应用程序并不多,因为基于 GPT 的人工智能应用程序目前是热门话题。但Meta一直在积极招揽智能手机行业的参与者,其中包括联发科的主要竞争对手高通。
与联发科一样,高通也与 Meta 签署了一项协议,从 2024 年开始,在由其旗舰芯片驱动的智能手机上展示基于 Llama 的应用程序的设备端处理。两家公司还瞄准了其他应用领域,例如汽车。 XR 硬件、智能家居设备等,其设备本地生成人工智能工作由顶级芯片推动。
在即将推出的人工智能友好旗舰芯片上,联发科还将使用依赖“变压器骨干加速”的增强型 APU(人工智能处理单元)。 Transformers 是一种神经网络架构,其任务是创建大型语言模型,例如 GPT(生成式预训练变压器),它催生了 ChatGPT 和微软的 Bing Chat等产品。
最后,联发科的新芯片还将深入 DRAM 模块,以增强基于 Llama 的生成式 AI 应用程序的用户体验。 DRAM 是动态随机内存的缩写,是存储应用程序工作数据的高速、低延迟内存模块。手机中的 DRAM 越多,可以在后台运行且不会出现任何问题的应用程序数量就越多。像 OnePlus 这样的智能手机制造商在他们的手机上安装了多达 24GB 的 DRAM 是有原因的。
这些人工智能升级对您意味着什么
联发科表示,通过上述调整,其即将推出的 AI 芯片将通过将大量处理要求转移到本地硬件来增强 LLM 和 AIGC(人工智能生成内容)体验。
至于您可以期望加速的任务类型,这将取决于 Meta 的 Llama 2 模型的功能以及在其之上构建的应用程序类型。 Llama 2 是一种基于文本的自然语言模型,因此您可以期望它能够发挥与 ChatGPT 或 Bard 相同的技巧。它可以处理查询并根据其训练数据集提供答案、总结或扩展文本等等。
对于联发科来说,这并不是第一次此类人工智能合作。今年7月,该公司与Unity中国分公司(该公司开发同名游戏开发引擎)签署了一项协议,以探索游戏领域的生成式人工智能应用。
联发科预计其带有 Llama 2 应用程序的新芯片将在今年年底上市到智能手机中,因此我们无需等待太久就能看到这一切在实际产品中的表现。