在 wwdc 上,苹果只字未提“人工智能(ai)”,以及“chatgpt”等当前科技界内的一些更为流行的词汇。
苹果所做的,只是简单地提及了 7 次“机器学习(ml)”。
即使是在介绍他们准备了 7 年的 ar 眼镜 vision pro 时,也只是表述为“使用了先进的编码-解码神经网络”。
这与微软、谷歌等硅谷大厂在当前大模型浪潮(或者可以称为“ai hype”)中的“高调”做法截然不同。
难道,真如一些专家、媒体所言,苹果已经在这次 ai 竞赛中掉队了?或者说他们依然在观望?实际上,并非如此。
尽管苹果没有在 wwdc 上谈论(甚至吹捧)ai 大模型,但他们介绍了一些基于 ai 的新功能,如改进的 iphone 自动更正功能,当你按下空格键时,它可以完成一个单词或整个句子。
该功能基于使用 transformer 语言模型的 ml 程序,使自动更正比以往任何时候都更加准确,而 transformer 是支持 chatgpt 的重要技术之一。
苹果表示,它甚至会学习用户如何发短信和打字,从而变得更好。
据介绍,新的“自动更正”由设备上的机器学习提供支持,多年来,苹果一直在不断改进这些模型......借助 apple silicon 的强大功能,iphone 可以在用户每次轻按按键时运行此模型。
“在那些你只想输入一个 ducking word(避讳词)的时刻,键盘也会自己学习,”苹果软件工程高级副总裁 craig federighi 说。
另一个例子是苹果对 airpods pro 的改进,即“当耳机检测到用户对话时会自动关闭降噪功能”。苹果没有把它作为一个机器学习功能,但这是一个很难解决的问题,而解决方案是要基于 ai 模型的。
此外,识别 pdf 中要填写的字段、识别你的宠物(然后将该宠物的所有照片归纳在一个文件夹中)等新功能,也同样是基于苹果在神经网络方面的研究工作。
在 wwdc 上,苹果没有谈论具体的 ai 模型,或训练数据,或未来可能改进的方向,而是简单地提到了“这些功能背后有很酷的技术做支持”。
与其竞争对手的做法(使用服务器集群、超级计算机和 tb 级数据建立更大的模型)不同,苹果希望在其设备上建立 ai 模型。
新的“自动更正”等功能正是基于这一想法,它是在 iphone 上运行的,而像 chatgpt 这样的模型则需要由数百个昂贵的 gpu 共同训练。
这样做的好处是,运行在设备上的 ai 绕过了很多基于云的 ai 面临的数据隐私问题。当模型可以在手机上运行时,苹果只需要收集更少的数据就可以运行它。
值得关注的是,苹果此次也公布了 m2 芯片家族的最新成员——m2 ultra。它采用第二代 5 纳米工艺制造,拥有多达 24 个 cpu 内核、76 个 gpu 内核和 32 个内核的神经引擎,每秒可进行 31.6 万亿次运算。
苹果表示,这种能力可能会在训练“大型 transformer 模型”时派上用场。
“m2 ultra 可以支持高达 192gb 的统一内存,比 m1 ultra 多 50%,这使其能够完成其他芯片无法完成的任务。例如,在一个单一系统中,它可以训练庞大的 ml 工作负载,如大型 transformer 模型,这类模型即使是最强大的离散 gpu 也无法处理,因为其内存不足。”
m2 ultra 的问世,让一些人工智能专家感到兴奋。
“无论是偶然还是有意为之,苹果硅统一内存架构意味着高端 mac 现在真的是运行大型 ai 模型和进行 ai 研究的惊人机器,”perry e. metzger 在推特上表示,“在这个价位上,确实没有多少其他系统能提供 192gb 的 gpu 可访问内存。”
更大的内存意味着更大、能力更强的 ai 模型可以装入内存中,这可能使得许多人有机会在个人电脑上训练 ai 训练。
尽管尚未有 m2 ultra 与a100(甚至 h100)的性能评估,但至少从目前看来,苹果已经公开进入生成式 ai 训练硬件领域。
以上就是谁说苹果掉队了?wwdc上只字未提ai,却已低调入场大模型的详细内容。