
一份新报告称,在内部,Apple 已经在为 Siri 测试大型语言模型,这些模型比发货功能强大得多苹果智能,但高管们对何时发布它存在分歧。
备份苹果预览体验成员的定位,即 Apple 是不落后在 AI 上,该公司定期一直在发布研究表明其推动该领域向前发展的进展.现在根据彭博社苹果已经一直在使用 AI 系统,其功能远大于它迄今为止出货的设备上 Apple Intelligence。
具体来说,该报告称,在内部,Apple 正在使用多种不同的模型,其复杂性越来越高。据说 Apple 正在测试具有 30 亿、70 亿、330 亿和 1500 亿个参数的模型。
相比之下,Apple 在 2024 年表示,Apple Intelligence 的基础语言模型约为30 亿个参数.
该版本的 Apple Intelligence 特意偏小,以便能够在设备上运行,而不需要将所有提示和请求发送到云端。较大的版本是基于云的,就 1500 亿个参数模型而言,现在据说也接近 ChatGPT 最新版本的质量。
然而,据报道,人们对 AI 幻觉仍然存在担忧。据说 Apple 推迟发布这款 Apple Intelligence 模型,部分原因是此,这意味着幻觉水平太高。
据说还有另一个原因导致尚未交付这种基于云的且经过大幅改进的Siri不过,聊天机器人。据称,苹果高级管理人员之间对此次发布存在哲学上的分歧。
可以想象,这些差异仅与每位高管对 Apple Intelligence 中幻觉的容忍度有关。但是,没有进一步的细节。
此前,据报道,前 Siri 首席执行官约翰·詹南德里亚是反对发布它然而,行政人员中的其他人却是更热衷以启动 Siri Chatbot。
也许是因为这种内部分歧,现在也有人声称 Apple Intelligence 的公告会更少WWDC 全球发展大会比预期的要多。据说整个 WWDC 主题演讲是范围较小但预计它仍将具有戏剧性的重新设计的苹果电脑, 苹果手机和iPad版,以利用 Apple 在苹果视觉专业版.