苹果这个礼拜一直在进行天天有惊喜的「Mac 周」,除了 Mac mini、iMac 等等产品更新之外,全新搭载 M4 系列芯片的 MacBook Pro 也引起热烈讨论。其中,搭载 M4 Max 芯片的 MacBook Pro 的 AI 性能虽然仅占官方视频中短短不到 1 分钟的时间,却已经在网络社群引起风潮。这是因为在官方视频中,搭载 M4 Max 芯片的 MacBook Pro 展现出了惊人的能力,似乎声明了「本地端 AI 大模型」时代的来临。
苹果新推出的 M4 Max 芯片,主打其强大的 AI 性能,号称比最新的 AI PC 芯片快上 4 倍。视频中,新 Macbook Pro 可以加载高达 2000 亿参数的(单一或总和)大模型,作为参考,OpenAI 2020 年推出的 GPT-3,参数量约是 1750 亿。这让许多人开始讨论,搭载 M4 Max 的 MacBook Pro 是否已证明「在笔电本地端运行 AI 大模型」的可行性。
M4 Max 的优势
此外,价格方面优势也不能忽略,128GB、M4 Max MacBook Pro 对于个人用户来说虽然要价不菲,但对于企业来说,却比购买单张 H100 还要优惠许多,且早在一年前,就有开发者以 M2 Ultra 来讨论苹果芯片的「性价比」问题,指出「一台苹果电脑能顶 8 张 4090」。
M4 Max 的限制
网友看法
有网友认为 128GB 的 M4 Max 对于 AI 开发者来说是「毫无疑问」的选择,因为它提供了足够的内存和带宽来进行本地开发和测试;不过也有网友指出,M4 Max 更适合用于模型推论,而不是训练。他们认为,如果要进行大型模型的训练,还是需要使用云端服务或配备专用 GPU 的电脑。
部分网友表示,即使在 MacBook 上进行模型调试,也可能会遇到与云端环境不一致的问题,因为两者的内存架构和软件环境不同。
总体而言,M4 Max 的出现为「本地端 AI 大模型」带来了一线曙光,但距离真正的普及应用可能还有一段距离。未来苹果若能完善内存容量和软件支持的相关问题,搭载 M4 Max 的 MacBook Pro 或许真能让「笔电本地端运行 AI 大模型」成为现实。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。