谷歌周二的活动表面上是关于 Pixel 硬件的。确实,这是关于人工智能的。
谷歌的里克·奥斯特洛(Rick Osterloh)从走上讲台的那一刻起就明确表示了这一点,他最初的言论更多地关注谷歌的人工智能工作,而不是设备:
几个月前,在 Google I/O 大会上,我们分享了一系列广泛的突破,使人工智能对每个人都有更多帮助。我们痴迷于人工智能可以让人们的生活更轻松、更高效的想法。它可以帮助我们学习。它可以帮助我们表达自己。它可以帮助我们变得更有创造力。要做到这一点,最重要的地方是我们每天随身携带的设备。因此,我们将分享 Google 在将尖端人工智能引入移动设备方面取得的进展,从而造福整个 Android 生态系统。
在节目的前 25 分钟内,Osterloh 和他的同事没有宣布任何有关 Pixel 9 系列、Pixel Watch 3 或 Pixel Buds Pro 2 的公告。相反,他们强调了 Google 在其技术堆栈上的投资和Tensor 芯片,其每月用户超过 20 亿的所有六种产品(搜索、Gmail、Android、Chrome、YouTube 和 Google Play)如何以某种方式利用该公司的 Gemini AI 模型,以及 Gemini 和 Google 的 AI 工具如何集成与您已经购买的其他 Android 手机一起使用。甚至在展示手机演示之前,谷歌就已经在三星和摩托罗拉的手机上展示了其人工智能工具。
谷歌还利用这个预硬件部分来展示可以说是该活动中最有趣的部分:重点关注 Gemini Live,这是一个可以让你与 Gemini 进行更自然的来回对话的工具,例如头脑风暴或练习等接受采访。 (对我来说,这感觉就像 Google 在 I/O 大会之前对 OpenAI 令人印象深刻的 GPT-4o 演示的回应。)Gemini Live 甚至不是 Pixel 独有的功能;它从周二开始向订阅 Gemini Advanced 并使用 Android 的用户推出。
当谷歌终于开始谈论它的新硬件时,人工智能也无处不在。双子座可以对您手机屏幕上的内容做出回应。 “添加我”可以将正在拍照的人添加到照片中。 Pixel Watch 现在使用人工智能来帮助检测您的脉搏。谷歌甚至设想你可以在使用新的 Pixel Buds Pro 2 时与 Gemini Live 交谈。
就在 Osterloh 感觉即将结束时,他分享了更多有关即将推出的人工智能公告。 Google 计划让你在 Gemini Live 对话期间共享相机,以便 Gemini 可以对你所看到的内容做出回应。您还可以将应用程序连接到 Gemini Live。 Gemini 将能够通过在网络上为您搜索内容来制作研究报告——奥斯特洛表示,Gemini Advanced 用户将在“未来几个月”内享受这一功能。
如果您最近一直关注谷歌,那么对人工智能的关注并不令人意外。但从周二的活动来看,谷歌显然将人工智能视为其硬件的关键竞争优势,也是与苹果和三星等巨头较量的最佳方式。根据我们所看到的,谷歌的手机似乎确实可以拥有一些比苹果正在开发的更令人印象深刻的人工智能技巧——而且我确信谷歌很高兴听到苹果最先进的苹果智能功能预计不会到来直到明年。
我仍然对谷歌人工智能的华丽程度持怀疑态度。当然,某些照片功能看起来很酷,但我不太信任 Gemini 来与它进行完整的对话。其他人会关心吗?他们会足够关心购买 Pixel 或注册 Gemini Advanced 吗?我不太确定。但随着谷歌的新硬件在本月和下个月推出,我们不用等太久就能看到该公司对人工智能的关注是否会赢得新买家的青睐。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。