今年,人工智能专家不止一次重复一句熟悉的话:“请放慢速度。” 2022 年的 AI 新闻来势汹汹,毫不留情;一旦你知道事物目前在 AI 中所处的位置,一篇新论文或新发现就会使这种理解过时。到 2022 年,我们可以说在生成式 AI 方面遇到了拐点,它可以生成由文本、图像、音频和视频组成的创意作品。今年,经过十年研究的深度学习 AI 脱颖而出,并开始进入商业应用,让数百万人首次尝试这项技术。人工智能创造激发了奇迹,制造了争议,引发了生存危机,并引起了人们的注意。回顾一下今年七大 AI 新闻故事。很难只选择七个,但如果我们不在某个地方截断它,我们仍然会在 2023 年及以后继续写今年的活动。
四月:DALL-E 2 图片中的梦想
4 月,OpenAI 发布了 DALL-E 2,这是一种深度学习图像合成模型,其从文本提示生成图像的看似神奇的能力令人震惊。由于使用了一种称为潜在扩散的技术,DALL-E 2 接受了从互联网上提取的数亿张图像的训练,知道如何制作新颖的图像组合。推特上很快就充斥着马背上的宇航员、古埃及游荡的泰迪熊等近乎照片级写实作品的图片。我们最后一次听说 DALL-E 是在一年前,当时该模型的版本 1 一直在努力渲染一张低分辨率的鳄梨椅——突然之间,版本 2 以 1024×1024 的分辨率展示了我们最疯狂的梦想。起初,出于对滥用的担忧,OpenAI 只允许 200 名 Beta 测试人员使用 DALL-E 2。内容过滤器阻止了暴力和性提示。渐渐地,OpenAI 让超过一百万人进入封闭试用,DALL-E 2 终于在 9 月下旬面向所有人开放。但到那时,潜在扩散领域的另一个竞争者已经崛起,我们将在下面看到。
7 月:谷歌工程师认为 LaMDA 具有感知能力
7 月初,《华盛顿邮报》爆料称,一位名叫 Blake Lemoine 的谷歌工程师被带薪休假,原因是他相信谷歌的 LaMDA(对话应用程序语言模型)是有感知力的,并且它应享有与人类平等的权利。在作为 Google 负责任的 AI 组织的一员工作时,Lemoine 开始与 LaMDA 谈论宗教和哲学,并相信他在文本背后看到了真正的智慧。“当我和一个人交谈时,我就认识了一个人,”Lemoine 告诉邮报。“不管他们脑袋里是否有肉做的大脑。或者他们是否有十亿行代码。我和他们交谈。我听到他们必须说的话,这就是我决定什么是而且不是一个人。”谷歌回答说,LaMDA 只是在告诉 Lemoine 他想听的话,而 LaMDA 实际上并没有感知力。与文本生成工具 GPT-3 一样,LaMDA 之前已经在数百万本书和网站上接受过培训。它通过预测最有可能跟随的单词而不需要任何更深入的理解来响应 Lemoine 的输入(提示,其中包括整个对话文本)。在此过程中,Lemoine 涉嫌将其团队的工作告诉其他人,从而违反了 Google 的保密政策。7 月下旬,谷歌以违反数据安全政策为由解雇了 Lemoine。他并不是 2022 年最后一个卷入 AI 大型语言模型炒作的人,正如我们将看到的那样。
7 月:DeepMind AlphaFold 预测了几乎所有已知的蛋白质结构
7 月,DeepMind 宣布其 AlphaFold AI 模型已经预测了地球上几乎所有具有测序基因组的生物体的几乎所有已知蛋白质的形状。AlphaFold 最初于 2021 年夏天宣布,早些时候曾预测过所有人类蛋白质的形状。但一年后,它的蛋白质数据库扩展到包含超过 2 亿个蛋白质结构。DeepMind 在欧洲分子生物学实验室 (EMBL-EBI) 的欧洲生物信息学研究所托管的公共数据库中提供了这些预测的蛋白质结构,允许来自世界各地的研究人员访问它们并将这些数据用于与医学和生物学相关的研究科学。蛋白质是生命的基本组成部分,了解它们的形状可以帮助科学家控制或修改它们。这在开发新药时特别有用。EMBL-EBI 的资深科学家兼名誉主任珍妮特桑顿说:“过去几年几乎每一种上市的药物都是部分通过蛋白质结构知识设计的。”这使得了解他们所有人成为一件大事。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。