LinkedIn周三承认,它一直在未经同意的情况下利用许多用户的数据训练自己的人工智能。现在,用户无法选择退出已经发生的培训,因为 LinkedIn 限制选择退出仅限于未来的人工智能培训。
在详细介绍 11 月 20 日更新的博客中,LinkedIn 总法律顾问 Blake Lawit 证实,LinkedIn 的用户协议和隐私政策将进行更改,以更好地解释用户的个人数据如何为平台上的人工智能提供支持。
根据新的隐私政策,LinkedIn 现在告知用户“我们可能会使用您的个人数据……开发和训练人工智能 (AI) 模型,开发、提供和个性化我们的服务,并在以下方面获得见解:人工智能、自动化系统和推理,使我们的服务对您和其他人更加相关和有用。”
常见问题解答解释说,每当用户与生成式人工智能或其他人工智能功能交互时,以及当用户撰写帖子、更改其偏好、向 LinkedIn 提供反馈或使用该平台进行任何数量的活动时,都可能会收集个人数据。时间。
然后,该数据将被存储,直到用户删除人工智能生成的内容。如果用户想要删除或请求删除收集的有关过去 LinkedIn 活动的数据,LinkedIn 建议用户使用其数据访问工具。
常见问题解答称,LinkedIn 为生成式 AI 功能提供支持的 AI 模型“可能由 LinkedIn 或其他提供商进行培训”,例如微软,该公司通过其 Azure OpenAI 服务提供了一些 AI 模型。
LinkedIn 的常见问题解答指出,用户面临的一个潜在的主要隐私风险是,“提供个人数据作为生成人工智能功能的输入”的用户最终可能会看到“个人数据被提供为输出”。
LinkedIn 声称,它“寻求最大限度地减少用于训练模型的数据集中的个人数据”,依靠“隐私增强技术来编辑或从训练数据集中删除个人数据”。
虽然 Lawit 的博客避免澄清是否可以从人工智能训练数据集中删除已经收集的数据,但常见问题解答确认,自动选择共享个人数据进行人工智能训练的用户只能选择“今后”退出侵入性数据收集。
常见问题解答称,选择退出“不会影响已经进行的培训”。
LinkedIn 发言人告诉 Ars,“默认”选择参加人工智能培训“对所有会员都有利”。
LinkedIn 的发言人表示:“人们可以选择退出,但他们来到 LinkedIn 是为了寻找工作和人际网络,而生成式人工智能是我们帮助专业人士实现这一变革的一部分。”
通过允许选择退出未来的人工智能培训,LinkedIn 的发言人还声称,该平台为“使用 LinkedIn 的人们在如何使用数据来训练我们的生成式人工智能技术方面提供了更多的选择和控制权。”
如何选择退出 LinkedIn 上的人工智能培训
用户可以通过导航到帐户设置中的“数据隐私”部分来选择退出人工智能培训,然后关闭允许收集“用于生成人工智能改进的数据”的选项,否则LinkedIn会自动为大多数用户打开该选项。
唯一的例外是欧洲经济区或瑞士的用户,他们受到更严格的隐私法的保护,这些法律要么需要平台同意才能收集个人数据,要么要求平台证明数据收集是合法利益。 LinkedIn 反复证实,这些用户不会看到选择退出的选项,因为他们从未选择加入。
此外,The Verge 指出,用户可以通过提交 LinkedIn 数据处理异议表,“反对使用其个人数据进行训练”不用于生成 LinkedIn 内容的生成式 AI 模型,例如用于个性化或内容审核目的的模型。
去年,LinkedIn 分享了人工智能原则,承诺采取“有意义的步骤来降低人工智能的潜在风险”。
更新后的用户协议规定的一个风险是,使用 LinkedIn 的生成功能来帮助填充个人资料或在撰写帖子时生成建议可能会生成“可能不准确、不完整、延迟、误导或不适合您的目的”的内容。
建议用户有责任避免分享误导性信息或以其他方式传播可能违反 LinkedIn 社区准则的 AI 生成内容。此外,还警告用户在依赖平台上共享的任何信息时要小心谨慎。
LinkedIn 的用户协议称:“与我们服务上的所有内容和其他信息一样,无论它是否被标记为由‘人工智能’创建,在依赖它之前一定要仔细审查。”
2023年,LinkedIn声称将始终“寻求以清晰简单的方式解释我们对人工智能的使用如何影响人们”,因为用户“对人工智能的理解始于透明度”。
欧盟人工智能法案和 GDPR 等立法(尤其是其强有力的隐私保护)如果在其他地方颁布,将减少对毫无戒心的用户造成的冲击。这将使所有公司及其用户在训练人工智能模型时处于平等地位,并减少令人讨厌的意外和愤怒的客户。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除