名家专栏

使用GPT-4o代价高/Project Syndicate

随着GPT-4o的推出,OpenAI再次证明了自己是世界上最具创新精神的人工智能公司。这款无缝整合了文本、语音和视觉能力的全新多模态人工智能工具速度明显快于之前的型号,大大提升了用户体验。

不过GPT-4o最吸引人的地方或许在于它是免费的——至少看起来是这样。

使用GPT-4o无需支付订阅费。相反,用户支付的是自己的数据。

GPT-4o会像一个黑洞那样吸入一切离它太近的材料,从而增加自身质量,积累用户输入的每一条信息,无论是文本、音频文件还是图像。

GPT-4o不仅会吞噬用户自己的信息,还会吞噬在与人工智能服务交互过程中泄露的第三方数据。

渴求数据

假设你正在查找某一篇《纽约时报》文章的内容摘要。你截图并分享给 GPT-4o,后者会读取截图并在几秒钟内生成所需的摘要。对你来说互动已经结束了。

但OpenAI却掌握了你提供的截图里所有的受版权保护材料,它可以利用这些信息来训练和增强自身模型。

正在这样做的并不止OpenAI一家。

在过去一年中包括微软、Meta、谷歌和X(从前的推特)在内的许多公司都悄悄更新了自身隐私政策,从而有可能允许它们收集用户数据并将其用于训练生成式人工智能模型。

尽管那些头部人工智能公司已经在美国遭遇了大量诉讼(原因是它们未经授权就将受版权保护内容用于此目的),但它们仍然如往常一般渴求数据,毕竟获得的数据越多建立的模型也就越好。

OpenAI是如此迫切需要更多数据,以至于有报道称它违反YouTube平台规则转录了超过100万小时的视频。

借助GPT-4o,OpenAI正在尝试一种不同的做法,那就是通过将收集行为众包给庞大且不断增长的用户群,他们被免费服务的承诺所吸引,去获取海量的多模态数据。

这种做法与众所周知的科技平台商业模式如出一辙:无论是搜索引擎还是社交媒体都不向用户收取任何服务费用,同时从应用跟踪和数据采集中获利,这就是哈佛大学教授索珊娜·祖波夫所谓的“监视资本主义”。

用户能做什么?

当然,用户可以禁止OpenAI将他们与GPT-4o的“聊天记录”用于模型训练。

但这种明摆着的方法——在ChatGPT的设置页面上,会自动禁用用户的聊天记录,导致用户无法访问自己的过往会话。

但除了阻碍用户选择退出模型训练外,这两个功能之间并不存在明显关联。

如果用户想在不丢失聊天记录的情况下退出模型训练,他们首先必须知道还存在另一种方法,因为OpenAI只突出显示了第一个选项——然后一定得浏览OpenAI的隐私门户网站,这是一个包含多个步骤的过程。简而言之,OpenAI在退出训练选项上附加了巨大的交易成本,目的就是让用户不去选择退出。

即使用户同意将其数据用于人工智能训练,仅凭这项同意也无法防止版权侵权,因为用户提供的数据实际上并不属于他们。

因此他们与GPT-4o的互动会对共享内容的创造者产生溢出效应——经济学家称之为“外部效应”。从这个意义上讲同意的意义其实不大。

难追究责任

虽然OpenAI的众包活动可能会导致侵犯版权,但追究它或类似公司的责任并非易事。

人工智能生成的结果很少会与它所依据的数据高度相似,这使得版权持有者很难确定自身内容是否被用于模型训练。此外,公司可能会声称自己并不知情:用户在与公司服务互动的过程中提供了内容,那么公司怎么能知道这些内容是从哪里来的呢?

创作者和出版商们采用了许多方法来防止自己的内容被人工智能训练黑洞吸走。一些公司引入了技术解决方案来阻止数据搜刮。

还有一些公司更新了服务条款,禁止将其内容用于人工智能训练。

上个月,全球最大唱片公司之一的索尼音乐致函700多家生成式人工智能公司和流媒体平台,警告它们未经明确授权不得使用其内容。

但只要OpenAI 能够利用“用户提供”这一漏洞,这些努力都将是徒劳的。

要解决 GPT-4o的外部性问题,唯一可信的办法就是监管机构限制人工智能公司收集和使用用户共享数据的能力。

Project Syndicate版权所有

www.project-syndicate.org

 

 
 

 

反应

 

国际

5件事绝不能告诉ChatGPT 专家警告:或失掌控权

(纽约16日讯)随着人工智能(AI)聊天机器人蓬勃发展,人们开始向ChatGPT等聊天机器人倾诉各种疑难杂症,包括咨询感情困扰、撰写电子邮件、把狗狗的照片变成人类等等。但专家指出,有5件事情显然永远不应该告诉AI,例如在工作上应用时,就可能不小心泄露企业机密。

史丹佛大学“人本人工智能研究中心”(HAI)研究员珍妮佛(Jennifer King)向《华尔街日报》表示,当你向聊天机器人输入一些东西时,“你就失去了对它的掌控权”。

1. 企业资讯

如果你在工作中使用ChatGPT或其他AI聊天机器人,例如撰写电子邮件或编辑文件,可能不小心暴露客户资料或非公开商业机密。一些公司会订阅企业版AI聊天机器人,或者拥有具备保护措施的客制化AI程式,相对能够防止这类问题。

2. 医疗结果

尽管医疗业非常重视患者隐私,会严格保护患者个资并且防止歧视,但AI聊天机器人通常不包括在此范围内。如果你觉得有必要请ChatGPT解释医疗检测结果,建议在上传文件之前,事先剪裁或编辑,“只保留检测结果”的部分就好。

3. 登入资讯

一些人可能认为,随着AI执行任务的能力有所提高,可以放心把各种平台的账号密码交给它们,但AI机器人不是保险箱,也不能保证这些账号的安全,把这些资讯输入“密码管理工具”,才是更好的选择。

4. 身分资讯

不要向ChatGPT揭露任何身分资讯,例如生日、地址、电话号码、身分证字号、护照号码等。尽管一些聊天机器人会对这些敏感资讯进行编辑,但更安全的方法就是完全避免分享这些资讯。

OpenAI一名发言人向《华尔街日报》表示,“我们希望我们的AI模型了解世界,而不是个人。我们积极减少搜集个人资讯。”

5. 金融账号

绝对不要提供你的银行或投资账号,这个资讯可能被骇客入侵,导致资金流向遭到监控或盗用。

事实上,OpenAI在官网写道,“请不要在你的对话中分享任何敏感资讯”,Google也在AI聊天机器人Gemini的页面呼吁使用者不要输入“你不希望审查员看到的机密资讯或任何数据。”

如果仍想和AI分享私密资讯,建议更换成高强度密码,并且启用多重要素验证。人工智能公司“Anthropic”总执行长克林顿(Jason Clinton)建议,可以在每次使用完毕之后“删除对话框”,企业通常会在30天之后,永久删除这些数据。

新闻来源:ETtoday新闻云

反应
 
 

相关新闻

亚亦君令补选
南洋地产
BESbswyBESbswyBESbswyBESbswyBESbswyBESbswy