名家专栏

人工智能神话与迷思/Project Syndicate

最近几周以来,人工智能(AI)比其短暂的历史上的以往任何时候都吸引着更多的关注、资金和人才。但突如其来的狂热乃是该领域之外人士所兜售的神话和误解的结果。

多年来,AI领域增长有序,已有方案每年能够在基准基础上性能增进1至2%。但2012年发生了真正的突破,计算机科学家乔弗里·亨顿和他的多伦多大学的同事们证明,他们的“深度学习”算法能够击败最先进的计算机视觉算法,在ImageNet Challenge(基准数据集)上的优势高达10.8个百分点。

与此同时,AI研究者也得益于更加强大的工具,包括高性价比云计算、高速廉价的数据处理硬件(GPU)、通过互联网实现的无缝数据共享,以及高质量开源软件的进步等。在这些因素的推动下,机器学习,尤其是深度学习,主宰了人工智能,让人兴奋不已。投资者竞相投资于有前景的AI公司,政府也投入数亿美元用于AI研究所。

炒作成万灵丹

该领域必然还会有进一步的进展,但这种进展未必是线性的。尽管如此,炒作这些技术的人抓住各种诱人的神话,首先便是AI能够解决一切问题。

每周,我们都能读到轰动性的报道,AI又超越了人类:《智能机器自学量子物理》;《人工智能在辨别肺癌方面胜出人类》,等等。这些标题常常只是狭隘的正确。对于像“辨别肺癌”这样的一般性的问题,AI只能为问题提供特殊的、简化的解读,将任务退化为图像识别的档案归类。

不理解图片或语言

这些故事不曾提到,AI其实并不像人类那样去理解图片或语言。相反,算法寻找隐藏的复杂特征组合,如果它们出现在特定的图片或档案集中,就属于目标类别的特征(如安正或暴力威胁)。这样的分类未必可以信任用于关于人的决定——不管是癌症患者诊断还是应该将某人关禁闭多久。

训练AI常识有挑战

不难看出这是为什么。尽管AI系统在通常与“高智能水平”(下象棋、围棋或Jeopardy)相关的任务中表现胜于人类,但它们距离擅长人类未经或稍加训练便可驾驭的任务(如看懂笑话)还十分遥远。

我们所谓的“常识”,其实是巨大的隐性知识库——自幼体验和了解世界所形成的累积效应。将常识编码并输入AI系统仍是一个悬而未决的挑战。尽管AI将继续解决某些难题,但距离完成许多对儿童来说也是小菜一碟的任务仍有很长距离。

这就引出了第二个相关神话:AI很快就将超越人力智能。2005年,畅销未来主义作家瑞·库茨维尔预测,到2045年,机器智能将比所有人力智能加起来还要强大不知凡几。但尽管库茨维尔认为AI的指数增长或多或少将保持下去,但其所面临的壁垒也会不断抬高。

壁垒之一便是AI系统复杂程度的激增,目前已经需要数十亿个参数来训练机器学习算法从海量数据集中学习。我们已经无法理解系统所有各部分之间的互动,因此也很难掌握如何将各部分组合并联通起来解决某个任务。

另一个壁垒是带注释(“标签”)数据的稀缺。带注释数据是机器学习的基础。谷歌、亚马逊、面簿和苹果等科技巨头坐拥最令人憧憬的数据,但毫无公开这些无价资产的激励。

会创造新工作

第三个神话是AI将很快让人变得多余。在2015年的畅销书《未来简史》中,以色列历史学家尤瓦尔·诺亚·赫莱利指出,大部分人将在所有高层次智力决策都成为AI系统专属的社会中沦为二等公民。

事实上,一些普通工作,如驾驶卡车,很有可能在未来十年内被AI取代,许多与日常重复任务有关的白领工作亦然。

但这些趋势并不意味着会发生大量失业,数百万家庭只能靠有保障的基本收入过活。老工作将被目前尚无法想象的新工作取代。1980年,没人知道数百万人很快就能靠互联网的附加值生活。

诚然,未来的工作可能会要求高层次数学和科学训练。但AI本身可以提供部分方案,实现参与性更强的新方法训练未来人获得必要的能力。被AI夺走的工作将会被AI训练人们胜任的工作取代。不存在人类注定要沦为未来智力奴隶的科技或历史定律。

当然,还有更多神话:AI将控制并伤害人类;永远无法实现人类式的创造力;永远无法构建因果之间的逻辑链条等。我相信时间和研究最终会祛魅这些神话。

这是AI的激奋时刻。但我们更有理由对该领域的未来保持现实。

Project Syndicate版权所有
www.project-syndicate.org

反应

 

国际财经

爆料OpenAI侵权 26岁前员工陈尸家中

(旧金山14日讯)美国科技公司OpenAI去年遭《纽约时报》等多家媒体提告,指控其未经授权使用新闻内容训练AI模型,官司仍在进行中,吹哨者巴拉吉(Suchir Balaji)却传出陈尸旧金山的公寓,明显死于轻生。

OpenAI前研究员巴拉吉年仅26岁,遗体在11月26日感恩节前2天被发现,警方在现场未发现外力介入痕迹,旧金山首席法医办公室证实他死于自杀,加州《圣荷西信使报》率先披露他的死讯。

巴拉吉今年稍早从OpenAI离职,在《纽约时报》10月刊出的报道中揭露公司开发ChatGPT过程中违反版权法,“如果你相信我所相信的,你就得离开公司”,认为ChatGPT等类似的聊天机器人将破坏创造数位资料与内容的个人及组织商业可行性,而这些内容目前被广泛用于训练AI系统。

他也曾在社群平台公开发文批评,“我在OpenAI工作近4年,过去1年半以来一直在研究ChatGPT”,起初他对版权和合理使用不太了解,但听闻针对生成式AI公司的诉讼后开始深入研究,“最终得出的结论是,用‘合理使用’为生成式AI产品辩护似乎站不住脚。”

OpenAI发言人证实巴拉吉死讯,“我们对这个难以置信的悲痛消息非常震惊,在这艰难时刻,我们的心与巴拉吉的家属同在。”

该公司正面临与出版商、作家、艺术家的法律纠纷,还有多家媒体公司于去年12月提起诉讼,要求OpenAI与微软承担数十亿美元赔偿责任。

《圣荷西信使报》指出,巴拉吉掌握的资讯原先被认为是诉讼重要证据。

新闻来源:ETtoday

反应
 
 

相关新闻

南洋地产