国际

人工智能辨性取向九成准
恐侵犯隐私甚至迫害异己

(旧金山9日综合电)美国心理学家利用人工智能(AI)分析人脸特征,判别该人是否同性恋者,准确度达九成,远超人类。

专家说,今次研究旨在提醒公众同类科技可能严重侵犯私隐,甚至用于迫害异己,应多加关注。



研究由美国史丹福大学心理学家科辛斯基及王一伦(译音)合作进行,报告刊于《人格与社会心理学期刊》。他们从美国其中一个热门交友网站,取用来自约1.5万人超过3.5万张照片输入至VGG-Face软件作为分析对象,各性别及性倾向人数大致平均分布。

测试结果显示,如随机展示一张同性恋及一张异性恋男性的照片,软件分辨出两者性倾向的成功率为81%,如展示同一男性的5张照片,判断其性倾向的成功率更增至91%。至于女性方面,软件分辨出同性恋及异性恋者的成功率为71%,用5张照片判断性倾向的成功率为83%。利用同一组照片测试,人类分辨男性成功率仅61%,而女性成功率更只有54%。

研究员发现,同性恋者倾向拥有“非其性别典型”的特征、表情及打扮习惯,例如男同性恋者会有较长的鼻子及较大的额头,女同性恋者会有较大的颚骨和前额较小等。

不过,科辛斯基强调,研究的最终目的并非要创造出能够可靠辨别性倾向的系统,而是希望展示出人工智能的威力将令私隐受侵犯变得“无可避免”,必须了解其可能危害。



反应

 

国际财经

爆料OpenAI侵权 26岁前员工陈尸家中

(旧金山14日讯)美国科技公司OpenAI去年遭《纽约时报》等多家媒体提告,指控其未经授权使用新闻内容训练AI模型,官司仍在进行中,吹哨者巴拉吉(Suchir Balaji)却传出陈尸旧金山的公寓,明显死于轻生。

OpenAI前研究员巴拉吉年仅26岁,遗体在11月26日感恩节前2天被发现,警方在现场未发现外力介入痕迹,旧金山首席法医办公室证实他死于自杀,加州《圣荷西信使报》率先披露他的死讯。

巴拉吉今年稍早从OpenAI离职,在《纽约时报》10月刊出的报道中揭露公司开发ChatGPT过程中违反版权法,“如果你相信我所相信的,你就得离开公司”,认为ChatGPT等类似的聊天机器人将破坏创造数位资料与内容的个人及组织商业可行性,而这些内容目前被广泛用于训练AI系统。

他也曾在社群平台公开发文批评,“我在OpenAI工作近4年,过去1年半以来一直在研究ChatGPT”,起初他对版权和合理使用不太了解,但听闻针对生成式AI公司的诉讼后开始深入研究,“最终得出的结论是,用‘合理使用’为生成式AI产品辩护似乎站不住脚。”

OpenAI发言人证实巴拉吉死讯,“我们对这个难以置信的悲痛消息非常震惊,在这艰难时刻,我们的心与巴拉吉的家属同在。”

该公司正面临与出版商、作家、艺术家的法律纠纷,还有多家媒体公司于去年12月提起诉讼,要求OpenAI与微软承担数十亿美元赔偿责任。

《圣荷西信使报》指出,巴拉吉掌握的资讯原先被认为是诉讼重要证据。

新闻来源:ETtoday

反应
 
 

相关新闻

南洋地产