国际

人工智慧看脸辨同志
准确率达九成恐侵隐私

分析照片即可辨别某人是否为同志?(网络图)
分析照片即可辨别某人是否为同志?(网络图)

(华盛顿8日讯)美国史丹佛大学学者研发最新人工智慧技术,分析照片即可辨别某人是否为同志,准确率最高达九成。

虽然这项技术目前只适用于白种人,但已引发争议,论者担忧可能遭滥用于迫害同志。研究人员更警告,未来分析人脸还可能得知政治立场等更多资讯,人们的隐私恐更加欠缺保障。



《经济学人》披露,史丹佛大学学者柯辛斯基(Michal Kosinski)及王以伦(音译)以撷取自美国约会网站的3.5万张男女会员照片作为样本,以精密的数学系统进行分析,发现男女同志在容貌特征、表情及妆扮上都属“性别非典型”,亦即男同志较女性化、女同志较男性化。

容貌有特征

这份刊登在《性格与社会心理学期刊》的研究也发现,男同志与异性恋男性相比,下巴较窄、鼻梁较长、额头较宽;女同志和异性恋女性相比,则下巴较宽、额头较窄。

利用这套系统辨识一张人脸照片,正确辨别男同志的比率为81%,女同志则为74%;若辨识同一人的5张照片,正确辨别男同志的比率更达91%、女同志83%;若是人眼目测,正确辨别男同志的比率只有61%、女同志54%。

作者指出,相关研究结果“强烈支持”性取向是与生俱来、非后天形成的理论;至于辨别女同志的准确率较低,也支持女性性取向比较流动的看法。不过,这项研究未纳入有色人种,也未涵盖变性人或跨性别族群。



恐迫害LGBT族群

《卫报》报道,这项研究经披露后引发争议。批评者认为根本不该研发这种软体还将之公开,恐被用于迫害LGBT族群。多伦多大学心理学者卢尔(Nick Rule)就说,这项技术令人不安,“作者已大胆展示这项技术多么具有威力……现在我们知道,需要采取保护措施”。

不过,报告作者指出,这种技术早已存在,将它公诸于世很重要,政府与企业可积极考量其隐私风险,进行规范。作者更表示,未来可能出现以人工智慧判读人脸,即可知晓其政治立场、心理状态等隐私问题的技术。有识之士担忧电影《关键报告·Minority Report》的情节可能成真,电脑预测某人会犯罪,他就会预先被捕。

脸部辨识技术公司Kairos执行长布拉金(Brian Brackeen)就说:“只要有足够资讯,人工智慧可以告诉你关于任何人的任何事情。问题是,这个社会想知道吗?”

新闻来源:苹果日报

反应

 

国际

App恐偷偷记录你行踪 学3招护隐私

 (华盛顿12日讯)根据《每日邮报》报道,iPhone用户可能正在被手机上的APP悄悄追踪,调查显示,iPhone用户平均会在手机安装至少60个APP,而这些APP开发者可能会透过存取用户的浏览纪录和行踪来搜集用户资料,之后进行贩售,这样一来便能针对用户的使用习惯或爱好投放商业讯息。

尽管这些行为并无违法,但多数用户根本不清楚iPhone其实有提供自行开启或关闭相关功能的选项,报道进一步指出,APP开发人员是透过存取iPhone的特定设定,来获得用户的浏览纪录和行蹤,用以建立用户资料库。对此,《每日邮报》提供三个实用的建议,帮助iPhone用户更好地保护自身隐私。

首先是关闭“广告追踪”功能,只要进入“设定”→“隐私权与安全性”→在“追踪”选项中,将APP的追踪权限一一关闭即可;其次是关闭“重要位置”功能,同样进入“设定”→“隐私权与安全性”→“定位服务”,再往下滑到最后的“系统服务”,关闭其中的“重要位置”选项;最后则是直接关闭整个“定位服务”,一样在“设定”中依序点选“隐私权与安全性”和“定位服务”,即可看到相关选项。

值得注意的是,虽然关闭上述选项可以降低“广告”的针对性,以及APP中部分“推荐”功能的准确度,让APP开发者较难掌握用户的喜好,但同时也可能导致某些功能受限,如关闭“定位服务”将无法使用即时导航等需要定位的APP,因此,用户还是要视个人的实际需求,斟酌是否要全部关闭这些设定。

新闻来源:世界新闻网

反应
 
 

相关新闻

南洋地产