灼见

【灼见】AI知道什么是正义吗?/周若鹏

一直觉得法官好难,法律千百条,案例千百宗,如何判刑才叫公平呢?法官是人,又怎能完全客观呢?假设眼前有个偷鸡犯,怎样确保他的刑罚和去年偷鸡的犯人不会差太远?

早在ChatGPT面市前,东马法庭已启用人工智能(AI),名为AICos,帮助法官消化海量文字,只要输入相关参数,AI就能根据先例给法官建议刑罚,大大提高效率及维持判刑公允。

法官拥绝对自主权

AI只是辅助,法官依旧拥有绝对的自主权。目前系统只用于拥毒和性侵案,因为这个范畴有足够案例训练AI。AICos于2024年赢得了首相暑颁发的创意卓越奖,实至名归,是吗?

2022年1月在马德里,赫米德的丈夫用木条毒打她。她报警了,警察在让她回家之前问了她35道是非题,把答案输入一个叫VioGen的演算法,用以预测她再受家暴的可能性。如果高危,警方会加派人手监视,然而VioGen说风险低,警方就决定无须太关注了。7周后,丈夫把赫米德刺毙。她年仅32岁,留下4个孩子。

警方错了吗?罪案那么多,他们需要借助系统高效地权衡轻重,分配资源;VioGen错了吗?西班牙政府坚称误判只是偶然,事实上它帮助了更多人,自2007年以来重复家暴的案子下跌逾半,但同期间,还有247个像赫米德这样遇害的女人。

政府拒绝公开VioGen给这247个受害者的判断,但《纽约时报》在司法审查中发现公开的98宗家暴致死案中,有一半是VioGen判定为安全的。VioGen只是辅助,警方依旧拥有绝对的自主权,但九成警察都选择跟随VioGen的决定。很方便,不是吗?

我不确定AICos用怎样的AI,若是用“专家系统”(根据专家提供的条件逐步推演),那么所得的答案都有迹可循;若用大语言模型,那是一个黑箱,不知如何得到答案。有使用AI的用户都知道,它会产生“幻觉”瞎掰。

人类需做最后把关

不靠AI,只靠人,判断会更准吗?葛拉威尔在《解密陌生人》谈过一例,2008到2013年间纽约市有55万宗罪案,法官共准许40万人保释候审,他们判断这些人不会在保释期间犯案。经济学家穆莱纳坦做了这样的实验,他开发AI,在同样的55万宗案中也选40万人保释。

结果AI所释放的人,犯案率比人类法官释放的少了25%!一般上法官坚信必须亲眼看见嫌犯,知道周边讯息,才可更全面地下判,但这个AI什么都不知道,仅凭嫌犯年龄和犯罪记录决定是否批准保释,反而预测得更精准?

人不完美,AI也不可能完美。不管VioGen实际上防止了多少家暴,人们总会聚焦于它的失误。AI会犯错的,但在限定的领域内AI的效率确有可能比人类强。要问的也许是:对于正义,我们追求的准绳究竟是什么?是铁面无私,还是法外开恩?

最铁面的判官是没有共情能力的AI,就算那个偷鸡犯失业已久,家有妻小,AI都不管,只有法官才懂得同情。人世间的事,终究需要人类做好最后的把关。

反应

 

要闻

政府受促整合AI与物联网 为水灾管理提供智能方案

 (吉隆坡25日讯)物联网技术专家建议政府整合人工智能(AI)与物联网(IoT)科技,作为我国水灾管理的智能及成本效益解决方案。 

大马物联网协会财务帕玛纳丹指出,能够整合各种数据来源的智能水灾检测系统,将克服现有系统的不足,并增强水灾预测能力,尤其是在气象方面。 

“例如,该系统能够处理来自监督河流水位、降雨模式、国家水文地理中心的潮汐数据和卫星图像。这种智能集成能够提供更加全面及准确的水灾风险信息。 

“这模型目前已被印度气象局与谷歌水灾预警计划合作使用,已证明能够有效提高该国水灾预报的准确性。” 

他最近接受马新社访问时说,与传统系统相比,这项基于各种传感器的科技能够在灾难发生前48小时发出预警,从而提高水灾风险检测的准确性。 

“这种技术应得到充分利用,以防止情况恶化,同时向居民发出警告,提醒他们采取预防措施。” 

帕玛纳丹提到,使用人工智能可以使该系统不断更新,从而提高预测的准确性和质量。 

他建议系统应分阶段实施,从高风险城市地区开始,然后扩展到乡村地区。 

“除了与国家水灾预测及警报中心(PRABN)整合外,卫星影像的附加信息也能帮助地方政府更有效地规划城市发展。”

反应
 
 

相关新闻

南洋地产