Connect with us

Saaspad | China Tech & SaaS News, Trends & Insight

樱桃雪碧、性取向检测、释放罪犯…混沌中的AI值得信任吗?

想法

樱桃雪碧、性取向检测、释放罪犯…混沌中的AI值得信任吗?

樱桃雪碧、性取向检测、释放罪犯…混沌中的AI值得信任吗?

你可能已经看到了漫天报道的樱桃雪碧与AI的故事。可口可乐作为一个老牌公司,现在也一点点接起了AI软件的单子。「可口可乐听从AI指示,生产樱桃味雪碧。」各大媒体头条都这么写。但是,这类新闻就像多数AI口号一样,似乎助长了对AI的过度依赖,而这种不负责的风气很可能导致灾难性的后果。

爱丁堡大学的三位教授重新检查了2009年法航447飞机失事事件,希望了解自动化技术为何失控导致意外。根据驾驶舱记录仪的录音显示,在228命乘客遇难前,有一名飞行员说「这不可能。」他们当时所经历的一切,都与他们信任的技术背道而驰。教授们在《哈佛商业评论》中警醒读者:

“我们的研究显示……自动化技术会在紧急事件发生时限制飞行员的应对能力,随着我们越来越依赖科技,科技也会吞噬我们的基础认知技能……尽管极端情况不大可能发生,但是,商业航空仍然揭露了自动化技术可能产生的意外和灾难性后果。”

法航447号自动驾驶仪断连后,于2009年6月1日坠入大西洋。

同志雷达

与此同时,斯坦福大学的两位研究人员称其研发出了「可通过分析人脸来推测性取向的机器系统」。什么?现在光看脸就能知道别人的性取向了吗?这是否是AI版本的颅相学?

于是我们渐渐意识到,机器学习算法很可能会包含开发者的个人偏见。无论是好是坏,他们还可以接受用户的培训,表现出一定的品质。虽然我们可以针对性地处理这些AI缺陷,但AI的精确性仍是一个问题。在实验中,AI从1000名随机选择的男性受试者中指出了100位最像同性恋的男性,但其中只有47人真的是。可见,AI测试的错误性高于准确性。不仅如此,如果要将AI算法运用到如此私人的重要领域,行业标准必须设定得很高。

“AI研究人员也无法充分解释机器的选择理由。在这样的情况下,全方位运用AI将带来巨大挑战,有时可能导致黑匣子问题。虽然研究人员在努力修正这个问题,但鉴于训练AI的特殊方法,AI程序是无法像常规软件那样展示工作原理的。”

当然,缺乏透明度和开发者的个人偏见还不是我们无法信任AI的全部原因。当我们谈论AI软件时,也必须注意到错误的输入值会带来同样错误的输出值。

数据问题

今年夏初,旧金山高级法院的法官听从了预测算法的推荐,释放了19岁的Lamonte Mims,他曾因违反假释条例而被捕。五天之后,Mims抢劫并谋杀了一位71岁的摄影师。地方检察机构调查显示,预测软件并未出错,是输入Mims犯罪记录的书记员输错了数据,遗漏了让算法做出拘留候审建议的重要信息。

部分考量预测算法的推荐后,法庭释放了拘留的Lamonte Mims。五天后,他却犯下谋杀案。

人们在很多领域都仍要警惕对AI的过度信任,自动驾驶汽车就是一例。

假设有两辆自动驾驶汽车:一辆载着91岁正在打盹的前排乘客,另一辆载着后座的3个小孩和前排的孕妇与模范爸爸。两车即将在单车道上相撞,两侧都是没有防护的1000英尺的陡坡,哪辆车会转弯,牺牲自己的乘客?AI会如何给汽车下指令?如果两辆车都属于那位打盹的91岁老者,它们会作何选择?又或者其中一辆坐着掌权人士呢?不管变数如何,这些都是困扰“失控”的难题,与法航447号飞行员面临的不同。

 

你才是驾驶员

对上述道德困境的简单回答是:AI会指示两辆车一起停下。但是,要让AI达到这一步,我们必须信任AI,放弃自我控制权。我们必须把生命押注在几行软件代码上。

但是,请不要混淆AI推荐和AI决策执行的区别。正如《旧金山纪事报》所写的:「法官不是非得要听从算法的建议。」 而樱桃味雪碧的推出也不是AI「决定」的。无论大小事,诸多案例已经表明,AI的可靠程度仍然不高。

本文编译自HUFFPOST

Continue Reading
You may also like...
Hunter Liu的头像

Click to comment

Leave a Reply

电子邮件地址不会被公开。 必填项已用*标注

More in 想法

Popular