对待AI和人类犯错“搞双标” 居然是有科学根据的

可能有不少人好奇,为什么自动驾驶的事故率已经降低到现在这样的水平还不被允许上路,却允许那些更不靠谱的人在路上制造更多的事故。简单而言就是,为什么我们对AI的要求比人还高?

对此,计算机科学家亨利·利伯曼的团队通过实验给出了一种答案——双标。没错,我们人类对待AI和人的态度确实是双标的,这很有趣。

对待AI和人类犯错搞双标 居然是有科学根据的-图1

利伯曼团队进行了一组对照实验,他们招募了一批志愿者分组测试受试者对AI和人类相同失误行为的反应,得出的结论是反应完全不相同。这结果想来大家也能预料到,但为什么呢?

通过对反映模型的分析,团队发现人们也不是真的对人类的要求很低,只是评判角度完全不同。人们对于AI的评判标准是建立在“结果”上的,而对于人类的评判则是基于“动机”

这就很容易了,人们不允许自动驾驶上路是因为这项AI技术被开发出来就是用来工作的,我们对他的要求自然聚焦在结果上,要求就会很严格。而对于人类中的那些马路杀手,人们则更多地批判他们为什么要做出如此危险的行为。

在这套理论下,你认为自动驾驶的事故率要降低到多少才能被允许上路呢?

发表评论(共0条评论)

最热评论

全部评论

意见
反馈