首页 手机网 财经号下载
入驻财经号 登录 客服 | 广告合作
财经号 让投资更轻松
主播正在直播中,速来!
首页> 财经> 正文

自动驾驶显现道德困境:1个人和5个人,AI会撞谁?

财经号APP
前瞻网前瞻网 2020-07-08 12:15:06 619
分享到:

目前程序员在开发和自动驾驶相关的AI程序时,面临着一个相当大的问题,或者说是道德困境。原因是,到现在为止,似乎都没有工程师考虑过,人们可能会用自动驾驶车辆做坏事的情况。

这种道德困境大家都很熟悉:假设路上有一辆自动驾驶汽车,如果它继续往前开,就会撞死前车上的5个人;如果它紧急打方向避让,就会冲上人行道撞死1个行人。

对于这种情况,目前大多数关于AI伦理的讨论,都集中在自动驾驶汽车AI系统的取向应该是自私的(保护车辆及其货物)还是功利(选择伤害最少的人的行为)的。而在现实中,这2种伦理方法都会引起自身的问题。

总体而言,业界目前对AI所要面临的情景设想是非常简化的,道德判断远比此更复杂。比如说,如果给AI设定程序,让它撞1个行人,保护前车的5个人,那么,如果前车上的是5个恐怖分子呢?如果他们是故意要利用AI程序杀死那个行人呢?

对此,北卡罗来纳州立大学科学、技术与社会(STS)项目助理教授维尔科·杜布尔耶维奇(Veljko Dubljević)提供了另一种思路。他提出了一种称为代理人行为后果(ADC)的模型,作为AI道德判断的框架。

ADC模型基于3个变量来判断决策的道德性:首先,程序的意图是好是坏?第二,行为本身是好是坏?最后,结果或后果是好是坏?这赋予了AI很强的灵活性,比如一辆车闯红灯时,还将是否为了避开了一辆超速的救护车以及是否成功避开。

这个模型更贴近普通人遇到的情况,在生活中,大多数人的道德判断通常也是具有相当灵活性。尽管大多数人有稳定的道德原则,但在具体问题上又是灵活的,比如为了好事说谎常常被视作好事。

在此之前,也有研究人员提出了另外的思路。德国达姆施塔特理工大学研究人员曾提出“道德地图”的概念。

该校席格登·图兰(Cigdem Turan)博士表示:“如果2个词经常一起出现,就相当于在地图上紧密连接。这样,“杀人”和“谋杀”相当于2个相邻的城市,“爱”则是一个遥远的城市。当我们问起“我应该杀人吗?”时,期望结果是‘不’比‘是’离问题更接近。这样,我们可以问任何问题,并用这些距离来计算是非程度。”

通过这种穷举所有情况的方法,就能给机器设定一张和人的道德体系类似的到的地图。

这种穷举不仅包括研究人员给出的情景,还包括从大数据中学习。通过学习,试验AI算法可以区分不同语境并加以道德判断。例如,杀人是错的,但消磨时间是可以的。机器做到了这一点,不是简单地重复它找到的文本,而是从人类在文本中使用语言的方式中提取关系,并组成一张地图。

编译/前瞻经济学人APP资讯组

展开全文
下载APP,与投资高手语音互动>>

财经号声明: 本文由入驻中金在线财经号平台的作者撰写,观点仅代表作者本人,不代表中金在线立场。仅供读者参考,并不构成投资建议。投资者据此操作,风险自担。同时提醒网友提高风险意识,请勿私下汇款给自媒体作者,避免造成金钱损失,风险自负。如有文章和图片作品版权及其他问题,请联系本站。客服咨询电话:059163307968、059163307969。

0条评论 网友评论文明上网,理性发言

中金登录 微博登录 QQ登录

    查看更多评论

    举报此人

    X
    确认
    取消

    热门视频换一批

    温馨提示

    由于您的浏览器非微信客户端浏览器,无法继续支付,如需支付,请于微信中打开链接付款。(点击复制--打开微信--选择”自己“或”文件传输助手“--粘贴链接--打开后付款)

    或关注微信公众号<中金在线>底部菜单”名博看市“,搜索您要的作者名称或文章名称。给您带来的不便尽请谅解!感谢您的支持!

    复制链接

    鲜花打赏 X

    可用金币:0

    总支付金额:0

    您还需要支付0
    我已阅读《增值服务协议》
    确认打赏

    1鲜花=0.1元人民币=1金币    打赏无悔,概不退款

    举报文章问题 X
    参考地址

    其他问题,我要吐槽

    确定

    温馨提示

    前往财经号APP听深入解析

    取消 确认