全国统一客服热线

新闻动态

地址:

江苏省南京市玄武区玄武湖

手机:

新闻动态

当前位置:官方首页 > 新闻动态 >

机器人医生能下“病危通知书”吗?

2019/03/15

    最近,美国加州一家医院发生了件怪事:一名机器人医生告诉78岁的病人,他的病没治了。由一名机器人来给人类下“病危通知书”,病人的家属不敢相信也无法接受,于是将他们的愤怒在媒体上公开了。

    详情是这样的:一位长期受慢性肺病折磨的病人3月初住进了加利福尼亚州弗里蒙特一家医院急诊科。初步诊断后,一名机器人在重症监护室对病人进行了随访。机器人告诉病人,他将无法返回家中接受临终关怀,但是他可以在医院使用药物来减轻痛苦。这次诊断意味着,一名机器人给病人下了“病危通知书”。在入院4天后,病人死亡。

    尽管医院也认为这件事的发生是偶然且“极其不正常”的,但是随着人工智能技术的进步,人与机器人发生矛盾的事情一定会越来越多。从这个案例看,家属质疑的并不是机器人的能力——事实上机器人对病情的判断是准确的。那么问题究竟出在哪里呢?

    大家还记得电影《我,机器人》开头吗?两辆车掉进水里,机器人需要做一个选择,是先救警探还是孩子。最终机器人救了警探,因为它计算出警探有45%的生还机会;而孩子只有11%的生还机会。在这个场景中,机器人的能力或者判断似乎也并没有错,但是当遇到同样问题时,人类已经在千百年的发展中形成了自己的价值观:应该先救援老弱妇幼。

    在美国加州医院的案例中,病人家属认为,“这些(病人不行了)话应该是一个活生生的人来告诉我们,而不是冰冷的机器。”家属也没有质疑机器人的诊断能力,而是从价值观上,他们不能接受“冰冷”的机器人给病人判了“死刑”。

    机器人今天确实已经在广泛领域得到应用,在工业、教育、医学等领域,机器人已经开始替代一些人类的工作。随着机器人不断智能化,当机器人替代我们完成了各项工作,有没有一些活儿是机器人不应该去做的呢?

    机器人给病人下病危通知,机器人选择先救警察而不是小孩,引发人类担心的根源,首先是因为机器人没有伦理道德。我们的担心,其实就是机器人可能引发一系列伦理风险问题。

    但本文开头提到的案例,还有担心机器伤害人类的问题,其实是另外一层的冲突:法律冲突。机器人给病人下病危通知,有没有法律效力?在我们的法律社会,一个人犯了错会承担后果,民事案中承担民事责任,刑事案件中承担刑事责任。机器人呢?机器人能够成为承担责任的主体吗?既然机器人不能够成为承担责任的主体,反过来是不是可以理解为,机器人其实无权给病人做出诊断?或者我们需要在机器人不能承担责任的情况下,设计出追究相关人的法律责任的制度?

    随着AI技术和5G技术的发展,机器人的发展、创新和使用一定会大步向前走。机器人所带来的伦理道德风险问题和法律问题会越来越多,看来我们是该考虑考虑怎么办了。(深圳商报报道)


网站首页| 关于我们 | 产品展示 | 荣誉资质 | 新闻动态 | 成功案例 | 人才招聘 | 留言反馈 | 联系我们 |

电话:

江苏省南京市玄武区玄武湖 技术支持:织梦模版  ICP备案编号: