抉择、在决策的方案抉择阶段,有什么不同吗?

最近,伦理学家Patrick Lin在一篇文章中表示,在未来的中加入一个可编程的道德按钮,并不是解决这项新科技带来的道德上的不适应的最佳方案。不过,直接忽视你的道德选择的无人驾驶汽车难道不是更糟糕吗?显然,对于这个问题有一个中庸的解决方案,我们只消看看现代医疗就能找到答案。

首先,我们先来做一个,这个实验与Patrick Lin文章中的那个差不多,叫做“隧道问题”:你坐在一辆疾驰在单行道山路上的无人驾驶汽车里,这辆车正以飞快的速度靠近一个狭窄的隧道。就在你所乘坐的汽车进入隧道前的一刻,一个小孩冒了出来,并走到了路中间,正好挡住了隧道的入口。这时刹车已经来不及避免事故。无人驾驶汽车只有两个选择,一是直接冲过去,但这会导致小孩死亡;二是快速转向撞向隧道的任意一边,但这会让你丧生。

现在,你问问自己,汽车是应该直接冲过去还是转向,由谁来做这个决定?汽车厂商?用户?立法者?

Initiative就这一问题对公众进行了一项调查。调查显示,77%的受访者认为应该由用户自己或者立法者来做这个决定。认为应该由汽车制造商和设计师做决定的受访者只有12%。

我们应该对这个调查结果感到惊讶吗?也许不应该。这个“隧道问题”引发了一个深刻的道德问题,而且是个没有正确答案的问题。在这种情况下,个人内心的道德责任感,对于是选择冲过去还是转向有着重要的影响。

根据Bernard Williams等哲学家的观点,我们的道德责任感有时会胜过其它道德方面的考虑,即使是违反直觉的,比如牺牲大多数人成全少数人。在这个隧道问题上,如果直接否认个人拥有自己的道德偏好,将决定直接预先植入到汽车中,很有可能会违背用户的信念。这绝对不合适。

,当必须做出道德选择的时候,标准的做法是护士和医生通知病人,并告知他们所有合理的治疗选项,然后让病人在知情的情况下做出符合自己偏好的选择。这个知情同意书达成的过程,遵循了个人有权利对自己的身体做出决策的理念。医疗领域的知情同意书已经在道德上和法律上获得了认可,对于哪些未与病人达成知情同意书而私自替病人做选择的医护工作者将面临不作为的指控。

知情同意书并非一开始就是医疗领域的标准做法。以前,更通行的做法是医生代表病人在重要治疗决策中做选择,医生们常常以这是医疗计划的一部分来欺骗病人。

知情同意书的引入并非为了简化办事流程。事实上,这个做法反而让整个医疗过程的决策变得相当复杂。知情同意书让病人的负担明显加重,因为他们必须在各种选项中做出艰难的抉择。同时,这个做法也让医护工作者有了另一种不作为的可能性。此外,这个做法还增加了医疗机构的成本,因为医生需要花时间与病人进行艰难的交谈,还需要完成一些文书的签署工作。由于医疗领域是一个专业性非常强的领域,因此医生在告知病人选项的时候,往往非常艰难,作为外行的病人也很可能根本无法理解医生所说的那些医学概念。

你也可以认为,知情同意书将责任全部转移到了病人的身上。反对者认为,知情同意书是不公平的,它将个人至于各种艰难、难以理解的选择之中,由于缺乏相应的知识使得个人在选择面前陷入了手足无措的境地之中。

然而,尽管知情同意书带来了一些挑战和各种麻烦,但是很难想象人们会愿意回到那个医生和护士可以在没有事先征求他们同意的情况下,替他们做出道德选择的年代。

那么我们又为什么要接受无人驾驶汽车的设计者和,在遇到前文所述的隧道问题的时候在未征得我们明确同意的情况下,代表我们做出道德选择呢?解决这个道德问题的一个可行的解决方案就是,在工程领域效仿在医疗行业久经考验的做法——引入标准完善的知情同意书。当然,实现这一点的其中一种方式(还有很多其它方式)就是在无人驾驶汽车中植入各种合理可行的道德选项,由用户自行选择设置。

是时候重新考虑机器人的责任了?

很显然,无论机器人学家如何设计机器人,只要出了事律师还是会起诉人,而非机器人。此外,如果我们依然遵循传统的产品责任法的话,那么毫无疑问引入这种道德设置选项一定会让用户和厂商面临更多的新型责任诉讼,正如知情同意书的出现在医疗领域引起的各种纠纷一样。

尽管如此,还是有越来越多的人相信我们需要在法律上重新认真思考,我们是否对无人驾驶汽车和其它类型的机器人实行了合理的管制。

首先,我们可以考虑将制造商未能及时与用户在涉及道德选择的问题上达成知情同意书的情况,视为产品存在缺陷。正如当医生未能在执行一种医学治疗前与病人达成知情同意书时,将被视为不作为一样,我们也可以认为如果制造商在无人驾驶汽车的设计和其它技术方面对用户个人的具体道德偏好不尊重的话,将需要对由此引起的问题承担一定的责任。这个方案可能会让无人驾驶汽车的设计复杂度增加。不过,谁说过制造机器人是一件很简单的事情吗?

如果我们在工程上引入一个健全的知情同意书制度,将可以避免很多麻烦的事情。当然,在给予用户的道德设置选项的数量上需要做些限制。因为如果你给用户的选择中包含“如果挡路的是个女人就直接撞过去”的话,将会显得非常荒谬。与此同时,如果允许用户选择牺牲自己以保护小孩的生命,将显得相当合理。只要这是符合用户的道德价值取向。即使这个任务比较复杂,但是对于哪些选项应该限制,还是很容易识别的。

机器人以及他们所引起的道德问题,极其复杂。但是如果我们想要转变我们对于工程和设计的道德思考,并且合理应对日益壮大的机器人行业所带来的问题的话,我们就必须认真关注和思考这个极其复杂的问题,而不是逃避。这个思维上的转变意味着我们必须拥抱复杂,因为道德和法律从来都是复杂的。不幸的是,即使在混乱中加入秩序,也不一定能够造就一个简单的世界。

雷锋网原创文章,未经授权禁止转载。详情见。

在行政组织决策过程中,拟定方案时因注意哪些问题

 第情报阶段:发现问题、确定目标
行政决策第阶段构决策前提目标确定包括两面:通整体环境探查、研究找制定决策理由;二探查所积累材料基础析辨明决策条件进确立决策目标问题准确、完整陈述抽象决策目标确前提
第二设计阶段:拟定备选案
阶段基本任务表述:列别选案;确定备选案执行;备选案能进行比性评价种设计基于类创造性思维按照综合、整体、效用、态原则选择优或者优程
第三抉择阶段:选定佳案
备选案拟定进入选定行政案关键阶段直接关系行向及达目标问题案价值标准般案实施作用、效、利益等满意决策案共五项要求实际任何决策案至能达满意限目标
指整决策程确定目标、拟定案选择案同阶段断通信息反馈抉择进行实践性评价检验尤其抉择进行实践性评价检验验证决策确与否及其程度及修决策向或弥补决策遗漏避免重决策失误

工作人员会在48小时内处理,处理结果请关注系统通知,感谢您对百度知道的支持。

  • 1.回答无意义,对问题无帮助,例如:盲目复制、过于简略、低质等;
  • 2.内容明显错误、内容真实性存疑、内容过时;
  • 3.内容违反知道协议,可能涉及答非所问、灌水、偏激、攻击性等;
  • 4.部分问题下提交的回答需要审核,审核通过前会暂时折叠。

我要回帖

更多关于 在决策的方案抉择阶段 的文章

 

随机推荐