描述
开 本: 16开纸 张: 胶版纸包 装: 平装-胶订是否套装: 否国际标准书号ISBN: 9787539986166
1.《自然》杂志、哈佛大学、剑桥大学、纽约大学等一致推荐
2.科技的未来就是人类的未来和财富机遇,科技的失控就是潜藏在未来和机遇中的陷阱和危机
3.史蒂芬·霍金一直强调:科技是人类的威胁
4.耶鲁大学教授、人工智能伦理方面的国际权威温德尔·瓦拉赫的科技思维,重新看懂未来
5.多数人的问题在于:科技思维还停留在“水变汽油”的水平,然而还想靠科技赚钱
所谓科技思维不是能读懂多少新兴科技名词,而是能够对科技进行立体的思考与辨识。
智能机器将会造成越来越多的人失业?
为什么有科学家说*台超智能机器将是人类的*后一项发明?
我们谈论“转基因”时,为什么专家和大众不在一个频道上?
我们是否应该将决策权交给机器?
如何监控许少数团体发起的可能危及所有人的研究?
3D打印带来便利的同时潜在的社会风险是什么?
如何制订机器人的道德准则?
当我们谈起科技时,我们应如何思考?
我们生活在技术潜力超乎寻常的年代。从纳米技术到合成有机物,新技术带给人类翻天覆地的变化。技术的潜力令人惊叹也令人畏惧。无人机和新的智能手机一样可能轻而易举引爆炸弹,3D打印既可以制作工具也可以制作枪支。超级计算机能轻松管理个人档案也能易如反掌导致华尔街崩溃。
但是新技术无法回答如何解决这些技术所引发的道德问题和投资风险。作为未来科技领域权威的道德和伦理研究者,瓦拉赫在《科技失控》一书中,探讨了作为技术的发明生产者和消费者如何应对飞速的技术发展所带来的道德模糊问题。
毫无疑问,科学研究和创新是希望和生产力的源泉,但正如瓦拉赫所言,技术的不断发展可能逐渐成为一股脱离人类控制的强大力量。某些人、机构或是某些价值观反对对新兴技术比如自动化机器人或是要求进行有意义的监管,《科技失控》对这些情况进行了深入分析,提出了如何掌控技术,重掌人类命运的建议。
读懂科技将带来什么,我们才能更好地掌控自己的未来!
章 谁真正掌控我们的未来
技术风暴
转折点
航向修正
必然、不安和沉默
进攻计划
第二章 预测
难以预知的危机
对未知的恐惧
第三章 越来越复杂
复杂系统和混沌系统
复杂意味着更容易出问题
复杂的技术系统
复杂建模能否解决问题
全力应对不确定性
人体是一个复杂系统
无法预测的命运
第四章 变化的速度
3D打印
互联网前和互联网后
加速、智慧以及奇点
技术发展的失控
我们是否有能力控制
技术变化的获益和风险
第五章 权衡
DDT和氟利昂
纳米技术
环境风险:合成石油和水力压裂
核电和能源
第六章 生物工程和转基因
基因学简史
自上而下和自下而上
基因科技的前沿
人兽杂交
黄金大米事件
第七章 掌控人类基因
设计人类?
基因与环境
个性化药物
从试管婴儿到设计婴儿
基因研究的转折点
第八章 超越生命极限
超级人类
假如可以长生不老
有智慧的机器
第九章 半机器人和技术智人
关于未来的战争
关于增能之争
我们身边的半机器人
符合伦理的研究
认知增能
第十章 病态的人性
用药物提升道德?
生物化和机械化
修复设计缺陷
透过黑暗的玻璃
第十一章 超级武器与技术风暴
如果我们不采取行动,他们会的
保健广告的荒谬
我们还有多少时间
第十二章 终止终结者
自动驾驶汽车和责任
服务型机器人
计算法决定生死
未来战争的红线
电脑无处不在
第十三章 工程灾难
绝育和抑制
为责任设计
道德机器
弹性系统
第十四章 社会应变落后于技术发展
社会和技术的节奏问题
胡萝卜加大棒
执行中的挑战
第十五章 我们的未来
人类可掌握的节奏
每个人都是参与者
注 释
致 谢
大量技术发明的涌现都伴随着相应的风险。伦理学家华莱士在这一领域的研究帮我们从危险中排除了不理智的因素。
——《自然》(Nature)
《科技失控》让人不禁联想到成千上万的畅销小说和卖座电影:比如罗伯特·海因莱因的《我不会害怕邪恶》,艾萨克·阿西莫夫的《我和机器人》,大卫·米切尔的《骨医生》,石垣和未的《别让我走》,尼尔·斯蒂芬森的《钻石时代》,以及《千钧一发》《黑客帝国》《X战警》和《星球大战前传1:幽灵的威胁》等。但是,上述这些作品和它们描述的各种反乌托邦通常被认为是科幻虚拟世界,而瓦拉赫的书绝不能如此定性,他向我们发出了现实的警告,如不加以关注,警惕技术的发展趋势,不断评估技术的利弊,那么他所警告的一切将有可能。
——美国科技博客媒体Ars Technica
瓦拉赫对当今工程文化做出了清醒的分析,既无耸人听闻,也非盖棺定论。《技术失控》 发出了急迫且具有时代意义的呼吁,我们应有意识对所设计的系统植入人类的价值观,并对所做出的选择持批判性的态度。
——《新科学家》(New Scientist)
《科技失控》是风险投资家、投资者、资产管理者、高频交易公司、交易员以及相关的政府官员和领导者的书。
——亨泽尔·汉德森(Hazel Henderson),美国财富股票网站Seeking Alpha
《科技失控》呼吁对人类未来采取深思熟虑,行事谨慎的态度,对伦理、公共政策和医疗保健未来感兴趣的人肯定不会错过。
——《图书馆杂志》
温德尔·瓦拉赫似乎总是比我们超前几年。他这本了不起的书将我们带到了科技前沿,向我们展示了*卓著的技术发明如何,为什么以及在哪些地方改变人类的生活。瓦拉赫思维敏锐入微,他完美地将对新兴技术的渊博知识与对历史的把握、对人性的尊重结合起来。《科技失控》是一本引人入胜、意义非凡的书,话题本身令人费解,但读起来却妙趣横生。
——哈佛大学道德与认知实验室主任、《道德部落》作者乔舒亚·格林( Greene)
这本恰逢其时的书对于大量快速发展的科学技术的利弊进行了不偏不倚的评价。这是一本值得广泛阅读的书。
——剑桥大学宇宙学和天体物理学教授、《宇宙》和《仅有六个数》的作者马丁·李斯(Martin Rees)
权衡新技术的利弊越来越难。当新的技术问世,《科技失控》为我们如何淌过险滩作出英明决策提供了平衡且及时的导航。读这本书吧——也许你的不确定感不会因此减少但至少应对的能力会提升。
——美国纽约大学郎格尼医学中心生物伦理学教授亚瑟·卡普兰(ArthurCaplan)
“在新兴技术的领地艰难跋涉时,很难找到一个比温德尔·瓦拉赫考虑更周到、准备更充分的向导了,这一点他通过这本内容全面、浩瀚博学、可读性非常高的书展露得淋漓尽致。这是一本书!”中更体贴、更充分的准备指南通过艰难的地形比瓦新兴技术,当他再次展示了在这个全面、博学,和高度可读的书。这是一个体积。”
——亚利桑那州立大学土木与环境工程教授布莱登?艾伦比(Braden Allenby)
“温德尔·瓦拉赫为我们所有人做了一件事。他提醒和警告我们,我们与创新技术的浪漫故事中风险和收益并存。他对于我们所面临的风险做了很好的陈述,这也是我们需要听到的声音。”
——黑斯廷斯中心名誉主席丹尼尔·卡拉汉(Daniel Callahan)
我们不会停止进步,或刻意逆转。所以我们必须认识到进步的风险并控制它。
——史蒂芬·霍金(Stephen William Hawking)
我们是否应该将决策权交给机器?
杀人机器人只是把人类的决策权交给机器的一个例子。越来越多的非自主计算机和机器人有可能破坏了人(个人或企业)应为其行为负责的基本原则,并有可能为任何技术的部署造成的危害承担责任。谈到非军事机器人的用途将会使这一点更加清晰。大部分为家用目的开发的系统不应该被禁止。在许多情况下,他们的好处远远大于风险。尽管如此,它们稀释了负责任的人或企业代理这一核心原则,因此成为令人不安的先例。
截至2014年5月,一个无人驾驶的丰田汽车普锐斯车队——其改良的硬件和软件都由谷歌设计,成功在加州高速公路和城市街道行驶70万英里。这些无人驾驶车辆无一造成交通事故。对于谷歌汽车持续的媒体报道给人的印象是未来5~10年内消费者将可以购买到完全无人驾驶车辆。未来的汽车发展的前景是在疯狂的派对之后可以由无人驾驶车辆安全送到家,但谷歌的车并非如此,如果计算机司机对某些情况无法处理时,还是需要驾驶座上的操作者随时接管。在不到10秒钟的警报时间内,驾驶人员需要充分投入,如果万一有意外发生,则将被追究事故责任。这就是说谷歌计算机司机在驾驶时,驾驶座上的主人不能打盹或发短信。驾驶员无事可做,会感到无聊和注意力不集中,这将妨碍其短时间内对潜在危险做出反应的能力。
美国国家公路交通安全管理局估计,81%的碰撞事故都是由于人的某些原因。因此,提倡无人驾驶汽车的人普遍认为,这些车辆将显著降低死亡率。这种说法的准确性值得质疑。毫无疑问,造成事故的原因很多是司机在打盹、出神或干脆睡觉了。但是无人驾驶汽车因为计算机错误或计算机司机警告接管后车主无法掌控情况导致的事故可能更严重。
据谷歌的统计,当前的设计平均36000英里才会出现一次计算机司机出现严重错误需要人进行干预的情况。这听起来让人比较放心,因为一般的司机需要2或3年才能开够这么远的里程。然而,人类司机一般每50万英里才会出现事故,每130万英里可能发生伤人的事故,每9000万英里才可能导致人员死亡的事故。因此,难以证明依赖备份人类司机的无人驾驶汽车能否真正降低死亡率。但是一个简单的事实是无人驾驶汽车比人对紧急事件做出刹车的反应要快,这表明无人驾驶车会比有人驾驶车更加安全。
我们现在可以考虑这种可能性,车辆自动驾驶功能的确可能带来事故死亡人数减少,但在这些事件中死亡的人与人驾驶车造成的死亡是不一样的人。对于死亡的人本身的权衡将为法律和保险机构带来新问题。比方说,为了避免撞上公共汽车或旁观者,自动驾驶的车辆从桥上掉下去,导致车主身亡。这是令人不愉快的场景,但有些司机会主观上选择这么做。
伦理学家帕特里克•林(Patrick Lin)在2013年发表的一篇文章指出,在“为了人群的利益”的道德数学背景下,也许应当给自动驾驶的车辆进行编程,选择让车主死亡而不是撞死2个路边的行人。但是用数学来决定对错令人不安。当然,这样的情况也颇不寻常。但是我们难道希望让机器人汽车来决定我们的死活吗?
当事故发生时谁将被追究责任?汽车制造商们在责任问题解决之前是不愿意营销自动驾驶车辆的。但是目前,法律将判定自动驾驶车辆的制造商为大多数事故负责。如果让司机为一起他们无法在很短时间内掌握方向盘的事故负责肯定会很不舒服。除了解决各种技术难题,发生事故后的责任和法律后果如何管理是完全自动驾驶车辆投入市场速度很慢的原因。在很多情况下,赔偿责任的问题不能且不应由生产商或工程师决定。立法机构、法院、保险机构必须为此做出决定。
所有这些问题都无法阻止有进取心的公司找到新的手段推销自动驾驶车辆。他们将上访州政府和游说制定新法律。在此期间,他们很可能会重新定义自动驾驶车辆,使用一些模糊的语言,如“驾驶辅助”等。目前,一些高端车辆已经采用了自动泊车和紧急制动等安全特性。
当然,制造商将确保他们的责任是有限的。即使责任问题没有完全解决,自动驾驶车辆对于一些特殊用途而言仍是有吸引力的选择。例如,一些老年人本身就不再相信自己能一直保持高度注意力,就很希望有一辆具备驾驶辅助的车辆,即使这意味着他们必须保持目光一直盯着前方的道路。但是,如果自动驾驶车辆造成一次严重的事故,则很可能导致这一行业倒退几十年。有时候,事故难以避免。工程师们当然会尽一切努力控制自动驾驶车辆造成事故的数量。他们知道,自动驾驶汽车的接受度将取决于公众是否愿意接受即使发生了一起可怕的事故,也能清楚地表明自动驾驶车辆比人驾驶的车辆要明显安全得多。
解决这些社会担忧,其中一种可能的办法是对完全自动化驾驶汽车提供无过错保险。如果自动驾驶汽车提供了真正的净优势,那么立法机关可以制定政策,放松这一行业的发展。可以肯定,如果有一项立法可以减少自动化系统因为设计师和工程师有时无法预见的情况导致的系统故障和事故所承担的责任,那么肯定会大大促进整个机器人行业的发展。
但是快速促进越来越自动化的机器人的发展到底有多重要呢?减少责任肯定会加快机器人技术发展,但有利有弊。这将开启绿灯,允许制造厂商推出尚未经过全面测试或已经知道缺陷的产品。公司将强调难以确定谁为复杂的智能系统负责,因为他们会去请愿减少为系统故障承担责任。什么时候回报才会大于风险?
实践伦理学家和社会理论家对于减轻企业和个人责任,问责制度,以及为越来越自动化系统行为负责等引起的内在危险十分担心。2010年,为了表达他们的担心,提出了五项规则以重申人类不能逃脱对于计算机物品的设计、开发或部署造成的道德责任。50多名技术和道德领域相关的学者签字表达对这五项规则的支持。出于本书的目的,只要说明其中的项规则就足够了:
规则1:设计、开发或部署计算机物品的人应当为该物品承担道德责任。这项责任是与其他设计、开发、部署或知情情况下将该物件作为社会技术系统的一部分进行使用的人共同承担。
如果条规则被编入法律,枪支制造商将为使用其枪支造成的谋杀案负责;香烟制造商将为吸烟者所患肺癌负责。虽然表达的方式略有不同,但这五项规则都过于宽泛,而且有点不切实际。这些规则的推广应用不会很容易,并将显著减缓机器人产业的发展。但是,它们强调了法律理论家和伦理学家对于减少机器人装置行为所负责任,或引入一些行为无法预测的机器人的担心。
这些规则,比如前面所述为计算机物品所提出的规则,是否可能或应当上升为责任法仍是一个悬而未决的问题。一个棘手的政策辩论仍摆在面前。是否应当减少对于计算机和机器人所应承担的责任,以激发这一潜在的变革行业的发展?还是应该维持现有的保护措施,即使这可能抑制了企业推出具有显著好处但存在较低不确定风险的新产品的意愿。
谷歌机器人汽车项目首次曝光于2009年,道奇战马在其电视广告里对谷歌汽车大肆抨击。在广告中,一个低沉的,不祥的声音宣告:“自动驾驶,自动停车入库,这是由一家搜索引擎公司驱动的无人驾驶车辆。我们已经看过那部电影。它终的结局是机器人从我们的身体里汲取能量。”汽车肯定不会利用我们的身体作为燃料,但这个广告反复出现的图像一直在暗示,如果继续朝着自主化机器人的目标发展,那下一步则是滑下深渊,人类与其创造的物品之间将充满冲突。这样的恐惧引起了多少人的关注?
当然,完全自主化的人工智能系统远非今天的技术所能实现。即使有人相信有一天终会实现,确保超能机器人系统对人类友好很可能会解决。但简而言之,很多市民,虽然对机器人感兴趣,仍然对机器人技术可能的走向感到不舒服。
qqqmfqk983… –
一个专门收集、整理、保存、传播文献并提供利用的科学、文化