描述
开 本: 16开纸 张: 胶版纸包 装: 平装-胶订是否套装: 否国际标准书号ISBN: 9787301289402
编辑推荐
1. AlphaGo一路凯歌,“银翼杀手”日益逼近现实……本书预言:在未来数年内,人工智能系统很可能摆脱人类监管,自主做出决定,甚至会走上反抗人类、毁灭人类的道路!
2. 如何让智能机器人遵守人类道德?人工智能专家如何能设计出符合人类道德规范的机器人?本书提出的基础框架,为人工道德智能体(AMAs)的设计指明了方向!
3. 本书乃人工智能道德研究的前沿之作和奠基之作,出版以来,以预言家的远见卓识,风靡欧美各国和日本、韩国。极大地促进了诸多发达国家的机器人立法。
4. 英国《自然》、《泰晤士高等教育》,德国《明镜周刊》,美国《纽约时报》、《新闻周刊》、《NBC新闻》、《芝加哥论坛报》等世界各大媒体重磅推荐!
内容简介
人类即将全面进入机器人时代。计算机已经可以从事金融交易、控制电力供应和驾驶火车。很快,服务类机器人将能在家照顾老人,军事机器人可以投入战斗。温德尔·华莱士和科林·艾伦认为,当机器人要承担越来越多的责任时,为了我们的安全,它们必须通过程序学会道德判断。在快速回顾了*前沿的道德哲学与人工智能之后,两人主张,设计某种功能性的道德指令,让人工智能机器人习得某些基本的道德感是很有必要的,而且是可行的。并且,即便让机器人承担完全的道德责任有很远的路要走,但随着人类对道德理解的深入和完善,能接收复杂道德指令的各类服务型机器人将诞生。
《道德机器:如何让机器人明辨是非》基于人类道德判断和伦理的本质,深入探讨了人类在设计具有道德判断能力的机器人的漫漫征途上所面临的巨大挑战。
《道德机器:如何让机器人明辨是非》基于人类道德判断和伦理的本质,深入探讨了人类在设计具有道德判断能力的机器人的漫漫征途上所面临的巨大挑战。
目 录
导言
章 机器道德为什么如此重要?
第二章 工程道德:AI时代的炼金术
第三章 人类想要计算机做道德决策吗?
第四章 机器人真的能有道德吗?
第五章 哲学家、工程师与人工道德
第六章 自上而下的道德
第七章 自下而上的发展式进路
第八章 自上而下式与自下而上式的混合
第九章 超越“雾件”?
第十章 超越理性
第十一章 更像人的人工道德智能体
第十二章 危险、权利和责任
结语 机器心灵与人类伦理
注释
参考文献
译名对照表
译后记
章 机器道德为什么如此重要?
第二章 工程道德:AI时代的炼金术
第三章 人类想要计算机做道德决策吗?
第四章 机器人真的能有道德吗?
第五章 哲学家、工程师与人工道德
第六章 自上而下的道德
第七章 自下而上的发展式进路
第八章 自上而下式与自下而上式的混合
第九章 超越“雾件”?
第十章 超越理性
第十一章 更像人的人工道德智能体
第十二章 危险、权利和责任
结语 机器心灵与人类伦理
注释
参考文献
译名对照表
译后记
前 言
中文版序
几乎过不了一星期,报纸上、电视上,就总会看到人工智能(AI)的新闻,各种AI对人们生活造成或者可能造成负面影响的消息不绝于耳。不管是数据挖掘算法泄露个人信息,还是有政治导向的宣传的影响,如数据挖掘公司可能利用选民信息深度干预了美国总统选举结果,或种族和性别偏见浸入了人工智能程序,抑或是自动驾驶汽车会使数百万人丢掉工作。自从《道德机器》(Moral Machines)英文版首次问世,数年以来,围绕AI产生的这些伦理问题已经变得愈加急迫和突出。
这里给出一个文化偏见渗透进AI程序方面的例子。类似谷歌翻译这样的解释语言程序,其能力近年来有了大幅度提高,这主要得益于新的机器学习技术以及可以训练程序的大量在线文本数据的出现。但是近的研究显示,在机器习得越来越像人的语言能力的过程中,它们也正在深度地吸取人类语言模式中隐含的种种偏见。机器翻译的工作进路一般是这样的,建构一个关于语言的数学表征,其中某个词的意义根据经常和它一同出现的词而被提炼为一系列数字(叫词向量)。令人惊讶的是,这种纯粹统计式的方式却显然抓住了某个词的意义中所蕴含的丰富的文化和社会情境,这是字典里的定义不大可能有的。例如,关于花的词语和令人愉悦之类的词聚类,昆虫类的词语和令人不快之类的词聚类;词语”女性””妇女”与艺术人文类职业以及家庭联系更紧密,词语”男性””男人”则和数学、工程类职业更近。尤为危险的是,AI还有强化所习得的偏见的潜能,它们不像人可以有意识地去抵制偏见。因此,如何在设计理解语言的算法时既让其消除偏见,又不丧失其对语言的解释能力,这是一项很大的挑战。
对于上述可能产生自AI的一些坏的情况,学术界和技术界的领军人物纷纷表示关注。像剑桥大学当代重要的物理学家史蒂芬·霍金(Stephen Hawking),还有太空运载私人运营和电动汽车的开拓者埃隆·马斯克(Elon Musk),他们担心,AI代表着威胁人类存在的危险。另一些人却表示乐观,对AI的长远前景满怀热情。但他们认识到对AI的限制以及AI的弱点对商业来说是很糟糕的事情。就在2016年9月,来自微软、IBM、FaceBook、谷歌、苹果以及亚马逊的领导人,他们共同创立了关于AI的合作伙伴关系,当时宣称的目标是要确保AI是”安全可靠的,要和受AI行为影响的人们的伦理和喜好一致”。但是,市场经济的逻辑总是在驱动着愈演愈烈的雄心,于是,应用机器学习处理收集的海量电子化数据、提高自动驾驶汽车上路的数量,新闻的头版头条持续不断。
《道德机器》书中的信息依然是极为重要的,虽然此书首次出版以来,技术已经大大向前发展了,但基本的难题不仅依然没有解决,反而被这些技术进展所加剧。先进算法工作的基本原理还是没完全搞清楚,这就关系到AI解释自身决策方面的无能为力。当然,人们在决策时也不总是能够一目了然地解释清楚自己的抉择。但是,要设计处在一个更高水平上的机器,我们这样把握是对的。
在《道德机器》中阐述了一种混合式系统,组合了自下而上式的数据驱动的学习和进化的方式,以及自上而下式的理论驱动做决策。这个思想,对于AI软件的设计以及能够在人类环境中操作的机器人来说,依然是好的策略。但是,在这本书约十年前问世之后,批评者们的意见是对的,我们本来可以更多地讨论一下设计更大的有机器运行的社会技术系统。我们关注如何使机器自身的道德能力逐渐增进–这是一个依然需要研究的课题,关于如何使机器尊重它们的设计者和使用者人类的伦理价值,以及有效维护人类的道德责任方面的问题,仅仅只解决了部分。
人工智能机器已经在特定领域胜过了人。这令许多评论家相信超人智能不远了。但是,尽管AI取得了目前的进展,它的成功依然是脆弱的,而人的智能通常却不是这样。某个机器可以下围棋胜过人,却不能同时会下象棋、会开车,还能在家人饭后,一边帮忙收拾桌子,一边解答政治学的问题。即使这些能力可以绑定给一个物理机器,我们也依然不知道,如何以像人那样的方式把它们整合在一起,让一个领域的思想和概念灵活地畅行至另一领域。如此说来,《道德机器》初问世时候的基本信息依然没有变,这就是:不应该让未来学家的担心和猜测转移我们的注意力,我们的任务依然是设计自主机器,让它们以可辨识的道德方式行事,使用着我们已经获得的社会、政治和技术资源。
几乎过不了一星期,报纸上、电视上,就总会看到人工智能(AI)的新闻,各种AI对人们生活造成或者可能造成负面影响的消息不绝于耳。不管是数据挖掘算法泄露个人信息,还是有政治导向的宣传的影响,如数据挖掘公司可能利用选民信息深度干预了美国总统选举结果,或种族和性别偏见浸入了人工智能程序,抑或是自动驾驶汽车会使数百万人丢掉工作。自从《道德机器》(Moral Machines)英文版首次问世,数年以来,围绕AI产生的这些伦理问题已经变得愈加急迫和突出。
这里给出一个文化偏见渗透进AI程序方面的例子。类似谷歌翻译这样的解释语言程序,其能力近年来有了大幅度提高,这主要得益于新的机器学习技术以及可以训练程序的大量在线文本数据的出现。但是近的研究显示,在机器习得越来越像人的语言能力的过程中,它们也正在深度地吸取人类语言模式中隐含的种种偏见。机器翻译的工作进路一般是这样的,建构一个关于语言的数学表征,其中某个词的意义根据经常和它一同出现的词而被提炼为一系列数字(叫词向量)。令人惊讶的是,这种纯粹统计式的方式却显然抓住了某个词的意义中所蕴含的丰富的文化和社会情境,这是字典里的定义不大可能有的。例如,关于花的词语和令人愉悦之类的词聚类,昆虫类的词语和令人不快之类的词聚类;词语”女性””妇女”与艺术人文类职业以及家庭联系更紧密,词语”男性””男人”则和数学、工程类职业更近。尤为危险的是,AI还有强化所习得的偏见的潜能,它们不像人可以有意识地去抵制偏见。因此,如何在设计理解语言的算法时既让其消除偏见,又不丧失其对语言的解释能力,这是一项很大的挑战。
对于上述可能产生自AI的一些坏的情况,学术界和技术界的领军人物纷纷表示关注。像剑桥大学当代重要的物理学家史蒂芬·霍金(Stephen Hawking),还有太空运载私人运营和电动汽车的开拓者埃隆·马斯克(Elon Musk),他们担心,AI代表着威胁人类存在的危险。另一些人却表示乐观,对AI的长远前景满怀热情。但他们认识到对AI的限制以及AI的弱点对商业来说是很糟糕的事情。就在2016年9月,来自微软、IBM、FaceBook、谷歌、苹果以及亚马逊的领导人,他们共同创立了关于AI的合作伙伴关系,当时宣称的目标是要确保AI是”安全可靠的,要和受AI行为影响的人们的伦理和喜好一致”。但是,市场经济的逻辑总是在驱动着愈演愈烈的雄心,于是,应用机器学习处理收集的海量电子化数据、提高自动驾驶汽车上路的数量,新闻的头版头条持续不断。
《道德机器》书中的信息依然是极为重要的,虽然此书首次出版以来,技术已经大大向前发展了,但基本的难题不仅依然没有解决,反而被这些技术进展所加剧。先进算法工作的基本原理还是没完全搞清楚,这就关系到AI解释自身决策方面的无能为力。当然,人们在决策时也不总是能够一目了然地解释清楚自己的抉择。但是,要设计处在一个更高水平上的机器,我们这样把握是对的。
在《道德机器》中阐述了一种混合式系统,组合了自下而上式的数据驱动的学习和进化的方式,以及自上而下式的理论驱动做决策。这个思想,对于AI软件的设计以及能够在人类环境中操作的机器人来说,依然是好的策略。但是,在这本书约十年前问世之后,批评者们的意见是对的,我们本来可以更多地讨论一下设计更大的有机器运行的社会技术系统。我们关注如何使机器自身的道德能力逐渐增进–这是一个依然需要研究的课题,关于如何使机器尊重它们的设计者和使用者人类的伦理价值,以及有效维护人类的道德责任方面的问题,仅仅只解决了部分。
人工智能机器已经在特定领域胜过了人。这令许多评论家相信超人智能不远了。但是,尽管AI取得了目前的进展,它的成功依然是脆弱的,而人的智能通常却不是这样。某个机器可以下围棋胜过人,却不能同时会下象棋、会开车,还能在家人饭后,一边帮忙收拾桌子,一边解答政治学的问题。即使这些能力可以绑定给一个物理机器,我们也依然不知道,如何以像人那样的方式把它们整合在一起,让一个领域的思想和概念灵活地畅行至另一领域。如此说来,《道德机器》初问世时候的基本信息依然没有变,这就是:不应该让未来学家的担心和猜测转移我们的注意力,我们的任务依然是设计自主机器,让它们以可辨识的道德方式行事,使用着我们已经获得的社会、政治和技术资源。
科林·艾伦(Colin Allen)美国匹兹堡,2017年9月26日
评论
还没有评论。