描述
开 本: 8开纸 张: 胶版纸包 装: 袋装是否套装: 否国际标准书号ISBN: 9787511559302丛书名: 军转干部安置考试专用教材
编辑推荐
《中公版·2019军转干部安置考试专用教材:考前冲刺试卷申论》由中公教育图书编研团队潜心编写而成。试卷以考点为纲,以军转干部安置考试申论历年真题为基准,精心编写,切实提升考生的作答能力。本试卷的编写以求满足军转干部录用考试所需。
购书享有移动自习室:核心考点轻松学 在线题库任意练 考友圈答疑解惑 视频直播免费看。
内容简介
《中公版·2019军转干部安置考试专用教材:考前冲刺试卷申论》由12套考前冲刺试卷组成,每套试卷均严格依据军转干部安置考纲编写而成,高度契合考试。试卷参考答案设置科学合理,满足考生对练习的需求。
目 录
军转干部安置考试申论考前冲刺试卷(一)
军转干部安置考试申论考前冲刺试卷(二)
军转干部安置考试申论考前冲刺试卷(三)
军转干部安置考试申论考前冲刺试卷(四)
军转干部安置考试申论考前冲刺试卷(五)
军转干部安置考试申论考前冲刺试卷(六)
军转干部安置考试申论考前冲刺试卷(七)
军转干部安置考试申论考前冲刺试卷(八)
军转干部安置考试申论考前冲刺试卷(九)
军转干部安置考试申论考前冲刺试卷(十)
军转干部安置考试申论考前冲刺试卷(十一)
军转干部安置考试申论考前冲刺试卷(十二)
参考答案
军转干部安置考试申论考前冲刺试卷(二)
军转干部安置考试申论考前冲刺试卷(三)
军转干部安置考试申论考前冲刺试卷(四)
军转干部安置考试申论考前冲刺试卷(五)
军转干部安置考试申论考前冲刺试卷(六)
军转干部安置考试申论考前冲刺试卷(七)
军转干部安置考试申论考前冲刺试卷(八)
军转干部安置考试申论考前冲刺试卷(九)
军转干部安置考试申论考前冲刺试卷(十)
军转干部安置考试申论考前冲刺试卷(十一)
军转干部安置考试申论考前冲刺试卷(十二)
参考答案
免费在线读
军转干部安置考试申论考前冲刺试卷(一)
第一部分
阅读给定资料一,完成第一、二题的作答。给定资料一
1人工智能商业应用元年已至。随着人工智能被写进政府工作报告,行业泡沫开始缓释,2018年人工智能领域发展的走向越来越明晰,市场和需求愈发细分,催生了一批新的产业引领者,云从科技就是其中的佼佼者。
云从科技出身于中科院,专注于计算机视觉及人工智能行业。这家创立于2015年4月的公司,仅3年的时间,就已经发展成为人工智能领域的创业黑马。目前已完成B 轮融资,在2017年11月,更是获得了20亿元人民币的政府资金支持。
云从科技的人工智能方案覆盖多个行业,并在金融、安防、民航等领域取得了遥遥领先的市场占有率。根据官方信息,云从科技是中国银行业第一大人工智能供应商,农行、建行、中行、交行、招行等超过400家金融机构都在使用云从的产品。在安防领域,公司产品已在29个省级行政区上线实战,截至2018年3月,已协助各地警方抓获了2605名犯罪嫌疑人。在民航领域,与中科院重庆院合作覆盖了全国75%的枢纽机场。
22017年7月,国务院印发《新一代人工智能发展规划》,明确了我国发展人工智能的战略目标:到2030年,人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。巨大的市场前景吸引了众多机构进入人工智能领域。
“今天的AI太多炫技和PPT,太多为演示而存在的产品,太多为概念而存在的公司,太多只会做技术而不知道怎么把产品落地的形形色色的创业者。”对于当前的人工智能行业现状,猎豹移动CEO傅盛表示,“人工智能不是技术突破,它本质上是产品应用突破”。
对于目前的人工智能产业现状,资深互联网专家、DCCI互联网研究院院长刘兴亮表示,人工智能时代确实已经到来,我们生活中越来越多的应用场景已经开始被人工智能取代,但目前一窝蜂的投资现状对整个产业发展不利。对于初创的人工智能企业,要实实在在地做好产品,利用人工智能把消费者的实际应用变得更加便捷,而不要一味地去玩概念;同时,企业在某个细分领域做到极致,这样才能在未来巨大的市场基础上站稳脚,分到一杯羹。
但在推动人工智能技术实际应用中,至今也没有找到成熟的应用项目。当然,谷歌、Facebook以及国内的BAT等企业,其数据量拥有绝对的优势,利用其AI技术改善了现有的众多服务。不可否认,正是由于他们在人工智能领域的创新,使得各项互联网服务和产品更加出色,但在提升和改善自身业务层面以外,进展缓慢。
3近日,Facebook掌门人马克·扎克伯格对外表示,我们不应认为人工智能技术的发展会给人类带来毁灭性的危险。作为人工智能技术的铁杆粉丝,扎克伯格还表示,“人们对人工智能将来是否会伤害人类的畏惧难以理解,我认为AI在疾病防治、安全驾驶等许多方面将发挥重大作用,它不应该是人类的敌人,相反,AI将会拯救人类,推动人类的进步”。
不仅扎克伯格看好人工智能,美国斯坦福大学近日也就人工智能技术近十年来的发展和对社会及经济的影响做出了一份报告。报告提到,人工智能将会在我们日常生活的各个方面,如就业、教育、交通以及娱乐等产生颠覆性的影响。
报告预测,2030年,加入了人工智能技术的汽车、无人机以及个人机器人将会得到普及。但是,相应的技术发展限制会减缓这一市场的发展速度。此外,人工智能的进步还会受到社会和伦理等多方面的限制。例如在某些领域对人类潜在的失业威胁,新形式的监测和数据挖掘可能会对隐私造成的侵犯,这些都需要社会进行深层次的探讨与辩证。
报告认为,人工智能是未来最有前途的研究领域,而其影响将涵盖交通、医疗、教育和就业等各个方面。当然,这些影响并不一定都是积极的,也很可能导致部分人对AI产生厌恶情绪。就像很多电影中认为的世界末日一样,AI的发展将会对就业产生严重影响。在某些行业中,AI甚至会完全取代人类接管关键业务,比如交通、制造等。但是行业应该考虑的并不是如何阻止人工智能取代这些员工的工作,而是如何培训这些人成功进行工作转型。
4人工智能如今无处不在。从决定购买哪本书、订哪一班航班,到申请工作、获取银行贷款,我们生活的各个方面都与人工智能有着或多或少的联系。许多现有的科技公司,如亚马逊、Facebook和微软等,都已创建了研究实验室。可以毫不夸张地说,软件如今就代表着人工智能。
对于谷歌研究带头人和机器学习的领军人物皮特·诺维格(PeterNorvig)而言,虽然由数据驱动的人工智能技术近期取得了一系列成功,但关键问题在于,我们必须弄清如何使这些新系统造福整个社会,而不仅是该系统的控制者。“人工智能可高效开展实际任务,如给照片贴标签、理解口头和书面自然语言甚至帮助确诊等。”他指出,“而我们必须确保所有人都能从中受益。”最大的问题在于,这些软件往往极为复杂,人们无法参透人工智能系统采取某一行动的原因。如今的人工智能以机器学习技术为基础,导致我们无法透过表面看个究竟,因此我们只能姑且信任它们。但我们必须找出新方法,有效监控和审查人工智能参与的系统。
哈佛法学院网络法教授乔纳森·齐特林(JonathanZittrain)认为,随着计算机系统日趋复杂,人们或许将难以对人工智能系统进行密切监视。“随着我们的计算机系统越来越复杂、联系越来越紧密,人类的自主控制权也不断减少,这使我很担心。”他表示,“如果我们‘放手不管,忘到脑后’,不考虑道德伦理问题,计算机系统的演化或许会令我们懊悔不已。”
人工智能应当受到监视,但具体做法尚不清楚。“目前我们还未就监视方法达成统一意见,”有专家表示,“在缺乏系统测试的行业标准的情况下,这些技术很难得到大规模应用。”
但当今世界日新月异,监管机构往往落后一步。在刑事司法系统和医疗保健等重要领域,许多公司已经开始探索人工智能在假释和诊断等问题上的决策能力。但如果将决策权交予机器,我们就面临着失控的风险——这些系统真能在每起案例中做出正确的判断吗?
微软研发部门的主要研究员丹娜·博伊德(DanahBoyd)称,我们必须严肃考虑此类系统的价值,还要确定最终担责方。“监管机构、公民社会和社会理论学家都强烈要求这些技术公平公正、符合道义,但这些理念仍然含糊不清。”
人工智能对就业影响颇深。随着人工智能的发展,机器人可以胜任更加复杂的工作,能够取代越来越多的人类工人。例如,中国富士康集团已经宣布将用机器人取代六万名工厂工人。福特汽车在德国科隆的工厂也启用了机器人,与人类工人并肩工作。
此外,如果不断提升的自动化水平对就业产生了重大冲击,便会影响人类的心理健康。“人生的意义来自三个方面:有意义的人际关系、充满激情的兴趣爱好、有意义的工作。”美国前总统奥巴马的医疗顾问、生物伦理学家伊齐基尔·伊曼努尔(EzekielEmanuel)指出,“有意义的工作是自我认同感的重要组成部分。”他还表示,在工厂倒闭率和员工失业率较高的地区,居民自杀、滥用药物和患抑郁症的概率也较高。
因此,社会需要更多的伦理学家。“公司当然会跟随市场潮流行事,这不是坏事,但我们不能指望他们负伦理责任。”麻省理工学院法律与伦理专家凯特·达尔林(KateDarling)指出,“我们应当将监管措施落实到位。每当有新技术出现,我们都会开展这一讨论,研究应对策略。”达尔林指出,谷歌等许多知名公司已经成立伦理委员会,监控人工智能技术的研发和部署。但这一做法还应进一步普及。“我们无意阻止创新,但眼下也许我们就该成立这样的机构。”
人工智能的发展离不开大量数据的积累,通过大量数据训练算法,可使人工智能具备更加显著的问题解决能力,但这也使个人的隐私受到了威胁。在大数据技术和设备的支持下,个人的很多重要信息,如健康信息、位置信息和网络痕迹等,都可以被实时地采集和保存。应用数据挖掘技术,数据掌控者可以基于不完全的、模糊的碎片数据很方便地提取出一些有用的个人信息。这样,个人便失去了对自身隐私的控制,一些隐私甚至处于随时被窥探的状态。例如,谷歌旗下的一家位于伦敦的公司近期已获取了三家医院近160万病人的医疗数据,其中就涉及非常敏感的个人健康信息。
2016年9月,Facebook、谷歌和亚马逊达成合作,旨在为人工智能对安全和隐私造成的挑战提出解决方案。一家名为OpenAI的组织致力于研发和推广造福全民的开源人工智能系统。“机器学习必须得到广泛研究,并通过公开出版物和开源代码传播,这样我们才能实现福利共享。”谷歌研究员皮特·诺维格指出。
为制定行业与伦理标准、充分了解当前面临的风险,需要伦理学家、科技人员和企业领导人共同参与。这一问题涉及如何驾驭人工智能、使人类更加擅长自己最拿手的领域。“我们更应关注如何利用相应技术帮助人类思考和决策,而非将人类取而代之。”齐特林指出。
人工智能的算法虽说只是一种数学表达,看似与价值无涉,但实际上却不可避免地存在着主观偏见。这种偏见的来源是多方面的,既有可能来自训练系统的数据输入,又有可能来自编程人员的价值观嵌入。当算法使用过去的数据来预测未来时,那么计算结果便会受到所输入的数据和所设定的模型的影响。如果偏见已存在于算法之中,经深度学习后,这种偏见还有可能在算法中得到进一步加强,形成一个“自我实现的歧视性反馈循环”。2017年1月,来自全球的人工智能领域专家在“BeneficialAI”会议上联合签署了“阿西洛马人工智能原则”,明确了安全性、利益共享等23条原则,并呼吁人工智能领域的工作者遵守这些原则,共同保障人类未来的利益和安全。
第一部分
阅读给定资料一,完成第一、二题的作答。给定资料一
1人工智能商业应用元年已至。随着人工智能被写进政府工作报告,行业泡沫开始缓释,2018年人工智能领域发展的走向越来越明晰,市场和需求愈发细分,催生了一批新的产业引领者,云从科技就是其中的佼佼者。
云从科技出身于中科院,专注于计算机视觉及人工智能行业。这家创立于2015年4月的公司,仅3年的时间,就已经发展成为人工智能领域的创业黑马。目前已完成B 轮融资,在2017年11月,更是获得了20亿元人民币的政府资金支持。
云从科技的人工智能方案覆盖多个行业,并在金融、安防、民航等领域取得了遥遥领先的市场占有率。根据官方信息,云从科技是中国银行业第一大人工智能供应商,农行、建行、中行、交行、招行等超过400家金融机构都在使用云从的产品。在安防领域,公司产品已在29个省级行政区上线实战,截至2018年3月,已协助各地警方抓获了2605名犯罪嫌疑人。在民航领域,与中科院重庆院合作覆盖了全国75%的枢纽机场。
22017年7月,国务院印发《新一代人工智能发展规划》,明确了我国发展人工智能的战略目标:到2030年,人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。巨大的市场前景吸引了众多机构进入人工智能领域。
“今天的AI太多炫技和PPT,太多为演示而存在的产品,太多为概念而存在的公司,太多只会做技术而不知道怎么把产品落地的形形色色的创业者。”对于当前的人工智能行业现状,猎豹移动CEO傅盛表示,“人工智能不是技术突破,它本质上是产品应用突破”。
对于目前的人工智能产业现状,资深互联网专家、DCCI互联网研究院院长刘兴亮表示,人工智能时代确实已经到来,我们生活中越来越多的应用场景已经开始被人工智能取代,但目前一窝蜂的投资现状对整个产业发展不利。对于初创的人工智能企业,要实实在在地做好产品,利用人工智能把消费者的实际应用变得更加便捷,而不要一味地去玩概念;同时,企业在某个细分领域做到极致,这样才能在未来巨大的市场基础上站稳脚,分到一杯羹。
但在推动人工智能技术实际应用中,至今也没有找到成熟的应用项目。当然,谷歌、Facebook以及国内的BAT等企业,其数据量拥有绝对的优势,利用其AI技术改善了现有的众多服务。不可否认,正是由于他们在人工智能领域的创新,使得各项互联网服务和产品更加出色,但在提升和改善自身业务层面以外,进展缓慢。
3近日,Facebook掌门人马克·扎克伯格对外表示,我们不应认为人工智能技术的发展会给人类带来毁灭性的危险。作为人工智能技术的铁杆粉丝,扎克伯格还表示,“人们对人工智能将来是否会伤害人类的畏惧难以理解,我认为AI在疾病防治、安全驾驶等许多方面将发挥重大作用,它不应该是人类的敌人,相反,AI将会拯救人类,推动人类的进步”。
不仅扎克伯格看好人工智能,美国斯坦福大学近日也就人工智能技术近十年来的发展和对社会及经济的影响做出了一份报告。报告提到,人工智能将会在我们日常生活的各个方面,如就业、教育、交通以及娱乐等产生颠覆性的影响。
报告预测,2030年,加入了人工智能技术的汽车、无人机以及个人机器人将会得到普及。但是,相应的技术发展限制会减缓这一市场的发展速度。此外,人工智能的进步还会受到社会和伦理等多方面的限制。例如在某些领域对人类潜在的失业威胁,新形式的监测和数据挖掘可能会对隐私造成的侵犯,这些都需要社会进行深层次的探讨与辩证。
报告认为,人工智能是未来最有前途的研究领域,而其影响将涵盖交通、医疗、教育和就业等各个方面。当然,这些影响并不一定都是积极的,也很可能导致部分人对AI产生厌恶情绪。就像很多电影中认为的世界末日一样,AI的发展将会对就业产生严重影响。在某些行业中,AI甚至会完全取代人类接管关键业务,比如交通、制造等。但是行业应该考虑的并不是如何阻止人工智能取代这些员工的工作,而是如何培训这些人成功进行工作转型。
4人工智能如今无处不在。从决定购买哪本书、订哪一班航班,到申请工作、获取银行贷款,我们生活的各个方面都与人工智能有着或多或少的联系。许多现有的科技公司,如亚马逊、Facebook和微软等,都已创建了研究实验室。可以毫不夸张地说,软件如今就代表着人工智能。
对于谷歌研究带头人和机器学习的领军人物皮特·诺维格(PeterNorvig)而言,虽然由数据驱动的人工智能技术近期取得了一系列成功,但关键问题在于,我们必须弄清如何使这些新系统造福整个社会,而不仅是该系统的控制者。“人工智能可高效开展实际任务,如给照片贴标签、理解口头和书面自然语言甚至帮助确诊等。”他指出,“而我们必须确保所有人都能从中受益。”最大的问题在于,这些软件往往极为复杂,人们无法参透人工智能系统采取某一行动的原因。如今的人工智能以机器学习技术为基础,导致我们无法透过表面看个究竟,因此我们只能姑且信任它们。但我们必须找出新方法,有效监控和审查人工智能参与的系统。
哈佛法学院网络法教授乔纳森·齐特林(JonathanZittrain)认为,随着计算机系统日趋复杂,人们或许将难以对人工智能系统进行密切监视。“随着我们的计算机系统越来越复杂、联系越来越紧密,人类的自主控制权也不断减少,这使我很担心。”他表示,“如果我们‘放手不管,忘到脑后’,不考虑道德伦理问题,计算机系统的演化或许会令我们懊悔不已。”
人工智能应当受到监视,但具体做法尚不清楚。“目前我们还未就监视方法达成统一意见,”有专家表示,“在缺乏系统测试的行业标准的情况下,这些技术很难得到大规模应用。”
但当今世界日新月异,监管机构往往落后一步。在刑事司法系统和医疗保健等重要领域,许多公司已经开始探索人工智能在假释和诊断等问题上的决策能力。但如果将决策权交予机器,我们就面临着失控的风险——这些系统真能在每起案例中做出正确的判断吗?
微软研发部门的主要研究员丹娜·博伊德(DanahBoyd)称,我们必须严肃考虑此类系统的价值,还要确定最终担责方。“监管机构、公民社会和社会理论学家都强烈要求这些技术公平公正、符合道义,但这些理念仍然含糊不清。”
人工智能对就业影响颇深。随着人工智能的发展,机器人可以胜任更加复杂的工作,能够取代越来越多的人类工人。例如,中国富士康集团已经宣布将用机器人取代六万名工厂工人。福特汽车在德国科隆的工厂也启用了机器人,与人类工人并肩工作。
此外,如果不断提升的自动化水平对就业产生了重大冲击,便会影响人类的心理健康。“人生的意义来自三个方面:有意义的人际关系、充满激情的兴趣爱好、有意义的工作。”美国前总统奥巴马的医疗顾问、生物伦理学家伊齐基尔·伊曼努尔(EzekielEmanuel)指出,“有意义的工作是自我认同感的重要组成部分。”他还表示,在工厂倒闭率和员工失业率较高的地区,居民自杀、滥用药物和患抑郁症的概率也较高。
因此,社会需要更多的伦理学家。“公司当然会跟随市场潮流行事,这不是坏事,但我们不能指望他们负伦理责任。”麻省理工学院法律与伦理专家凯特·达尔林(KateDarling)指出,“我们应当将监管措施落实到位。每当有新技术出现,我们都会开展这一讨论,研究应对策略。”达尔林指出,谷歌等许多知名公司已经成立伦理委员会,监控人工智能技术的研发和部署。但这一做法还应进一步普及。“我们无意阻止创新,但眼下也许我们就该成立这样的机构。”
人工智能的发展离不开大量数据的积累,通过大量数据训练算法,可使人工智能具备更加显著的问题解决能力,但这也使个人的隐私受到了威胁。在大数据技术和设备的支持下,个人的很多重要信息,如健康信息、位置信息和网络痕迹等,都可以被实时地采集和保存。应用数据挖掘技术,数据掌控者可以基于不完全的、模糊的碎片数据很方便地提取出一些有用的个人信息。这样,个人便失去了对自身隐私的控制,一些隐私甚至处于随时被窥探的状态。例如,谷歌旗下的一家位于伦敦的公司近期已获取了三家医院近160万病人的医疗数据,其中就涉及非常敏感的个人健康信息。
2016年9月,Facebook、谷歌和亚马逊达成合作,旨在为人工智能对安全和隐私造成的挑战提出解决方案。一家名为OpenAI的组织致力于研发和推广造福全民的开源人工智能系统。“机器学习必须得到广泛研究,并通过公开出版物和开源代码传播,这样我们才能实现福利共享。”谷歌研究员皮特·诺维格指出。
为制定行业与伦理标准、充分了解当前面临的风险,需要伦理学家、科技人员和企业领导人共同参与。这一问题涉及如何驾驭人工智能、使人类更加擅长自己最拿手的领域。“我们更应关注如何利用相应技术帮助人类思考和决策,而非将人类取而代之。”齐特林指出。
人工智能的算法虽说只是一种数学表达,看似与价值无涉,但实际上却不可避免地存在着主观偏见。这种偏见的来源是多方面的,既有可能来自训练系统的数据输入,又有可能来自编程人员的价值观嵌入。当算法使用过去的数据来预测未来时,那么计算结果便会受到所输入的数据和所设定的模型的影响。如果偏见已存在于算法之中,经深度学习后,这种偏见还有可能在算法中得到进一步加强,形成一个“自我实现的歧视性反馈循环”。2017年1月,来自全球的人工智能领域专家在“BeneficialAI”会议上联合签署了“阿西洛马人工智能原则”,明确了安全性、利益共享等23条原则,并呼吁人工智能领域的工作者遵守这些原则,共同保障人类未来的利益和安全。
评论
还没有评论。