重要导航:重要通知“省长杯”工业设计大赛工作动态质量品牌工业标准化 技术创新促进会 食品协会包装协会《山东工业技术》技术中心 山东省技术创新奖
当前位置 : 主页>专家讲坛>

3d胆码预测:人工智能会威胁人类生存吗

来源:光明日报 作者: 时间:2017-03-29

3d胆码预测,  与此同时,全国人大常委会于2016年10月和11月在北京、四川、宁夏和上海召开四次座谈会,听取中央有关部门,各省、自治区、直辖市人大常委会和部分全国人大代表、基层立法联系点代表、法律实务工作者和专家学者等各方面的意见,并到基层进行实地调研。针对本次成品油抽检结果,自治区工商局表示,部分成品油经营企业未认真履行经营者义务,未严把进货关,油品来源渠道乱,油品质量不稳定。  第六章 监督检查  第四十二条 县级以上人民政府及其有关部门应当依法加强对地图编制、出版、展示、登载、生产、销售、进口、出口等活动的监督检查。元代继承和发展了宋代文人画之风,梅花题材的创作更加兴盛,其中,浙江王冕的墨梅最具代表性。

,13年的时间里,他共给60余户困难群众提供担保,贷款90多万元。  草案通过后,暂不废止民法通则,待民法典各编内容进行系统整合后,再予以废止  1986年制定的民法通则在我国民事立法史上具有里程碑意义,对保护民事主体的合法权益、正确调整民事关系、维护社会经济秩序发挥了重要作用。  第三十三条参照公务员法管理的事业单位和实行企业化管理并执行企业财务和会计制度的事业单位,不适用本办法。于是,姜玲开始着手准备。

金都国际娱乐彩票,受理申请的药品监督管理部门或者药品监督管理机构应当自收到申请之日起3个月内,按照国务院药品监督管理部门的规定,组织对申请认证的药品批发企业或者药品零售企业是否符合《药品经营质量管理规范》进行认证;认证合格的,发给认证证书。”  (二)将第二十七条第一款修改为:“建设跨河、穿河、穿堤、临河的桥梁、码头、道路、渡口、管道、缆线、取水、排水等工程设施,应当符合防洪标准、岸线规划、航运要求和其他技术要求,不得危害堤防安全、影响河势稳定、妨碍行洪畅通;其工程建设方案未经有关水行政主管部门根据前述防洪要求审查同意的,建设单位不得开工建设。拟在机关党委、机关纪委换届时,落实机关纪委书记专职专干要求,设专职机关纪委书记。周先生是老彩民,十多年来一直坚持买新疆福彩系列彩票。

 2014年,SpaceX的首席执行官埃隆·马斯克发了一条推特:“博斯特罗姆的《超级智能》值得一读,对人工智能一定要万分小心,它可能比核弹还危险。”同一年,剑桥大学宇宙学家霍金对BBC说:“开发完整的人工智能可能导致人类灭亡。”微软创始人之一比尔·盖茨也曾警惕地表示:“我是对超级智能感到担忧的那一派。”

  2008年,计算机科学家埃利泽·尤得库斯基在《全球灾难风险》中刻画了AI灭世的场景:“AI的智力从阿米巴一路上升到村里的笨蛋那个级别,然后止步于人类天才的水平,这样的可能性有多大?”他自己的回答是:“从物理上说,我们有可能造出一台运算速度百万倍于人脑的计算机。如果人脑加速到这个水平,那么从前需要思考一年的问题,现在31秒之内就能解决。而这就意味着,外界才过八个半小时,内心就已经感觉经历了近千年的思考时间。”尤得库斯基认为,现在不为这个问题着想,以后就来不及了:“AI的时间观念和你我不同,等到你的神经元想好‘我该做点什么’时,你就已经输了。”

  这派想法的代表是牛津大学哲学家尼克·博斯特罗姆在《超级智能》一书中提出的所谓“回形针量产机”的思维实验:人类设计了一台AI来造回形针,它在耗尽了最初的原料之后,就开始竭力搜索一切可用的材料,包括人类身上的那些。博斯特罗姆在2003年的一篇论文中写道,只要这个头一开,AI就会“先将整个地球耗尽,甚至进一步利用周围更大范围内的所有材料,把它们都改造成一部部生产回形针的装置。”用不了多久,整个宇宙就只剩下回形针和生产回形针的机器了。

  我对这个设想持怀疑的态度。第一,这个末日场景需要满足一连串条件才能实现,中间任何一个环节出错,末日的戏码都无法上演。英国西英格兰大学的电气工程教授艾伦·温菲尔德在2014年的一篇文章中这样写道:“假如我们造出了和人类相当的AI,假如这部AI明白了自身的工作原理,又假如它能将自己改进成具有超级智能的AI,再假如这个超级AI出于无意或恶意开始消耗资源,还要假如我们没能拔掉它的插头?到那时,我们才可能遇到麻烦。这风险不是没有,只是概率甚微。”

  第二,AI的研发其实要比预测的缓慢得多,其中每一个步骤,人类都有时间叫停。就像谷歌董事长埃里克·施密特在回复马斯克和霍金时所说的那样:“你们觉得人类会注意不到吗?注意到之后,不会去关掉那些电脑吗?”谷歌的DeepMind公司已经发展出了一个关闭AI的开关,它被戏称为“紧急红按钮”,可以在AI意图造反时按下。百度首席科学家吴恩达也表示(针对马斯克的话),有人“还没登上火星,就开始担忧火星上的人口问题了。”

  第三,AI灭世论的依据往往是天然智能和人工智能之间的错误类比。2015年,哈佛大学的实验心理学家斯蒂芬·平克在回答Edge网站年度问题“你对会思考的机器有什么看法”时,对这一点做了说明:“AI灾难论者都在智能的概念中投射了狭隘的大男子心态。他们假定智力超越人类的机器人会制定出罢免主人或是统治世界的目标。”但实际上,平克指出,人工智能同样可能“沿着女性的路线进化:既能熟练地解决问题,又没有消灭无辜者或主宰人类文明的欲望。”

  第四,电脑“想做”某事的说法(比如想把世界变成回形针)意味着电脑有了情绪,但是就像科普作家迈克尔·乔罗斯特指出的那样:“一旦AI对某事有了向往,它就进入了一个奖赏与惩罚的世界,比如它会知道,做了坏事就要受到我们的惩罚。”

  考虑到历史上的末日预言还没有一个应验,再加上AI几十年来的发展一向平缓,我们应该有充裕的时间建立一套安全体系,以防止AI毁灭世界的事情发生。

上一篇:“去杠杆”要从改革金融供给入手
下一篇:推动网络信息技术发展 打造中国优势