请百度搜索和县隆盛精密机械有限公司找到我们! 和县隆盛精密机械有限公司 网址: rushgoods.com

常见问题

规避人工智能技术风险

文字:[大][中][小] 2017/1/20    浏览次数:464    
  2016年3月9—15日,谷歌人工智能“阿尔法围棋”(AlphaGo)与韩国职业围棋高手李世石展开了一场“人机大战”,最终李世石以1∶4落败。这场比赛引起了人们的普遍关注,也再次引发了人们对人工智能的讨论与思考。
  人工智能与人类智能的对比
  我们对近几十年来人机对抗的历史性事件仍然记忆犹新。1997年,IBM公司的计算机“深蓝”打败了当时的国际象棋世界冠军卡斯帕罗夫(Garry Kasparov);2011年,IBM的超级计算机“沃森”在《危险边缘》游戏中击败两位人类擂主冠军,等等。毫无疑问,这次AlphaGo与李世石之间的人机大战同样也会在人工智能发展史上留下重要的一笔。
  在比赛之前,据说许多人都希望人类棋手李世石能够战胜AlphaGo,非常遗憾的是,人们的希望落空了。AlphaGo的获胜充分说明了人工智能在近些年来的突飞猛进。如果我们把1956年在美国达特茅斯学院召开的首次人工智能研讨会看作这门学科诞生的标志,那么到今年它也才刚刚走过60年的时间。虽然人工智能在发展历程中并非一帆风顺,在60年里经历了若干曲折,但这一次的胜利无疑再一次使人们对它刮目相看。
  不过,我们应该认识到,这本身就是一场不公平的比赛。AlphaGo的研制建立在人工智能最新的研究成果之上,比如它采用的深度神经网络既可以从人类围棋高手的比赛中学习,还可以从自己和自己的比赛中得到加强。同时,AlphaGo的研制者引入了新的搜索算法,使得AlphaGo在与其他围棋程序的比赛中获胜率为99.8%。无论是从计算速度、准确性,还是从训练次数来看,AlphaGo都远远超越了人类棋手,即使像李世石这样的棋手也难以企及。而且,人类棋手在对弈的过程中,容易产生紧张、焦急等情绪,都可能对比赛产生不利影响,但人工智能系统则没有这方面的障碍。从另一个角度看,AlphaGo的成功是设计团队集体智慧的结晶。在2016年1月28日《自然》杂志上发表的介绍AlphaGo工作原理的文章,就有20人共同署名。因此,与其说是AlphaGo打败了李世石,倒不如说是AlphaGo研发团队的集体智慧获得了胜利。
  虽然人工智能在计算、存储、稳定性、精确性等方面比人类要强,但就目前人工智能的发展水平而言,人类还是拥有某些明显优越之处。比如,虽然AlphaGo拥有超强的学习能力,但它只能用以学习围棋,不能触类旁通,而人类很容易将不同领域的学习经验进行自由转换。另外,目前人工智能在感知、常识、创造力以及运动的协调性等方面,确实还不如人类智能。
  但是,被认为是“人类智慧的最后一块高地”的围棋的陷落,充分证明了人工智能在某些方面已经超过了人类,而且以后会更大程度地拉开与人类智能的距离。人们认为目前人类智能优于人工智能的方面,也有可能被人工智能逐渐赶上,甚至超越。人类智能在经历了数百万年的进化之后,才发展到当今的智慧程度,而人工智能在短短几十年之内就取得了如此巨大的成功,使得人们有理由对人工智能的未来发展充满信心。同时,一个挥之不去的问题始终徘徊在人们脑海中:我们如何面对越来越聪明的人工智能?
  人工智能对人类的可能影响
  事实上,近年蓬勃发展的机器人产业,已经对人类社会产生了越来越深远的影响。比如,军用机器人可以代替人类战士冲锋陷阵,陪护机器人可以陪人聊天解闷和处理日常事务,农业机器人可以帮我们种地摘果,等等。各式各样的机器人已经向我们走来,而人工智能显然可以帮助机器人变得更智能,更好地为人类服务。21世纪将是一个智能时代,而人工智能就是智能时代的根基。
  然而,这一切都是建立在机器人会听从人类指挥,心甘情愿为人类服务的基础上。假如人工智能变得足够聪明,不愿意再听从人类命令,甚至要夺取人类的统治权,那我们发展人工智能岂不是玩火自焚?当然,有的科学家认为人工智能并不能超越人类智能,科学家罗杰·彭罗斯(Roger Penrose)在《皇帝新脑》一书中就持这样的立场。同时,也有人相信人工智能会超越人类。比如,被比尔·盖茨誉为“预测人工智能未来最权威的人”的库兹韦尔(Ray Kurzweil)认为,2045年将是极具深刻性和分裂性的时间点,非生物智能在这一年将会10亿倍于今天所有人类的智慧。
  尽管许多从事人工智能研究的科学家倾向于认为,“人工智能会威胁人类”之类的说法是杞人忧天,但人们还是普遍表露出一定程度的忧虑。2014年底,理论物理学家霍金指出,人类创造智能机器的努力将威胁人类自身的存在。如今,AlphaGo的胜利使人们的这种忧虑大大加深。我们应该注意到,与科学家们不遗余力地发展人工智能相比,他们对如何有效地控制人工智能则思考得太少了。我们可以开玩笑说,把AlphaGo的电源拔掉,我们就可以轻松地战胜它。但是,将来的人工智能完全可以拥有保证自己能源供给的能力。如果真到了那一天,人类怎么办?因此,科学家应该经常思考这样的问题,即如何控制越来越强大的人工智能?这个问题与研究人工智能本身一样重要,甚至更为重要。如果没有很好的控制方案,我们为什么非要不顾一切地发展人工智能呢?
  虽然我们可以认为目前人工智能的聪明程度从整体上看跟人类智能还有一定的差距,但AlphaGo的胜利应该足以使人们警惕,况且不加控制的片面的人工智能也可能给人类带来危害。就像波斯特洛姆(Nick Bostrom)提出的曲别针思想实验那样:如果一个人工智能被设置为管理工厂的生产,其最终目标是使曲别针的产量最大化。那么,人工智能很可能具有无法满足的胃口,去不断地获取物质和能力,走上首先将地球、然后将整个可观察宇宙的大部分都变成曲别针的道路。另外,虽然科学家们对人工智能的将来普遍持乐观的态度,但事实上科学家通常无法控制自己发明的技术的使用。例如,核武器由科学家发明出来,但最终决定是否使用以及何时使用,却不是科学家能够决定的。科技的迅猛发展使得人类社会陷入越来越大的风险之中,既然科学家并不能完全决定科技成果的应用,就不应该无限地增大科技带来的风险。事实上,人类发展科学技术的目的,是为了人类过上更美好的生活。科技只是我们追求幸福的手段,而不是最终的目的。如果我们手中的科技对自己的生存都可能构成威胁,那我们是不是应该暂时停下来想一想,究竟下一步该怎么办?
  虽然许多科幻作品中对人工智能给人类带来的影响大多持悲观的立场,但未来毕竟还掌握在我们自己手里,至少现在是如此。AlphaGo的胜利,使得人们真切地感受到了人工智能的日益强大,从而更多地关注人工智能与人类未来的话题,这未尝不是一件好事。为了使公众更清楚地了解人工智能的研究现状,科学家应该将人工智能的研究成果及时向社会公开,并回答人们的种种疑问。当然,这只是缓解人们忧虑的治标之举。更为关键的是,应该由世界各国的科学家、政治家等共同制定一个人工智能发展规划与控制协议,使人工智能真正为人类造福。
返回上一步
打印此页
[向上]

网站首页

产品中心

公司介绍

资讯动态

在线询单

联系我们

在线客服
咨询电话:
0555-5580180

请扫描二维码
打开手机站