当人们看到像人类一样做出反应的机器,杏2系列或模仿人类聪明才智、执行战略和认知壮举的电脑时,他们有时会开玩笑说,未来人类将需要接受机器人主宰。
但这个笑话背后隐藏着一颗不安的种子。从1968年的《2001太空漫游》(2001:A Space Odyssey)到2015年的《复仇者联盟2:奥创纪元》(Avengers: Age of Ultron),科幻小说和流行电影都在推测人工智能(AI)会超出创造者的预期,逃脱他们的控制,最终打败人类,奴役人类,或者将人类作为灭绝的目标。
AMC电视台的科幻剧集《人类》(humans)将于6月5日回归第三季,其中人类和人工智能之间的冲突是该剧的重点。在新一季中,有意识的合成人将面对充满敌意的人,这些人对他们充满怀疑、恐惧和仇恨。当合成器发现自己不仅在为基本权利而战,而且在为生存而战时,暴力也在肆虐。
即使在现实世界中,也不是每个人都准备好张开双臂欢迎人工智能。近年来,杏耀YL随着计算机科学家不断突破人工智能的极限,科技领域的领军人物警告称,人工智能可能对人类构成迫在眉睫的危险,甚至暗示人工智能能力可能毁灭人类。
但是为什么人们对人工智能的想法如此不安呢?
一个“威胁”
埃隆•马斯克(Elon Musk)是对人工智能发出警告的知名人士之一。2017年7月,马斯克在全美州长协会(National Governors Association)的一次会议上对与会者说,“我接触到了非常前沿的人工智能,我认为人们应该真正关注它。”
“我一直在拉响警钟,”马斯克补充道。“但除非人们看到机器人在街上杀人,否则他们不知道该如何反应,因为这看起来太虚无缥缈了。”
2014年早些时候,马斯克将人工智能列为“我们最大的生存威胁”,2017年8月,他宣布人类面临的人工智能风险大于朝鲜。
3月14日去世的物理学家斯蒂芬·霍金(Stephen Hawking)也对恶意的人工智能表达了担忧,他在2014年告诉BBC,“全面人工智能的发展可能意味着人类的终结。”
同样令人不安的是,一些程序员——尤其是那些在麻省理工学院媒体实验室工作的程序员——似乎决心要证明人工智能是可怕的。
2016年,麻省理工学院(MIT)的计算机科学家引入了一种名为“噩梦机器”的神经网络,将普通的照片变成了令人毛骨悚然、令人不安的地狱景象。麻省理工学院的一个名为“雪莱”的人工智能小组编写了一系列恐怖故事,训练Reddit用户在r/nosleep论坛上发布的14万个恐怖故事。
“我们感兴趣的是人工智能如何引发情感——在这个特殊的案例中是恐惧,”麻省理工学院媒体实验室(MIT Media Lab)的研究经理曼纽尔·塞布里安(Manuel Cebrian)之前在一封关于雪莱的恐怖故事的电子邮件中告诉Live Science。
恐惧和憎恨
消极情绪对AI通常可以分为两类:认为人工智能将成为有意识和寻求摧毁我们,认为不道德的人将使用人工智能用于邪恶的目的,Kilian温伯格副教授在康奈尔大学计算机科学系,告诉生活科学。
“人们害怕的一件事是,如果超智能的人工智能——比我们更聪明——变得有意识,它可能会把我们当作低等生物,就像我们对待猴子一样, 杏耀 ,”他说。“这当然是不可取的。”
然而,Weinberger指出,对人工智能将发展意识并推翻人类的恐惧是基于对人工智能是什么的误解。人工智能在非常特定的限制下运行,这些限制由规定其行为的算法所定义。一些类型的问题很好地映射到AI的技能集,使得某些任务相对容易让AI完成。“但大多数事情都与此无关,也不适用,”他说。
这意味着,尽管人工智能可能能够在精心划定的边界内做出令人印象深刻的壮举——例如,玩一场大师级别的象棋游戏,或快速识别图像中的物体——但这就是它的能力的终点。
温伯格说:“人工智能进入意识领域——这一领域的研究绝对没有任何进展。”“我不认为这在我们不久的将来会发生。”
Weinberger补充道,另一个令人担忧的想法——一个肆无忌惮的人类会出于有害的原因利用人工智能——不幸的是,可能性要大得多。温伯格说,几乎任何类型的机器或工具都可以被用于好或坏的目的,这取决于用户的意图,而利用人工智能开发武器的前景无疑令人恐惧,并将受益于政府的严格监管。
温伯格表示,如果人们能把对敌对的人工智能的恐惧放在一边,或许他们会更愿意承认它的好处。例如,增强的图像识别算法可以帮助皮肤科医生识别可能癌变的痣,而自动驾驶汽车有朝一日可能会减少因车祸死亡的人数,其中许多事故是由人为失误造成的,他告诉Live Science。
但在自我意识合成体的“人类”世界里,对有意识的人工智能的恐惧引发了合成体和人类之间的暴力冲突,
杏耀娱乐平台 ,而人类和人工智能之间的斗争很可能会继续升级——至少在当前这一季是这样。