霍金曾预言人工智能将导致人类灭亡,真的有这么可怕吗?你怎么看?

网友解答: 人类在发展人工智能的过程中必定会面临一个无可回避的灾难性风险。这个风险的来源就是:被赋予“学习能力和判断能力”的智能机器。我们知道,人的学习能力和判断能力是受到“记忆力”限制

网友解答:

人类在发展人工智能的过程中必定会面临一个无可回避的灾难性风险。这个风险的来源就是:被赋予“学习能力和判断能力”的智能机器。我们知道,人的学习能力和判断能力是受到“记忆力”限制的,可以设想拥有无限存储能力的智能机器在被赋予学习和判断能力之后会发生什么,———毫无疑问,智能机器将具有“无限的学习能力”和“无限的判断能力”!并且超高的计算速度更会成倍地放大这一能力。这就意味着智能机器将为发明它、创造它的人提供无限知识、无限创造力,如果连接为AI+的话又可达成“无限行动力”………。怎么理解?这意思就是人工智能机器将无所不能!简单说吧:譬如无能如我者,想拥有一艘由视觉、意识操作的全能型飞船去到宇宙中某个星球住几天,这很容易,只要我提出愿望,智能机器即将为我学习、思考、设计、取材、制材并完成全部制造。而且完成这一切只在一个极短的时间内!再譬如:如果我愿意,我坐在家里凭意愿就可以任意操纵英国的网络、媒体、金融、工厂等一切接网设施设备,这也就意味着“我”无所不能。“我”的知识和能力“可以左右一切”。………想想吧:人类世界和文明借以存在的一切秩序都将为个人意志和能力无情地粉碎;首先获得此种智能机器的人必将成为世界的统治者;人类中的邪恶意志将会怎样使用这种能力?所以,所以,所以,霍金的预言是肯定的,我们人类将于未来遭遇来自我们自身的巨大灾难!俄罗斯总统普金2018年既对人工智能的发展表示出忧心,他严肃认真地对他的国家杜马说:俄罗斯必须在人工智能领域超越别国!

网友解答:

霍金的原话可不是这样说的,霍金的意思似乎是不加限制应用有自主思考能力的人工智能,可能使人类在地球的历史断绝,他是希望人们更谨慎地应用某些技术。

人工智能目前还在比较初级的阶段,按照发展可以弱人工智能和强人工智能,前者主要还是人在起作用,利用算法、大数据,使计算机拥有一些判断能力,但这种人工智能起作用的还是人,与计算机关系不大;强人工智能就是科幻电影中那样有自主思考能力的智能设备,它们可能对人类有威胁,摆在明显上和人类对着干还好,把自己隐藏起来搞破坏的才更可怕。但终归是用电的机器人,只要人类可以控制它们的应用范围,就没大事。

霍金说的是人工智能的应用范围,他担忧的是人类在还没有能力控制的时候大范围应用拥有自主意识的“完全的人工智能”。还是老话重提:科学技术有两面性,他希望人类正确应用技术,而不是贸然滥用。结合他曾经发表的对人类科技的看法,他并不担忧某项技术的发展,像他的遗作中的“超级人类”预言,他担忧技术被部分有心人应用,成为人类社会发展的障碍。

提起人工智能很多人都会想到电影中的人形机器人,而实际上更多的是某一领域的专用设备,是“计算机”,没腿没手,没有那么可怕,相比人类它们对场所的依赖性更强,把它们局限在一定的网络范围内,即便它们有自己的意识也没办法突破电线、网线、芯片的物理限制,难道还怕它们顺着网线打人不成?

标签: