美文网首页哲学与信息时代
人工智能是世界末日的原因和解决方案 - 人工智能的发展提供了巨大

人工智能是世界末日的原因和解决方案 - 人工智能的发展提供了巨大

作者: 李穆 | 来源:发表于2019-08-22 22:59 被阅读0次

小行星,超级火山,核战争,气候变化,工程病毒,人工智能,甚至外星人 - 最终可能比你想象的更接近。在接下来的两周内, OneZero 刊登从编辑Bryan Walsh即将出版的书“ 终结时代:世界末日简介”中获取的论文,该书于8月27日上架,现在可以预订,还有作品在存在风险的新兴领域的其他专家。但我们并非无助。我们应该推迟大灾难。

image.png

Ť这里是人工智能没有简单的定义,或AI科学家不能什么是“真正的AI”与什么可能仅仅是一个非常有效和快速的计算机程序达成一致。但这里有一个镜头:智能是能够准确地感知一个人的环境并采取行动来最大化实现既定目标的可能性。这并不意味着聪明,具有丰富的知识储备或复杂数学能力。

我的小孩儿子不知道,一加一等于二,而当我在写我的书,结束时间他的词汇主要限于兴奋地高喊“狗!”每次看见什么时间是隐约毛茸茸的,走开了四条腿。(我不会在年度ImageNet大规模视觉识别挑战赛,世界杯计算机视觉中投入资金。)但当他蹒跚地走进我们的厨房并想出如何到达柜台并拉下饼干时,他是感知和操纵他的环境以实现他的目标 - 即使他的目标,在这种情况下,归结为糖。这是智慧的火花,这种品质只有有机生命 - 而人类最重要的 - 迄今已经证明了这一点。

计算机已经可以比我们更快地处理信息。他们可以记住更多,他们可以记住它而不会腐烂或延迟,没有疲劳,没有错误。那并不新鲜。但近年来,计算革命已成为人工智能的革命。人工智能可以让我们在国际象棋和围棋这样长期被认为是可靠的智力标记的游戏中捣乱 他们可以立即识别图像,几乎没有错误。他们可以比你的经纪人更好地进入股市。他们可以通过文本进行对话,几乎和一个人一样。他们可以做很多你可以做的事 - 他们可以做得更好。

我们很聪明 - 毕竟,智人意味着“聪明人”。但人工智能可能变得超级聪明。

最重要的是,人工智能正在学习。这是一种人类特征,但是因为人工智能可以汲取的数据远远超过人类大脑所能容纳的数据,并且处理数据的速度远远超过人类大脑所能想到的速度,因此它具有比人类大脑更快速,更彻底地学习的潜力。人类永远都可以。目前,学习主要限于狭隘的科目,但如果这种能力扩大,人工智能可能会成为名副其实的。如果人工智能可以做到这一点,它将不再仅仅是目前统治这个星球的双足灵长类动物的工具。它将成为我们的平等,永远如此简短。然后很快 - 因为人工智能即使不是快速也没有 - 它将成为我们的优势。我们很聪明 - 毕竟,智人意味着“聪明人”。但人工智能可能变得超级聪明。

我们没有成为食物链的顶端,因为我们比其他动物更强或更快。我们在那里做到了因为我们更聪明。取消这种首要地位,我们可能会发现自己受到超级智能人工智能的支配,就像濒临灭绝的大猩猩受到我们的摆布一样。就像我们驱使无数物种灭绝而不是出于敌意甚至意图一样,但是因为我们决定我们需要他们占据的空间和资源,所以超级智能人工智能可能会因为我们的存在而将我们从存在中推开妨碍人工智能实现其目标。我们将无法抗拒它,而不是濒临灭绝的动物能够抵抗我们。

你可能听过警告了。特斯拉和SpaceX的创始人伊隆马斯克称人工智能为“我们作为一个文明面临的最大风险”,并称发展普通人工智能“召唤恶魔。”已故的斯蒂芬霍金说,“全人工智能的发展可能会结束人类种族。“在真正的人工智能成为可能之前,我们用智能机器上升和推翻他们的人类创造者的恐怖故事来娱乐自己:终结者黑客帝国太空堡垒卡拉狄加西方世界

人工智能是最终的存在风险。但人工智能也是有些人称之为“存在主义希望”的最终来源,即存在风险的另一面。

存在风险作为学术主体存在,主要是因为对人工智能的担忧。所有关于存在风险的主要中心 - 人类未来研究所(FHI),生命未来研究所(FLI),存在风险研究中心(CSER) - 将AI置于其工作的中心。例如,当Skype联合创始人Jaan Tallinn告诉剑桥哲学家Huw Price,他认为他在AI相关事故中死亡的机会与死于心脏病或癌症的死亡一样大。塔林远非唯一的一个。

人工智能是最终的存在风险,因为我们的毁灭将来自一个代表人类智慧总和的创造。但人工智能也是有些人称之为“存在主义希望”的最终来源,即存在风险的另一面。

我们对自然或人为存在的威胁的脆弱性很大程度上归结为智力问题。我们可能不够聪明,无法弄清楚如何偏转大型小行星,我们还不知道如何防止超级小行星。我们知道如何防止核战争,但我们没有足够的智慧来确保这些导弹永远不会被解雇。我们还没有足够的智慧来开发清洁和超廉的能源,可以消除气候变化的威胁,同时保证这个星球上的每个人都能享受他们应得的生命。我们不够聪明,无法消除传染病的威胁,或设计可以中和任何工程病原体的生物防御。我们不够聪明,不能超越自己或我们物种的死亡。

但是,如果人工智能成为其最热切的福音传道者认为可能的 - 不仅仅是人工智能,而是超级智能 - 那么没有什么是不可能的。我们可以通过将我们的意识上传到虚拟的天堂,消灭作为人类一部分的所有痛苦和疾病,来殖民星星,永远活着。我们可以创造所谓的存在主义“eucatastrophe” - 一种突然的价值爆发,而不是存在的灾难。唯一的障碍是智力 - 我们自己的生物学和进化所带来的障碍。但是我们的硅片创造没有这样的限制,可能会把它拉下来 - 它们可以带给我们。

难怪像谷歌首席执行官桑达皮采这样聪明的硅谷杰出人士说人工智能将比“电力或火力”更重要。人工智能专家的需求如此强大,他们可以在校外赚取高达50万美元的工资。由美国和中国领导的军队正在花费数十亿美元用于人工智能驱动的自主武器,这些武器可能会像核弹一样从根本上改变战争的性质。现在,每家科技公司都认为自己是一家人工智能公司 - Facebook和优步已经从大学中攫取了一些最优秀的人才,2018年谷歌将其整个研究部门重新命名为Google AI无论您是建立社交网络还是创建药物或设计自动驾驶汽车,技术研究越来越多地是人工智能研究 - 其他一切都只是工程学。

“超级智能人工智能的出现将成为人类有史以来最好或最坏的事情。”

这些公司知道,赢得比赛真正AI的回报可能是无限的。毫无疑问 - 这是一场比赛。开发最佳人工智能的公司或国家将能够主导世界其他地区,这就是为什么直到最近很少考虑能够确保人工智能安全开发的研究,以最大限度地降低存在风险并最大化存在希望。就好像我们发现自己在20世纪40年代早期,我们正在争夺核弹。就像1945年7月16日早上在新墨西哥州沙漠周围聚集的科学家一样,我们不确定我们的发明可能会释放什么,包括可能结束世界的可能性。

曼哈顿计划的物理学家只能等待三位一体测试带来什么。但我们可以尝试积极地塑造AI的发展方式。这就是为什么存在风险专家如此着迷人工智能 - 比人类面临的任何其他威胁更多,这是我们能够发挥作用的地方。我们可以把灾难变成eucatastrophe。这也是一场比赛,在AI旋转失控之前开发控制AI的工具。差异可能是未来生与死的区别。

这是人工智能 - 所有存在风险的原因和解决方案。霍金在他去世后的最后一本书中写道:“超智能人工智能的出现将成为人类有史以来最好或最坏的事情。

相关文章

网友评论

    本文标题:人工智能是世界末日的原因和解决方案 - 人工智能的发展提供了巨大

    本文链接:https://www.haomeiwen.com/subject/gprasctx.html