2025-05-08 10:00:29 | 来源: 互联网整理
精彩的介绍
在越来越多的工作任务中,数字技术将比我们表现更好。综合人工智能发展是否意味着人类终结?为了这一预言,小氧通过了。我们应该专注于目前真正有意义的挑战。
与其担心人工智能的结束,不如现在开始。
现在,您将走进您从未进入的建筑物,打开门,然后进入一个看不到手指的房间。当然,您一定会害怕,担心黑暗的角落会有恐怖的怪物以悄悄地监视它们,或者您会惊慌失措,并触摸墙上的灯光开关,以免撞到家具。
这个黑暗的房间是人工智能的未来。不幸的是,当我们走进这个房间时,许多人认为我们会击中一些邪恶但超级聪明的机器。这种恐惧实际上已经存在很长时间了,可以追溯到1960年代。当时,英国数学家约翰和艾伦做了以下描述:
让我们假设这样的超级智能机器具有超越世界任何人的智慧。鉴于机器本身的设计自然是“智能活动的结果”,这款超级智能机器也可以创建更智能的机器,从而进入指数爆炸的前进循环。人类的智慧将远远落后。人类历史上的最后发明是世界上第一台超级智能机器。如果这台机器足够听话,请告诉我们如何控制它。话虽如此,这真是太奇怪了,为什么没有相关的科幻小说?
一旦超级智能机器进入现实,它通常不会像刚刚想象的那样温和和服从。它更接近“终结者”中的小人:奴役人类,将人类视为次要种族,并鄙视其所有权利以实现自己的目的,无论它对人类的影响有多么毁灭。如果您认为所有这一切都是幻想,那么现在是时候看看我们过去五十年来我们的数字技术取得了什么样的飞跃。这使许多人认为“聪明的爆炸”是近距离的,许多人认为,如果我们不在乎,人类的终结即将到来。斯蒂芬·霍金( )在2014年说:
人工智能的全面发展将意味着人类终结的到来。
去年,比尔·盖茨(Bill Gates)也表达了类似的观点:
“我现在更关心超级智力领域。从中的第一台机器可能会为我们做很多事情,也许不是超级聪明,如果我们正确地管理它,它们确实可以产生积极的效果。但是,在接下来的几十年中,智力已经足够强大,可以成为人类的主要关注点。我对Elon Musk和其他行业领导者的共识以及我不感兴趣的人都对某些人不感兴趣,而这些人对某些人的感兴趣,那么这些人都不会有这样的人。
特斯拉首席执行官马斯克怎么说?
我们应该对人工智能非常谨慎。如果记者要求我告诉我我们目前面临的最大威胁,我可能会说这是人工智能。现在,越来越多的科学家认为,在国家和国际层面上,都应建立一些政府和组织监督,以确保我们不做一些愚蠢的事情。在人工智能领域,我们可能会召集一个恶魔。
让我们将注意力转移到现实水平上,并与以前的描述和观点相比,现实中的进步似乎是如此平静。
今年3月,推出了Tay,Tay是一个基于AI的聊天机器人,将其戴上并为每个人互动打开,但仅16小时后,正式撤回。根据官方想法,当它与人类接触时,它变得更聪明,更聪明,但很快就成为了一个邪恶的机器人,他钦佩希特勒,拒绝认识大屠杀的存在,提倡近亲的乱伦,并声称当时的美国总部布什总部计划了911事件。
为什么会发生这种情况?实际上,这就像我们在工作日在厨房中使用的破布一样,吸收了所有肮脏的东西。微软之后向公众道歉。
这是人工智能的当前状况。在讨论了“超级智能机器”带来的许多风险之后,现在是时候打开黑暗的房间灯光,停止陷入科幻小说的情节,并专注于现实中人工智能给我们带来的真正挑战。为了更好地运用这项智能技术,我们将避免以过高的成本和痛苦的方式尝试设计。
让我们更具体地观察什么是人工智能!单独定义它时会有很大的差异。首先,让我们忘记Siri,客厅和厨房里的巢(但我很高兴同时拥有这三个智能助手)。
想想这些电影中的图像:1927年的玛丽亚; HAL 9000在1968年:空间; 1982年的C3PO; 1999年的刀片;史密斯特工在1999年;当然还有2013年的电影。这样,您的思想似乎具有更完整和清晰的图像。
面对各种不同的图像,人们逐渐分为两个派系:一个我称为“奇异学校”,他们认为人工智能就像人类进化史上的奇异性一样,从中,奇异性会产生无限的可能性,人类的终结将由人工智能主导,甚至在那里结束;另一个是“人工智能怀疑主义”,他们认为人工智能只是电影中每个人娱乐的话题。实际上,机器将永远不会占领世界,他们将永远无法逃脱人们的控制。
实际上,这两种观点都是完全荒谬的。接下来,让我们看看是什么原因:
奇异学校相信三个原则:
首先,在某个图像中提出的超级智能是现实中可预见的未来的投影。从技术上讲,这个转折点也称为“奇异性”,因此被称为“奇异性”。但是,这种超级智力的本质和到达的时间是什么。其次,人类现在面临着巨大的风险,这种超级智力将随时从天空中掉下来,并占主导地位。第三,当前一代的努力是实现两个目标之一:要么确保人工智能不会发生,要么确保人工智能现在和将来对人类有益。这三个点完全反映了玛尼希主义世界观:反邪恶的正义;灾难论点;一种紧迫感:“我们必须做某事,无论它有多晚,一切都不会太晚”;人类的世界末日救赎。
人们现在担心什么?人们担心在不断升级的数字战中造成的损失,或者在快速发展的世界中,劳动力被一大批机器人所取代。
就像所有信念中得出的观点一样,“奇异性”的论点是无可辩驳的,因为它不是从逻辑和证据开始的,因此不能争论。它更加站不住脚,因为目前没有理由相信所有这些。目前,即使至少使我们想起智能机器的类比也没有出现。在我们目前的计算机学科和数字技术开发的阶段,即使在可预见的将来,它们也不足以像上述内容那样从“智能对象”中发展。
有时,“奇异性”的观点似乎是有条件的。有“如果”(如果),则有“然后”。如果出现某种形式的“超级智能”,那么我们会遇到大麻烦。请注意,我们在这里谈论的是“只是”,而不是斯蒂芬·霍金( )之前所说的。如此简单而粗糙的“如果...是这种情况”完全等同于以下陈述:“如果灾难理论中的四个骑手出现,那么我们将遇到很大的麻烦……”
在某些情况下,“奇异学校”所相信的是一种可能性极低的情况,当然不存在。但是这种存在只能在逻辑和理论上站立。它模糊了“可能性”和“绝对性”之间的界限。例如,当我现在感觉不舒服时,我可以说:“明天我可能会死。”或梦见蝴蝶的理论,例如“我可能是蝴蝶,但现在我梦想成为一个人”。
从当前的计算机级阶段开始,从某个时间点开始,它突然转变为超级强大的超级人工智能。我们仍然不知道这种转变的原因。
因此,我认为,模糊“信仰”和“事实”的“奇异学校”对某种终结学说的紧迫性有吸引力。他们开始谈论的是,工作的急剧下降,数字系统的深层风险,无人机随时从天上掉下来,以及其他与计算机技术相关的令人担忧的现象。最后的结论是:从教育到就业,人类的生活将被统治;从娱乐到冲突。然后,他们开始非常认真地担心:如果本田汽车有自己的想法,我们无法控制它,我们现在该怎么办?问题是:您再次爬上了树的顶部,这并不意味着您离月球更近一步。
如果上述所有陈述均无效,那么“奇异学校”仍然会抛出一些数字以吓到所有人。他们最喜欢引用的理论是摩尔定律。这是基于经验观察的预测:随着数字技术的持续发展,综合电路中的晶体管数量将每两年翻一番,而成本最终将越来越降低,而计算机的性能将变得越来越强大,越来越强大,显示出指数爆炸。
实际上,这种猜测确实是正确的疯狂猜图电影答案,尤其是近年来,技术行业的发展严格根据“摩尔法则”的预测而发展。但是事情总是在变化,纳米技术中出现的科学研究瓶颈为我们带来了许多巨大的挑战。毕竟,这么小的东西被塞入一个空间总是有一个限制。摩尔的定律目前已经变得站不住脚。仅仅因为某些技术在过去一段时间内显示出指数增长的趋势,这并不意味着这种趋势将永远持续下去。正如经济学家在2014年的文章中所说:
在整个人类历史上,人类一直是地球上唯一的人,而其他物种也无法与之抗争。但是这种情况会逆转吗?让我们看一下人类和动物中完全无害的物种:土耳其。它的大小和体重从1929年的平均13.2磅到今天的30磅以上。科学界有充分的理由相信这种趋势将继续下去。如果它确实以这种增长率发展,经济学家预测,火鸡将在短短150年内与人类相似,而6000年后,土耳其甚至将超过整个地球!
科学家说:火鸡具有如此强劲增长率的原因主要是由于家禽行业的迅速创新,例如选择性喂养()和人工授精。仅在美国,就有近2.5亿只火鸡,因此我们有理由在感恩节上采取非常合理的举动:在它们吃我们之前迅速吃掉它们……
从“火鸡引起的恐慌”到“ AI引起的恐慌”,这种飞跃实际上很小。
目前,奇异学校的人们一直在不断引起人们的注意。它们通常来自发达国家,通常不知道人类面临的威胁和灾难是什么。如果您给您一个数据,您会知道,在我们的星球上,尚未有近7亿人拥有安全的水来源,这是对人类的主要威胁。
也许,您仍然坚持认为这是专家对人工智能作为威胁的说法,因此请考虑专家以前做出了多少错误的预测! 2004年,比尔·盖茨(Bill Gates)还说:“两年后,我们将完全解决垃圾邮件问题!” 2011年,霍金还说:“哲学已经死了!” (那你现在正在读什么?)
在这些不断向公众投掷各种预测的专家中,我最喜欢这一点:这是共同发动机,也是数字电子组件制造商3COM的创始人。他在1995年说:“互联网将很快成为人类社会中最令人眼花the乱的新星,并在1996年将在灾难级别的情况下迅速崩溃。”此外,他还添加了以下句子:“如果我的预测中有任何错误,我会说我说的每个字!”
我不得不说,这是一个信守诺言的人。 1997年,他将自己的文章放在所有人面前的食物破碎机中,抛光了它,然后喝完了。我希望那些“奇异学校”能像他一样勇敢,并拥有与他相同的话和行为。
那么,那些怀疑人工智能的人真的正确吗?
接下来,让我们看一下硬币的另一侧。在上一边,许多人在数字世界中提供了神,在这方面,当他们听到神灵崇拜的话语时,这些“ AI怀疑论者”印象深刻。他们的结论很简单:任何认为这个世界上有真正的人工智能的人都是傻瓜。人工智能只是一台计算机,计算机只是一台调音机,而调音机只是根据某些逻辑结构安排的计算机,并且引擎无法思考,感知或有意识。超过。
否则,为什么计算机无法征服这么多字段?对于人类认为的一些最简单的日常活动,它们没有能力,并且没有能力进行翻译。无论进展如何,世界上任何两种语言(包括中文)之间的依都无法达到其理想状态。这意味着我们在人工智能中无话可说,更不用说担心它了。世界上根本没有真正的人工智能。放松身心,沉浸在手头的数字设备带给您的乐趣中!
实际上,“ AI怀疑论者”的观点也是错误的,就像“奇异学校”一样糟糕。这两个观点在加利福尼亚有很多信徒。在加利福尼亚州,好莱坞也是一个令人震惊的科幻电影,例如顶级科学研究,当然,世界上最有影响力的技术公司正在彼此发展。这可能不是偶然的。在金钱的动荡之地,人们会感到困惑,各种精神作品,学术成就以及由想象力和好奇心驱动的商业模式将在任何地方蓬勃发展。
例如,我最近一直疯狂地收购了各种人工智能技术公司,好像世界的尽头在我面前一样。这是为了弄清楚如何真正开发思维计算机。突破点在哪里?埃里克(Eric)曾在2013年对阿斯彭(Aspen)研究机构说:“现在,人工智能行业中的许多人认为,我们将在未来五年内通过“调谐测试”进行计算机突破。
所谓的“调整测试”是一种检测人工智能是否越来越近的方式。有两个房间,一个房间,您在问问题,另一个房间,人和机器接受问题并给出答案。如果您不能判断哪个是人,哪台是基于答案的机器,那么机器人已经通过了“调整测试”。
该测试实际上等于驾驶执照测试:如果爱丽丝未能通过此测试,她绝对不是安全的驾驶员;但是,即使她经过,她仍然可能是不安全的司机。实际上,“调整测试”是验证人工智能的必要方法。这是最低的标准,但尚未超过人工智能。更重要的是,几乎所有实验项目都以相同的方式失败。好的,我目前也打赌。
我最讨厌吃茄子,但我愿意打赌,如果有一个软件程序可以在2018年7月16日之前通过调音测试并赢得 Gold Medal,那么我愿意吃所有的茄子! (不用担心,这个赌注实际上对我来说是非常安全的)。
实际上,“奇异学校”和“人工智能怀疑论者”都是错误的。当在1950年的文章中向他介绍了这项测试时,他问了一个问题:“机器可以思考吗?”这个问题本身是否毫无意义,甚至不值得讨论。 (具有讽刺意味的是,这个问题嵌入了罗伯纳奖奖章中)。这句话确实是真的。无论您属于哪个派系,比赛的两个方面都会有毫无意义的辩论。
就逻辑演讲而言,真正的人工智能并非不可能,但是从现实的角度来看,它完全站不住脚。我们不知道从哪里开始,我们甚至对我们的大脑和聪明的活动一无所知。换句话说,我们不应该担心出现很小的超级智能的可能性。
我们应该更加关注的事实是,随着如今智能技术产品的出现,它们在理解自己,理解世界并理解我们人类之间的互动关系方面发挥了深远的影响和作用。这并不意味着当我们做很多事情时,我们的机器是有意识的,智力的,或者是意识到的。他们远非达到这一点。有大量结果证明计算机在计算能力中具有局限性和瓶颈。不可能提出一种可以直接向我们展示答案“是或否”的算法。
当前计算机的性能开发存在局限性,这是毫无疑问的。当然,仍然有许多机器可以完成许多惊人的任务,例如下棋或猜测谜语。这些任务甚至比我们人类更好。但是它们都是源自原始版本“ ”的版本,该版本是通过数学逻辑构建的模型,该模型本身为计算机功能设定了有限的范围。
量子计算机也具有相同的局限性。不会有意识的智能实体会突破调音机。目前的重点是,在吸收大量数据和一些极其复杂的软件处理(包括预测我们的行为)的帮助下,我们的智能技术在某些工作中比人类更好。因此,我们不再是世界上唯一具有超级动作能力的物种。
在我看来,对人类能力的这种重新理解是“人类自我意识的第四次革命”
我们不在宇宙的中心(哥白尼让我们意识到这一点),也不是生物王国的中心(查理·斯达维( )使我们意识到了这一点),也不是理性的中心(使我们意识到这一点)。调整后,我们终于意识到我们不再是信息空间的中心。我们与数字技术共享这个空间。他们在处理信息任务时要比我们优越。他们的卓越表现使我们开始再次找到人类的优势,以及这个宇宙中的特殊角色。
我们曾经以为我们擅长下棋,但我们认为自己很聪明,现在我们可以用手机击败我们。我们过去常常购买我们想要的任何东西,至少在这方面我们是自由的。现在,该机器已经为我们每个人总结了购买规则,倾向和爱好。
在越来越多的工作任务中,数字技术将比我们表现更好,无论是机械重复的任务还是某些不适合我们人类思维和智能的任务(同时多任务处理,以及某些需要超级稳定智能的工作)。
我们需要做的是全力以赴地发挥自己的优势,我们对人工智能将要带来的世界末日的预测微笑着。目前,我们应该专注于真正有意义的挑战。总而言之,我列出了以下五个点。它们具有同等的重要性,无论前后如何,都被排名。
1。我们开发的人工智能应该对我们的环境更友好。这些最发达的智能技术源自我们的手,应该击败目前压迫人类的邪恶,从环境灾难到金融市场危机,从犯罪,恐怖主义,战争到饥荒,贫困,无知,不公正,不公正以及在贫困地区令人震惊的生活水平。
2。我们发展的人工智能应该对我们人类本身友好,它应该将服务人作为其最高目的,而不是某些手段。
3。我们开发的人工智能已成为人类智能的补充。数以百万计的工作将被颠覆,消灭或重塑,在这个改组世界中,每个人都应分享好处,而成本应由社会承担。
4。我们应该使人工智能预测行为与人类自由和尊严保持一致。营销产品,影响行为,打击恐怖犯罪,不能以人为贵族为代价。
5。最后,我们应该使人工智能更“人类”,更像人类。在使用人工智能的过程中,我们可能会错误地将其用于不利于大多数人的地方。华盛顿·丘吉尔( )曾经说过:“我们创造了这一切,而我们创造的东西又将重塑我们。”这也适用于信息技术和智能产品,并使人工智能更像人类,并尽可能最大程度地减少风险的机会。
好文章
推荐
关注物联网媒体,并拥有最新,最全面和最奇怪的物联网信息!
热门推荐
原神可莉要元素精通吗(原神可莉武器推荐)
原神赛诺是男是女 新角色性别介绍
原神四风原典适合谁带 是谁的专属武器
王者荣耀snk英雄哪个值得入手 SNK英雄强度排行
云顶之弈巨岩龙羁绊效果是什么 云顶之弈S7.5新羁绊巨岩龙效果介绍
暗黑破坏神不朽怎么加好友 为什么搜索不到id
王者荣耀国际服怎么登录 用什么登录进去
暗黑破坏神不朽**宝石强度排行 哪个五星**宝石最好
原神提纳里命座效果介绍 几命提升最大
无悔华夏渔樵问答8.25答案是什么 无悔华夏渔樵问答8.25答案分享
造梦无双千年独角仙技能是什么 造梦无双千年独角仙技能一览
原神菲谢尔阵容搭配推荐 皇女主C副C阵容配队攻略
热门手游排行榜