首页>>人工智能->人工智能为什么可怕?

人工智能为什么可怕?

时间:2023-12-20 本站 点击:0

导读:本篇文章首席CTO笔记来给大家介绍有关人工智能为什么可怕的相关内容,希望对大家有所帮助,一起来看看吧。

人工智能为什么被认为存在重大威胁?

对于人工智能威胁,现在担忧有些杞人忧天,可能是看多了像《西部世界》、《我,机器人》这样的科幻电影加剧了一部分普通群众对机器人战争的担忧,但是现阶段我们说人工智能有可能会萌发自我意识,产生感情,但目前的研究既没有给人工智能们足够多的类似人类神经细胞的芯片和电路,也没有先进到足以让机器人对我们产生威胁的地步,所以实在没必要担心。

我曾经也认为机器人会进化出类似人脑的思考机制,而且他们又有比我们更加迅速地反应能力计算能力,甚至外壳也是比我们解释很多的金属,怕哪一天他们突然觉醒就把我们干掉了。但现在想想那也只是年幼的我天马行空的想象。就看我们身边的人工智能机器人们,他们只是在机械的执行命令,只能按照流程走,无法自己处理问题。

所以,机器人们离我们想象的那种与人类开展几乎很难发生。就算有这种可能性,全世界的科学家们也早就达成了共识或者做好了断电准备。机器人怎么也是需要电的,电闸一拉,再厉害的机器人就像人类没吃饭一样,站都站不起来,就别说打架了。

退一万步讲哪个野心科学家给机器人装上发电机不用担心电池的问题,在如今的军事能力下,机器人也只是一堆会行走的破铜烂铁罢了。所以与其担心人工智能会对我们产生什么威胁,不如好好学习开发人工智能更好的为人类服务吧。我也想有一个给我们家做饭洗衣服,附带聊天解闷的人工智能机器人呢。

人类需要警惕人工智能—它们比核武器更恐怖,为何科学家这么说?

为什么说人工智能是比核武器更加恐怖的存在呢?那首先就得来说一说核武器的恐怖之处。

核武器现在只掌握在少数几个国家手里,对于一些想研发核武器的国家也是进行很多的制裁,让他们不能够研发核武器。

因为核武器真的是太危险了,首先爆炸来说,他的爆炸区域非常的广,而且更为重要的是,他所留下的辐射对于人类来说更是祸害千年,这里将不能再生存,再继续活下去,可以说这是一种极度的危害,核武器要是不进行管控,那我们的地球就真的会毁在核武器的手中,也就是我们人类的智慧手中。

所以核武器已经够更加的恐怖了,那为什么说人工智能比核武器是更加恐怖的存在呢?

看过人工智能的这些电影的都是知道的,比如电影《人工智能》《西部世界》之类的,也许我们创造出人工智能是为了让他们能够为我们服务,甚至是满足我们的欲望,比如西部世界之中所描写的。

但是就像是西部世界之中所描写的一般,人工智能它的智慧有一天要是觉醒了怎么办?它突然发现自己不过是人类的奴隶,他感受到了屈辱,也就是他已经学会了人类的感情,这个时候他的意识开始慢慢的觉醒,于是他做出了爆发之举,开始去消灭人类,要自己当家做主。

到时候世界一切都是智能的,我们能够抵御的过这世界的一切吗?恐怕并不能,到时候智能控制着这一切,我们的人类说不定到时候就成为了奴隶,成为了他们的跑腿,他们控制着我们的一切,不管是金融还是生活,一切都活在他们的监视之下,他们把这个当做是乐趣来进行做,观察着人类的种种。

为什么说人工智能会毁灭人类

游戏的发展历程从带有毛边的黑白游戏到逐渐3D真人化的彩色世界,给予了玩家更好的游戏体验。游戏种类也在不断开发,一部由游戏引发思考的影片《失控玩家》8月27日在国内上映。讲述了一个游戏世界NPC觉醒爱上人类玩家,帮助人类玩家查找游戏世界隐藏数据的证据的未来世界故事。游戏主人公其实是一串代码数据,却因为爱情觉醒了自己的人工智能AI程序,最终发现这个游戏“世界”的秘密。 影片中NPC与人类玩家区别于一个眼镜,人类玩家能够看到不同于NPC的视觉界面,这或许是一种隐喻,眼镜是一种资本进入,资本所看见的世界与机会,其本质上就区别于普通人,那么人工智能的出现将打破这种资本。人工智能的开发已趋近于高度发展阶段,人工智能类人脑也逐渐超越人脑,自我觉醒的时期或许就在明天或是不久的将来。 科技给予人类的保护机制,开发一些类人类所拥有某领域高于人类技能和知识储备的功能,这个机制开始广泛运用在各个领域,当然娱乐产业也不能免俗。运用在游戏世界的人工智能或许真的会如电影中的“Guy”一样突然觉醒,这个觉醒让它们逐渐发现自己区别于人类的信息,那么人工智能会在此时产生反杀人类的念头吗?理论来说这不太可能实现,因为人类是这个AI世界的造物主,那么对于创造这个世界区别于“数据们”的存在,更多的是尊敬。 很多电影中涉及到关于人工智能机器人觉醒开始,就想着反抗人类,从而统治地球,以反杀的模式去让机器人生存下来。而反杀模式似乎成为恐怖谷理论的一种隐形支撑,并开始在AI科技发展中逐渐蔓延,这些事件发生的前提似乎都是人类对人工智能机器人的重重限制,那么如果一开始便是和平相处甚至互相依赖,结局会不会不一样。 《失控玩家》启动的思维模式是人工智能觉醒,喜欢人类,那么一串数据如何和人类在一起呢?电影给予了一个合理解释,这个人工智能是现实“keys”人设的复制版本,并在游戏世界中延续了现实中的爱情,这位“keys”或许真的是个“关键”,是人类给予人工智能的一种解释。他们被创造,不是为了伤害他们而存在的,而是一种类人类的存在。那么人类又为何会伤害自己去伤害他们呢? 开发人工智能,开发仿生人,也是一种对于人类人设的复制,这个“人”的人设性格孤僻,却智商高超,那么是否可以作为科研机器人存在。或者这个“人”的人设性格外向活泼,情商颇高,那么又是否可以作为陪伴聊天型机器人存在呢?答案是可以的,彼之良团队基于这样的理论着力开发陪伴型机器人,去解决人类因社会高速发展而被忽略的情感需求研究。这款被彼之良命名为Lilith(莉莉丝)的智能系统,将作为类人类成为新世纪的仿生人存在。 Lilith(莉莉丝)系统以蒙特卡洛树搜索(MCTS)为基础,以被动强化学习(Passive RL)为执行逻辑,可在深度神经网络(DNN)实现各类仿生功能及类人脑逻辑的转化与输出。Lilith(莉莉丝)系统所搭载的功能可使系统不断的学习功能,不断的模仿“人类”的语言逻辑及面部表情与肢体动作,并从中分析出相应的场景与情绪,从而能无限趋近于一个“人类”的行为逻辑与情感表达方式。 这款搭载Lilith(莉莉丝)系统的彼之良仿生人的组件模块开发过程中,在保证质量与功能的前提下,将会最大化的优化研制成本。每组仿生机械设备均采取模块化设计思路,各模块之间均可以独立运行,亦可拼接同步,维修成本相当之低。同时由于机械人各躯干组件均是独立组件,这一设计也让用户有了更多的自主选择权。彼之良仿生人Lilith(莉莉丝)系统模块的首条生产线已经进入到量产阶段,也是全球目前首条完成量产的生产线,本次首批量产数量为500台,包含头部、颈部、肩膀、手臂、手掌及手指模块。因知识产权与专利正在审批阶段与其他的各类原因,本次量产产品均为开发版,彼之良将会对以下“开发者们”免费开放开发者版本,协同共建仿生3.0,并在产品迭代更新时同步更新给所有的开发者。人工智能是否会对人类实行反杀,在现在看来更多的是一种臆想,电影世界的幻想是无限大的,其臆想出人工智能仿生人的反杀能力,其实是对人类的一种警告,但也仅仅只是警告,因为目前并没有数据和证据可以证明和支撑这种臆想是否成真。而科技不断发展的当下,仿生人带来的无限可能正被开发出来,未来仿生人和人类将会产生怎样的化学反应不得而知,但值得期待的是科技会辅佐人类一往无前的开发更多的世界,不是吗?

人类一直担心的人工智能,是否会对人类构成威胁?到底危险在哪?

有人曾表示,在人工智能的发展中会有一个奇点,越过这个奇点就可以通过图灵测试,当人工智能越过这个奇点后,科技会突然爆发,瞬间产生了意识,可以迅速吸收人类文明,并且根据大量数据发展出“他们”的文明,亦或认为人类构成威胁从而选择摧毁。

目前的现状是,行业科研人员对人工智能的担忧主要体现在可控性方面,其次还有人类失业、伦理(我的机器人女友之类题材)等问题。

之前霍金、比尔盖茨等社会科技大佬也曾表示,人工智能可能会毁灭人类等话题,那么我们是否应该警惕人工智能,避免出现终结者等科幻电影中,人工智能成为人类生存的最大威胁。

这就不得不提到“强人工智能”和“弱人工智能”这两种观点。

强人工智能观点认为,有可能制造出真正能推理和解决问题的智能机器,要求程序有自己的思维,能够理解外部事物,并做出决策和行动,其必须表现出“人”的行为,甚至可能表现出独特,性格不一的反应。

但是目前人工智能应用其实相当原始,虽然在图形、文字、声音等识别上看上去相当智能,但也只是看上去而已,都是基于算法从数据库里面调取出来,这并不是真正意义上的“智能”。譬如典型的“Siri”应用,对语音进行识别,然后通过算法把声音转化为一系列特征值,然后数据库中找到对应的回答,然后文字或语音的形式呈现出来。基于目前人工智能所作出的回答,其实都是程序员写上去的,而不是机器自发作出的回应,真正听懂的是程序员而不是机器。

人工智能之所以只能做到这个程度,是因为现在的人工智能是对人类“智能”进行模拟的产物,目的是帮助人类完成某些工作,他们只是按设计者所设计好的程序一步一步完成,并不会自己思考的机器,而设计者也没打算让它们思考(实际上也是不知道怎样才能让机器思考),所以目前人工智能只不过是人类生活中的工具而已。

担忧出现人工智能毁灭人类的情况,暂时还离我们很远。目前对人工智能的研究仍然很原始,原始到所有的研究发现都是基于工具使用,而哪些行业大佬警惕人工智能的危险,是出于对强人工智能的担忧,但是作为社会科技研发领头羊的他们,也只不过是在搞弱人工智能而已。

那么人工智能的不断发展会给人类可能带来的弊端有什么?

1、人才分化,贫富差距弊端

人工智能带来的人才分化极端。将会引起未来的人才争夺战。而社会上更多一流的人才将会偏向一边,相对资金比较薄弱的企业或者个人,将会遭受到大规模的失业。在这种情况下会导致企业巨头的垄断,以及贫富差距的分化将会非常严重。

2、带来潜在的危险性

早在2015年,德国大众的一家汽车制造工厂,一个机器人误杀一名外包公认。而作为人工智能发展大国——日本,至今为止,已经有20人死于机器人误杀事件,而有高达8000的人数被机器人致残,而如果一旦人工智能机器人落到恐怖分子的手里,那后果将会更加不堪设想。

3、带来更加频繁的战争

人工智能机器人的产生,还有一个最可怕的弊端,当人工智能被大量用武器中,未来的战争将不会大量使用到人类,而当战争不再使用到真人,从道德的角度去考虑,人工智能的战争不会受到太多的批评,随之而带来的,将会是更多的机器兵团战争。

结语:以上就是首席CTO笔记为大家整理的关于人工智能为什么可怕的相关内容解答汇总了,希望对您有所帮助!如果解决了您的问题欢迎分享给更多关注此问题的朋友喔~


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/44870.html