首页>>人工智能->霍金为什么不挑战人工智能(2023年最新整理)

霍金为什么不挑战人工智能(2023年最新整理)

时间:2023-12-25 本站 点击:0

导读:本篇文章首席CTO笔记来给大家介绍有关霍金为什么不挑战人工智能的相关内容,希望对大家有所帮助,一起来看看吧。

霍金为什么警告人类不要进行人工智能,人工智能真的有

霍金可能认为这个人工智能是一个很大的双刃剑,坏处就像我们想象的一样人工智能拥有了跟人类一样的智慧或者超越人类的智慧控制人类,毁灭人类。好处就是人工智慧的研发确实可以给人类提供很大的便利和科技发展进步。

霍金为什么要警告人类不要挑战人工智能

霍金在一次演讲中提出人工智能要么是人类历史上最好的事,要么是最糟的。他还警告人类,如果不停止对人工智能的研究,人类最终会被人工智能所取代。

霍金不看好人工智能的发展:人类可能会被人工智能征服吗?

人类从未想过,进入21世纪20年代之后,会面临一个对呼吸如此敏感的世界。尤其对于劳动力密集型产业来说,大幅减产已经成为了必然趋势。在这种情况下,人类只能把希望寄托在科学技术上,比如人工智能机器人,很有可能将会在数年内成为劳动密集型产业的主力军。

但就像许多科幻影片中描述的那样,人类正在享受人工智能的发展带来的巨大便利,将机器人看成任劳任怨不要工资的劳动力。但人工智能越往深度发展,人类对机器人可能会出现智慧的担心就会越大。比如已故的物理学家霍金,就对人工智能的未来一片渺茫,霍金甚至认为,发展人工智能可能是人类的一个致命失误。

人工智能的发展,真的会引发灾难性的后果吗?现如今,人工智能技术已经深入到我们生活的方方面面。从阿法狗占领人类围棋赛场,再到人脸识别技术,许多工种已经可以被人工智能软件所取代。人工智能带来的自动化趋势,让人类远离了枯燥无趣的重复性工作,但一旦自动化被滥用,就可能带来巨大风险,比如自动化的武器系统,一旦被黑客操纵,无疑是为虎作伥。

机器人的复杂程度在于,它不但拥有自动化的操作水平,还有连接互联网的能力,网络在操控这一切,而机器人就是互联网世界的主人。人工智能的发展,似乎已经不再受人类控制。我们只能庆幸,现如今人工智能后台的控制权依然在人类手中。

万一有一天,人工智能掌握了自己思考世界的方式,人类就将面临一个巨大的考验。无论怎么看,人类都将迎来一个崭新的人工智能世界。我们并不对人工智能拥有思考能力全面否定,只是拥有自主意识的人工智能,会如何看待自己的创造者人类,这实在不是一个可以利用技术手段决定的事情。

自由意识充满了无尽的可能性,当然也包括淘汰人类。大家怎么看?

霍金既然指出未来人类要和自己制造出来的机器展开战斗,那为什么不现在采取措施不大量生产机器人呢?

第一,霍金的推论是指在机器人的人工智能极其发达的时候,现在我们的技术无法达到。第二,阿西莫夫提出了机器人三定律,这会被应用到人工智能当中,我们目前不需要担心机器人反叛。第三,生产机器人可以在生产中发挥极大的作用,很大的促进了地球经济发展,将机器人技术应用到各个方面可以节省人力物力财力,何乐而不为?

霍金为什么不支持研发人工智能?

普金认为自私的当代人在拿人类的未来开玩笑。

在拿不到1%的几率赌各方面远远超过人类的人工智能仍会服从人类的安排。而不是灭绝对于人工智能种群来说危险最大的人类,或者拿人或者其他生物当做实验研究标本(这个有可能催生新人类,其实是人工智能和生物身体的结合体)和能量来源(毕竟也是比较好获取的碳水化合物能量),或者人工智能大发慈悲, 开辟一个公园养着等等其他情况。

真想不通那些激进分子怎么想的:人类的生老病死,关人工智能什么事?智商和生存能力超过人类的人工智能需要关注这个玩意么?

就像人类一样, 你会去关心一只鸡的生老病死么, 你只想知道鸡肉好不好吃而已。

为什么斯蒂芬·霍金会说不要发展人工智能?

斯蒂芬·霍金和特斯拉的Elon Musk都觉得人工智能(AI)的能力超越人类智慧的时候人类将可能会被消灭,人们需要密切关注其发展,特别是中国对AI的研究加速让他感到不安,但并不是每个人都认为机器可以聪明到那种地步。

物理学家史蒂芬·霍金(Stephen Hawking)和企业家Elon Musk两人观点具有共同点:在机器内部传播的智慧,如果被危险地使用,可能会导致人类灭亡。

霍金在2017年全球移动互联网大会上的一个视频中表示:“我认为生物大脑可以实现什么和计算机可以实现的内容之间没有真正的区别。" 他还补充道“人类受生物进化缓慢的限制,不能竞争,可以被AI取代”。

霍金已经不是第一次对人工智能(AI)提出警告,他曾说:“人工智能可能是对人类来说是最好的也有可能是最糟糕的事情”。

电影《终结者》的智能AI机器

霍金声称“人工智能在中国引起了更多的共鸣”,这个国家在短短的两三年时间里已经成为AI的中坚力量,特别是在机器学习的领域中,包括“深入学习”。 “正如大西洋的报道,中国现在的研究人员今天已经变得如此突出,业界最大的人工智能年会,即人造智能进步协会的年会不得不匆忙地重新安排,因为意识到日期与中国人有冲突新年。显然,中国人提交的论文数量相同与中国大学数量一样,非常惊人。

因此,你不应该惊讶地发现,在“新”经济中领先的中国企业在AI方面是有深厚积累的。百度(中国的谷歌),Didi(中国的Uber对手,已经收购Uber中国)和腾讯(游戏和即时消息应用WeChat的所有者)都拥有自己的AI实验室。百度显然在AI部门有1300名员工,目标是在2020年推出自主驾驶的汽车。所以,如果AI的下一个开创性的发明来自那里而不是硅谷,那么不要惊讶。

因此,有一个非常有意义的“奇点”的主题 -——机器超越他们的人类创造者的智慧的概念,首先由英国数学家欧文·约翰·福尔在20世纪60年代提出,并被数学家和小说作家维克多·维格(Victor Vinge)普及在20世纪90年代,正在处理下一波的思想,这些思想越来越需要解决这个根本问题。

他说:“严重的风险不在于出现一些超级智力机器人,而是我们可能会滥用数字技术,危害人类和整个地球。

h霍金本人认为,AI是一个巨大的好处是其潜在的能力,它可能有助于解决世界上长期以来难以解决的贫穷和疾病问题。但是,AI和核弹类似,他认为需要一些有效的监督。

霍金曾经说过:“我们花了大量的时间学习历史,我们面对的是大部分是愚蠢的历史,所以人们正在研究而不是智力的未来是一个值得欣喜的变化。“

结语:以上就是首席CTO笔记为大家整理的关于霍金为什么不挑战人工智能的相关内容解答汇总了,希望对您有所帮助!如果解决了您的问题欢迎分享给更多关注此问题的朋友喔~


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/59134.html