首页>>人工智能->如何警惕人工智能(2023年最新解答)

如何警惕人工智能(2023年最新解答)

时间:2023-12-20 本站 点击:0

导读:本篇文章首席CTO笔记来给大家介绍有关如何警惕人工智能的相关内容,希望对大家有所帮助,一起来看看吧。

人类应不应该警惕人工智能?反方辩词,非常感谢!

我觉得应该警惕,单个人的智慧没有十全十美的。比方说:一个公司或者国家,研发一款,全智化人工智能工程,我们可以用几百上千人,又或者几代人的智慧,来完善它。让它拥有超强自主的智慧。到时它的强大谁能与它争锋……

人类需要警惕人工智能—它们比核武器更恐怖,为何科学家这么说?

为什么说人工智能是比核武器更加恐怖的存在呢?那首先就得来说一说核武器的恐怖之处。

核武器现在只掌握在少数几个国家手里,对于一些想研发核武器的国家也是进行很多的制裁,让他们不能够研发核武器。

因为核武器真的是太危险了,首先爆炸来说,他的爆炸区域非常的广,而且更为重要的是,他所留下的辐射对于人类来说更是祸害千年,这里将不能再生存,再继续活下去,可以说这是一种极度的危害,核武器要是不进行管控,那我们的地球就真的会毁在核武器的手中,也就是我们人类的智慧手中。

所以核武器已经够更加的恐怖了,那为什么说人工智能比核武器是更加恐怖的存在呢?

看过人工智能的这些电影的都是知道的,比如电影《人工智能》《西部世界》之类的,也许我们创造出人工智能是为了让他们能够为我们服务,甚至是满足我们的欲望,比如西部世界之中所描写的。

但是就像是西部世界之中所描写的一般,人工智能它的智慧有一天要是觉醒了怎么办?它突然发现自己不过是人类的奴隶,他感受到了屈辱,也就是他已经学会了人类的感情,这个时候他的意识开始慢慢的觉醒,于是他做出了爆发之举,开始去消灭人类,要自己当家做主。

到时候世界一切都是智能的,我们能够抵御的过这世界的一切吗?恐怕并不能,到时候智能控制着这一切,我们的人类说不定到时候就成为了奴隶,成为了他们的跑腿,他们控制着我们的一切,不管是金融还是生活,一切都活在他们的监视之下,他们把这个当做是乐趣来进行做,观察着人类的种种。

霍金遗训告诫人们警惕人工智能,那么人类该如何对待

人类的科技尚未达到那个地步,过多的警惕会阻碍科技的发展,等到人工智能有了思维后再警惕也不迟。

我们是否该警惕人工智能的发展?

现在我们担心的人工智能,并不是我们所理解的人工智能,这里我们必须明确两个概念。人工智能和人工生命,现在的人类还担心两个问题:

1,人工智能会对于经济分工体系中某些中层职位造成破坏。(这个是弱人工智能的范畴,即某些基于机器学习的智能系统,来替代某些人类的工作,包括调配,计算分析,甚至于特定情景的交流)

2,人工智能如果不能被长期掌控,则有可能来反向统治人类。(这个是强人工智能,实质上已经是人工生命了。)

虽然这两个问题逻辑上并没有问题,但是目前而言,这两种担忧过于超前,甚至过于科幻了。

因为在并行计算、数字化神经网络、云技术、大数据以及深度学习算法等技术的推动下,人工智能的形态正逐渐显现:它既不是拥有与人类相似意识的机器人,也不是奇点论(人工智能与人脑智慧兼容的时刻)者宣称的超智能,而是应用在狭窄的专业领域,如医学、教育、法律、太空等高度专一的“行家”。随着人工智能的发展,人类终有一天将被其取代的恐慌感也应运而生。

其实我们不必担心,人工智能的发展还在我们可控范围内,科学家们也不会让我们所担心的事情发生。

为什么最近有很多名人,让人们警惕人工智能

几种可能:

第一,过于依赖人工智能可能导致机器取代人类【不过在机器人三定律的约束下,这个可能不大】;

第二,现在的人过于依赖人工智能,眼睛时刻盯着屏幕,可能造成亚健康等一系列健康问题,也可能造成人类生活中一些基本元素的缺失,比如纸质书的流逝等,所以要警惕。

以上纯手打O(∩_∩)O!

为什么有很多名人让人们警惕人工智能?

“强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。”著名物理学家霍金在2017年4月的全球移动互联网大会上发表了《让人工智能造福人类及其赖以生存的家园》,媒体报道时起的标题为“霍金:人工智能的崛起可能是人类文明的终结。”

的确,霍金表示了人工智能可能最终会脱离人类控制,加剧风险社会的全面爆发。但霍金明确表明了观点:他并不确定人工智能会带来好的结果,还是坏的结果。人工智能还会有益于人类,这也是个趋势。

原微软公司CEO比尔盖茨、耶路撒冷大学历史系教授及《人类简史》作者尤瓦尔·赫拉利等名人也都相继发表了人工智能会取代人类、甚至导致人类社会灭亡的言论。他们作为“公共知识分子”,对外发声实则承担了媒体的“环境监测”功能,告诉大众应该注意些什么。

这些被概括为“人工智能威胁论”的观点的背后,更多的不是对人工智能发展是好事还是坏事的辩论,而是看到了人工智能快速赶超人类技能的现在,我们不得不面临的另一个问题——社会伦理与人类意识。

霍金认为,人工智能与生物智能在未来是不存在区别的。是的,人工智能经由人类发明,其背后的信念依然是人类发展的写照。我们害怕人工智能的失控会给人类带来灭顶之灾,其实更多的是害怕人性的放纵,利用人工智能的发展,带来无穷无尽的灾难。

在各类科幻电影中,灾难的始作俑者并不是人工智能,而是人心。这也是这些名人不断呼吁“警惕人工智能”的真正目的。科技飞速发展,人类的意识却没有如科技一般快速提升,那么最终会导致人类以狭隘的、分离的、权力控制的信念意识去开发、运用人工智能,那么人工智能会加速放大人性上的黑洞。

认知升级,活出自己。更多交流请关注微信公众号:瑶知天问。

结语:以上就是首席CTO笔记为大家整理的关于如何警惕人工智能的全部内容了,感谢您花时间阅读本站内容,希望对您有所帮助,更多关于如何警惕人工智能的相关内容别忘了在本站进行查找喔。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/44833.html