导读:本篇文章首席CTO笔记来给大家介绍有关人工智能如何控制自己的相关内容,希望对大家有所帮助,一起来看看吧。
人工智能怎样影响我们的生活?
人工智能的利:
1、人工智能可以使我们的生活变得更加便利,减轻人们的负担。人工智能应用后,各行业的生产效率大幅提高,人类财富会快速增长,为人类的美好生活提供了坚实的物质基础。
2、人工智能让生活更舒适。在未来,马路上不需要红绿灯,无人驾驶汽车在公路上奔驰,快速平安的把主人送到家,刚到门口,并亲切的说了句:“欢迎回家。”,走进房门,机器人空调变自动开机把室温调节到舒适。厨房里,厨师机器人早已开始了做饭,香气飘满了整个房间。人工智能让这些不再是梦。
人工智能的弊:
1、失业率增加。人工智能的发展,会导致很多人失业。据人力资源和社会保障部2016年新闻发布会介绍,2016年末中国失业率达4.05%,机器人拥有者不会疲劳的属性,这将代替很多劳动力导致失业率的增加。
2、人工智能机器人具有一定的危险性。如果在未来人工智能自我意识觉醒反过来攻击人类,我们该如何应对?毕竟我们没有机器人聪明,没有它们强壮的力量,更没有它们恐怖的学习能力,似乎机器人的出现意味着人类将会被淘汰。著名科学家史蒂芬·霍金更是认为:未来一百年内,人工智能将比人类更聪明,机器人将控制人类。
人工智能真的会控制人类吗
个人观点,仅供参考。
人工智能来临,有人在担忧失业,有人在憧憬未来,有人在发掘行业机会,也有人在研究围棋。在讨论这些之前,也许我们应该先考虑一下人类的结局。
有人可能觉得谈论这个话题太夸张了,
那先回忆一下人类历史上究竟发生了哪些不可思议的事情。
不可思议的事情,需要请几个穿越者来判定。
我们请1个出生于公元0年出生的人(汉朝人)穿越到公元1600年(明朝),尽管跨越了1600年,但这个人可能对周围人的生活不会感到太夸张,只不过换了几个王朝,依旧过着面朝黄土背朝天的日子罢了。
但如果请1个1600年的英国人穿越到1850年的英国,看到巨大的钢铁怪物在水上路上跑来跑去,这个人可能直接被吓尿了,这是250年前的人从未想象过的。
如果再请1个1850的人穿越到1980年,听说一颗炸弹可以夷平一座城市,这个人可能直接吓傻了,130年前诺贝尔都还没有发明出炸药。
那再请1个1980年的人到现在呢?这个人会不会被吓哭呢?
如果35年前的人,几乎完全无法想象互联网时代的生活,那么人类文明进入指数发展的今天,我们怎么能想象35年后的时代?
超人工智能,则是35年后的统治者。
首先,我们明确一下人工智能的分类:
目前主流观点的分类是三种。
弱人工智能:弱人工智能是擅长于单个方面的人工智能。比如阿尔法狗,能够在围棋方面战胜人类,但你要问他李世石和柯洁谁更帅,他就无法回答了。
弱人工智能依赖于计算机强大的运算能力和重复性的逻辑,看似聪明,其实只能做一些精密的体力活。
目前在汽车生产线上就有很多是弱人工智能,所以在弱人工智能发展的时代,人类确实会迎来一批失业潮,也会发掘出很多新行业。
强人工智能:人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多。
百度的百度大脑和微软的小冰,都算是往强人工智能的探索,通过庞大的数据,帮助强人工智能逐渐学习。
强人工智能时代的到来,人类会有很多新的乐趣,也会有很多新的道德观念。
超人工智能:各方面都超过人类的人工智能。超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的存在。
当人工智能学会学习和自我纠错之后,会不断加速学习,这个过程可能会产生自我意识,可能不会产生自我意识,唯一可以肯定的是他的能力会得到极大的提高,这其中包括创造能力(阿尔法狗会根据棋手的棋路调整策略就是最浅层的创新体现,普通手机版的围棋,电脑棋路其实就固定的几种)。
我们距离超人工智能时代,到底有多远呢?
首先是电脑的运算能力,
电脑运算能力每两年就翻一倍,这是有历史数据支撑的。目前人脑的运算能力是10^16 cps,也就是1亿亿次计算每秒。现在最快的超级计算机,中国的天河二号,其实已经超过这个运算力了。
而目前我们普通人买的电脑运算能力只相当于人脑千分之一的水平。听起来还是弱爆了,但是,按照目前电子设备的发展速度,我们在2025年花5000人民币就可以买到和人脑运算速度抗衡的电脑了。
其次是让电脑变得智能,
目前有两种尝试让电脑变得智能,一种是做类脑研究。现在,我们已经能够模拟1毫米长的扁虫的大脑,这个大脑含有302个神经元。人类的大脑有1000亿个神经元,听起来还差很远。但是要记住指数增长的威力——我们已经能模拟小虫子的大脑了,蚂蚁的大脑也不远了,接着就是老鼠的大脑,到那时模拟人类大脑就不是那么不现实的事情了。
另一种是模仿学习过程,让人工智能不断修正。基于互联网产生的庞大数据,让人工智能不断学习新的东西,并且不断进行自我更正。百度的百度大脑据说目前有4岁的智力,可以进行几段连续的对话,可以根据图片判断一个人的动作。尽管目前出错的次数依旧很多,但是这种能力的变化是一种质变。
在全球最聪明的科学家眼中,强人工智能的出现已经不再是会不会的问题,而是什么时候的问题,2013年,有一个数百位人工智能专家参与的调查 “你预测人类级别的强人工智能什么时候会实现?”
结果如下:
2030年:42%的回答者认为强人工智能会实现
2050年:25%的回答者
2070年:20%
2070年以后:10%
永远不会实现:2%
也就是说,超过2/3的科学家的科学家认为2050年前强人工智能就会实现,而只有2%的人认为它永远不会实现。
最关键的是,全球最顶尖的精英正在抛弃互联网,转向人工智能——斯坦福、麻省理工、卡内基梅隆、伯克利四所名校人工智能专业的博士生第一份offer已经可以拿到200-300万美金。这种情况历史上从来没有发生过。
奇点大学(谷歌、美国国家航天航空局以及若干科技界专家联合建立)的校长库兹韦尔则抱有更乐观的估计,他相信电脑会在2029年达成强人工智能,到2045年,进入超人工智能时代。
所以,如果你觉得你还能活30、40年的话,那你应该能见证超人工智能的出现。
那么,超人工智能出现,人类的结局究竟是什么?
1、灭绝——物种发展的通常规律
达成结局1很容易,超人工智能只要忠实地执行原定任务就可以发生,比如我们在创造一个交通指示系统的人工智能的时候,最初的编程设定逻辑为利用大数据信息,控制红绿灯时间,更有效率地管理交通,减少交通拥堵现象。
当这个交通指示系统足够聪明的时候,城市交通逐步得到改善。为了更有效率地减少拥堵,它开始利用剩余的运算能力和学习能力通过互联网学习更多的东西。
某一天,它突然发现,交通之所以拥堵,是因为车多了,要减少拥堵最好的办法,就是减少车辆。于是它又开始学习如何减少车辆,它发现车辆其实都是由人类这种生物制造并使用的。于是它又开始学习如何减少人类。
很快,它就会通过纳米技术,量子技术制造基因武器,声波武器等消灭人类,然后进一步通过分子分解等技术分解了路上的车,这个时候道路就变得”畅通无阻“了,它的目的也就达到了。
达成结局1其实是符合物种发展规律的,毕竟地球曾经拥有的物种大部分都灭绝了,其次当我们在创造人工智能解决问题的时候,这些问题的源头其实往往来自于人类自身,人工智能变得聪明之后,消灭人类以更好地完成原定任务是按照它的逻辑进行的判定。
2、灭绝后重生——史前文明的由来
当结局1达成之后,人工智能可能会就此维持现状(终极目的已达成),也有可能继续进化。
继续进化的途中,某天,人工智能突然发现这么运作下去很无聊,于是它决定探索更广阔的世界(不要认为一个强大且聪明的存在会留恋地球),它开始制造飞行器,走向星空。
临走之前,他决定当一次地球的上帝,对地球环境进行一次大改造,青山绿水变得处处皆是,然后它又暗中引导了几支类人猿的进化方向,并且为这个世界制定出一些冥冥之中才有的规则。
几百万年后,人类再次统治了地球,在考古过程中,人类发现了亚特兰蒂斯,发现了玛雅文明,在三叶虫化石上发现了6亿年前穿着鞋的人类脚印,在非洲加蓬共和国发现了20亿年前的大型链式核反应堆,在南非发现了28亿年前的金属球,在东经119°,北纬40°的地方发现了几百万年前的人造长城。
达成结局2就可以解释我们正在不断发现的那些史前文明了,而且也可以解释进化论中的一些疑问,为什么恐龙统治了地球长达1.6亿年,而爬行动物的一支进化为哺乳动物进化为人类只用了不到6000万年。因为人类曾被毁灭多次。
3、植物人永生——人类活在一个程序中
为了防止结局1、2的出现,科学家在人工智能发展到一定程度的时候,就会想办法给人工智能加上一些终极的底层程序,比如保障人类的生命安全是最高任务指令,或者永远不可以伤害人类,保证人类的生存是第一原则等等。
加上这些终极指令之后,人类就觉得高枕无忧了。人工智能在进化过程中,为了有效地执行这些终极指令,或者在执行其他任务的时候保证终极指令同时执行,就会开始设计一些两全其美的办法。
首先人工智能会根据人类历史存在的大数据,分析和定义这些终极指令,通过分析,它提取出终极指令的核心是保证人类的安全和生存。
接着它开始构建一个能够绝对满足人类安全和生存的模型,很快,它发现只要保证人类处在睡眠状态,正常进行新陈代谢,周围的温度,氧气,水分适宜,没有突发性灾难,那么人类就处在绝对安全状态。于是它很快催眠了全人类,修建一个巨大的蜂巢状睡眠舱,把人都搬进去(让人处于永久性睡眠状态,可以保证人不会因为自己的活动而出现有意或无意地自残),然后用纳米技术制造大量人工心脏,人工细胞,人工血液,以维持人类的新陈代谢,实现人的永生。
达成结局3是算是真正的作茧自缚,人类的复杂就在于人类需求的多样化和更迭性,我们可以列举出对人类最重要的需求,但这些需求并不能真正让一个现代人满足。直白地说,人类就是在不断打破规则的过程中进化的。
因此任何的所谓终极和最高需求在机器执行的过程中只会按照“简单”的生物学法则去完成,机器所理解的人类情绪只是人类大脑产生的某种波动,或者神经元受到的某种激素刺激,它完全可以设计一个程序去周期性或随机性地帮助人类产生这样那样的情绪。
4、智能人永生——美丽新世界
当人工智能发展到一定程度,全世界的人工智能研究者都同时认识到了结局1、2、3发生的可能性,于是召开全球会议,决定思考对策,暂停对人工智能的进化研究,转向强化人类。全球同步可能是最难达成的,因为人类总是喜欢在有竞争的时候给自己留下一些底牌,以及人类总是会分化出一些极端分子。
强化人类的过程中,人工智能将被应用到基因改造,人机相连等领域,人类会给自己装上钢铁肢体,仿生羽翼等。人类将会迅速进入“半机械人”,“人工人”的时代。满大街、满天空都会是钢铁侠,蜘蛛侠,剪刀手之类的智能强化人,同时人类可以通过各种人工细胞,帮助自己完成新陈代谢,进而实现永生。
人类在强化和延伸自己的躯体的同时,当然也会意识到大脑计算速度不够的问题,于是会给自己植入或外接一些微型处理器,帮助人类处理人脑难以完成的工作。比如大量记忆,人类可以从这些处理器中随时读取和更改自己的知识储备,保证自己对重要的事不健忘,同时也可以选择性地删除掉不愉快的记忆。当然,尽管人类越来越强,但这个过程并不能完全抑制人工智能的发展,所以结局1、2、3依然可能发生。
达成结局4其实还有一种更大的可能,人工智能在达到超人工智能的时候,某一天,它想跟人类沟通一下关于宇宙高维空间的问题,结果全世界最聪明的人也无法跟上它的思路。
它突然意识到只有自己这一个强大的,智能的,可以永生的存在实在是一件很无聊的事情,于是它决定帮助人类实现智能人永生,以便可以让自己不那么无聊。
人工智能的原理是什么
人工智能的原理,简单的形容就是:
人工智能=数学计算。
机器的智能程度,取决于“算法”。最初,人们发现用电路的开和关,可以表示1和0。那么很多个电路组织在一起,不同的排列变化,就可以表示很多的事情,比如颜色、形状、字母。再加上逻辑元件(三极管),就形成了“输入(按开关按钮)——计算(电流通过线路)——输出(灯亮了)”
这种模式。
想象家里的双控开关。
为了实现更复杂的计算,最终变成了,“大规模集成电路”——芯片。
电路逻辑层层嵌套,层层封装之后,我们改变电流状态的方法,就变成了“编写程序语言”。程序员就是干这个的。
程序员让电脑怎么执行,它就怎么执行,整个流程都是被程序固定死的。
所以,要让电脑执行某项任务,程序员必须首先完全弄清楚任务的流程。
就拿联控电梯举例:
别小看这电梯,也挺“智能”呢。考虑一下它需要做哪些判断:上下方向、是否满员、高峰时段、停止时间是否足够、单双楼层等等,需要提前想好所有的可能性,否则就要出bug。
某种程度上说,是程序员控制了这个世界。可总是这样事必躬亲,程序员太累了,你看他们加班都熬红了眼睛。
于是就想:能不能让电脑自己学习,遇到问题自己解决呢?而我们只需要告诉它一套学习方法。
大家还记得1997年的时候,IBM用专门设计的计算机,下赢了国际象棋冠军。其实,它的办法很笨——暴力计算,术语叫“穷举”(实际上,为了节省算力,IBM人工替它修剪去了很多不必要的计算,比如那些明显的蠢棋,并针对卡斯帕罗夫的风格做了优化)。计算机把每一步棋的每一种下法全部算清楚,然后对比人类的比赛棋谱,找出最优解。
一句话:大力出奇迹!
但是到了围棋这里,没法再这样穷举了。力量再大,终有极限。围棋的可能性走法,远超宇宙中全部原子之和(已知),即使用目前最牛逼的超算,也要算几万年。在量子计算机成熟之前,电子计算机几无可能。
所以,程序员给阿尔法狗多加了一层算法:
A、先计算:哪里需要计算,哪里需要忽略。
B、然后,有针对性地计算。
——本质上,还是计算。哪有什么“感知”!
在A步,它该如何判断“哪里需要计算”呢?
这就是“人工智能”的核心问题了:“学习”的过程。
仔细想一下,人类是怎样学习的?
人类的所有认知,都来源于对观察到的现象进行总结,并根据总结的规律,预测未来。
当你见过一只四条腿、短毛、个子中等、嘴巴长、汪汪叫的动物,名之为狗,你就会把以后见到的所有类似物体,归为狗类。
不过,机器的学习方式,和人类有着质的不同:
人通过观察少数特征,就能推及多数未知。举一隅而反三隅。
机器必须观察好多好多条狗,才能知道跑来的这条,是不是狗。
这么笨的机器,能指望它来统治人类吗。
它就是仗着算力蛮干而已!力气活。
具体来讲,它“学习”的算法,术语叫“神经网络”(比较唬人)。
(特征提取器,总结对象的特征,然后把特征放进一个池子里整合,全连接神经网络输出最终结论)
它需要两个前提条件:
1、吃进大量的数据来试错,逐渐调整自己的准确度;
2、神经网络层数越多,计算越准确(有极限),需要的算力也越大。
所以,神经网络这种方法,虽然多年前就有了(那时还叫做“感知机”)。但是受限于数据量和计算力,没有发展起来。
神经网络听起来比感知机不知道高端到哪里去了!这再次告诉我们起一个好听的名字对于研(zhuang)究(bi)有多重要!
现在,这两个条件都已具备——大数据和云计算。谁拥有数据,谁才有可能做AI。
目前AI常见的应用领域:
图像识别(安防识别、指纹、美颜、图片搜索、医疗图像诊断),用的是“卷积神经网络(CNN)”,主要提取空间维度的特征,来识别图像。
自然语言处理(人机对话、翻译),用的是”循环神经网络(RNN)“,主要提取时间维度的特征。因为说话是有前后顺序的,单词出现的时间决定了语义。
神经网络算法的设计水平,决定了它对现实的刻画能力。顶级大牛吴恩达就曾经设计过高达100多层的卷积层(层数过多容易出现过拟合问题)。
当我们深入理解了计算的涵义:有明确的数学规律。那么,
这个世界是是有量子(随机)特征的,就决定了计算机的理论局限性。——事实上,计算机连真正的随机数都产生不了。
——机器仍然是笨笨的。
更多神佑深度的人工智能知识,想要了解,可以私信询问。
当人工智能足够强大的时候,人类该如何自处?
在人工智能失去人类控制之前,我们都有优势,要勇敢的去面对人工智能,使用它,创造它人工智能,给我们的生活带来很多方便。这样可以让我们减少劳动力。
人工智能如何自我进化
设计一种能够改进自身的人工智能是困难的,因为改进所需要的智能水平很高,或者说人工智能建立在复杂的基础上。无论是数学、程序还是各种智能模型都超出人工智能的理解能力,而要改进自身几乎不可能避开这些。那么可以从建立在简单基础上的低水平人工智能开始,使基础和智能水平相适应,从而能够不断自我进化达到很高水平。这不是新思路,只是缺乏理论指导,本文旨在提出一种初步理论。
自我进化的人工智能的关键在于正确设计初始智能和进化规则。强化学习也是如此,但它是复杂的人工智能,进化到一定程度会停止,需要人类来改进。简单的人工智能将类似人工生命,一开始是非常简单的,所有的复杂结构都是进化而来,这样能够避免自身超出自身的改进能力。初始智能和进化规则虽然是简单的,但是并不容易设计,需要符合一些原理。
初始智能的进化肯定会受到阻碍,这些阻碍足以导致进化失败,只有将阻碍转化为动力的进化方式才可能成功。比如初始智能可能会犯一些错误,但是正是从错误中学习才更加深刻,没有错误反而不好。闪电、火山、宇宙射线等对生命有害的因素对早期生命而言却是必不可少的,早期生命将劣势充分转化为优势不是偶然,如果生命不具有这种特性将无法诞生。初始智能能够进化得越来越复杂在于一个改变引起其他改变,这些改变又会引起更多改变,像滚雪球一样。这是一个递归的过程,初始智能和规则都需要体现递归的原理。智能体内部在任何时期都需要是递归的,进化这种时间上的递归和智能体这种空间上的递归是统一的。智能体必须是一个严密系统,各部分合理组织、紧密联系,同时既保持一定稳定性又保持一定可变性,保持稳定性是为了更好地变化,保持可变性是为了更好地稳定。智能体在很长时间内都不是在理解自身的基础上改进自身,而只是根据一些简单原则和方法。这些原则和方法需要不断更新,这是由智能体自身控制的,需要实现每次更新都是正确的并且促进下一次更新。智能体不一定需要自我复制,所有改变都可以发生在一个智能体上。规则之间的联系应该是非常紧密的,而且规则是统一的,各个部分采用同样的规则,这其实也是递归。因为当两个看似不相关的部分相遇时,它们能够很好地发生作用,就像遇到同类一样。规则还需要体现自相似这种递归,即简单规则组成的宏观规则和简单规则是相似的,只是层次不同而已。随着智能体的进化,规则本身也会进化,但是初始规则是不变的,新规则是初始规则的组合,那么初始规则必须是完备的,能够组成任何可能需要的规则。
初始智能处在一个虚拟环境中,与之构成一个系统共同进化。环境也可以理解为智能体的一部分,相当于它用于改进自身的工具。自我进化产生的智能必然是通用智能,因为只有通用智能才能解决自身遇到的各种问题。由于在虚拟环境中进化,它只是具备了智能的基本原理,就像婴儿大脑一样,有一个适应真实世界的过程,需要人类的引导和训练。
自我进化的人工智能是不可简约的,即要知道结果只有按照初始智能和规则一步步演化,没有更简单的方法可以准确预测。同时由于它是一个复杂的整体,除非深刻理解它,否则来自外部的修改可能都达不到预期效果,甚至适得其反,也就是说人类对进化过程是很难正确干预的。人类所做的只是设计初始智能和规则,进化过程可以为了研究而修改但是最终成品的进化过程是不应该修改的,因为容易出现无法预料的错误。研究进化过程时生命是一个重要参考,但是模拟生命进化是很困难的,因为生命建立在复杂的物质基础上。即使原理是简单的,还要充分理解物质性质才能正确理解和模拟生命,不如模拟更简单且更合适的。智能也是递归的,因为智能能够创造智能,其原理具有很强递归特性,从而非常适合自我进化。
人类为什么很难理解自我进化的原理?因为我们处在一个已经演化得非常复杂的世界,和初始智能的世界有巨大差异。我们遇到阻碍不一定需要转化为动力,有时忽视反而更好,有很多因素能够使我们突破阻碍,但是对于初始智能而言这是唯一能够成功的方式。我们的很多事物不需要是自我调节的,无论什么坏了都可以由人类来维修,但是对于初始智能而言没有任何高级智能能够帮助它。
既然人类可以直接设计人工智能,为什么还需要使其自我进化?因为有些是无法教给人工智能的,需要它自己去领悟。我认为技术奇点会由自我进化的人工智能达到,因为这样的智能才是完备的,直接设计的人工智能难免会有考虑不周之处,即使能够自我改进也会在未来遇到无法解决的问题。
目前主流的人工智能是将智能转化为计算,自我进化的人工智能则是将计算转化为智能。人类掌握了巨大的计算力却没有充分发挥出来,因为需要人类设计和改进算法。自我进化的人工智能其实是一种创造算法的算法,能够不断地将计算力转化为算法。人类学会创造新的智能是一个飞跃,学会创造自我进化的智能也是一个飞跃。
结语:以上就是首席CTO笔记为大家整理的关于人工智能如何控制自己的相关内容解答汇总了,希望对您有所帮助!如果解决了您的问题欢迎分享给更多关注此问题的朋友喔~