导读:很多朋友问到关于人工智能的根基是什么的相关问题,本文首席CTO笔记就来为大家做个详细解答,供大家参考,希望对大家有所帮助!一起来看看吧!
人工智能的本质是什么基础是什么它能感知环境会学习
当前的AI的核心的思想是深度网络和深度学习。
深度网络的核心理念是寻找物理系统的有效描述子的空间,即构建一个和目标系统匹配的网络使得目标系统可以被这个网络有效描述,有效在这里指的是所使用的参数是系统体积的多项式复杂度,即寻找一个足够紧致的有效描述子空间来描述系统。但是这个系统是参数化的,这个参数集合可以包括网络结构和网络参数,这些可能都是待定的。
深度学习的目的就是如何确定这些参数,寻找最佳的网络结构和网络参数来完成系统描述。现有的方法最通用的是数据训练,当然也可以融合其他手段,比如逻辑推理和领域迁移。
深度网络和深度学习系统成功的本质原因在于现实客观世界是低复杂度的,是有有效描述子的,寻找到其有效描述子就可以对系统进行全面的控制和理解。这个有效描述子不仅是数学的,更多是物理的,是现实可执行可计算的。深度网络可以理解为客观物理系统的发生和演变过程,是系统方程执行的轨迹而不仅仅是方程本身。
人工智能需要什么基础?
人工智能需要基础内容包括认知与神经科学、人工智能伦理、先进机器人学、人工智能平台与工具等方面的课程。
什么是人工智能,为什么要做人工智能?
第一是数据。因为人工智能的根基是训练,就如同人类如果要获取一定的技能,那必须经过不断地训练才能获得,而且有熟能生巧之说。AI也是如此,只有经过大量的训练,神经网络才能总结出规律,应用到新的样本上。如果现实中出现了训练集中从未有过的场景,则网络会基本处于瞎猜状态,正确率可想而知。比如需要识别勺子,但训练集中勺子总和碗一起出现,网络很可能学到的是碗的特征,如果新的图片只有碗,没有勺子,依然很可能被分类为勺子。因此,对于AI而言,大量的数据太重要了,而且需要覆盖各种可能的场景,这样才能得到一个表现良好的模型,看起来更智能。
第二是算力。有了数据之后,需要进行训练,不断地训练。AI中有一个术语叫epoch,意思是把训练集翻过来、调过去训练多少轮。只把训练集从头到尾训练一遍网络是学不好的,就像和小孩说一个道理,一遍肯定学不会,过目不忘那就是神童了,不过我至今还没见到过。当然,除了训练(train),AI实际需要运行在硬件上,也需要推理(inference),这些都需要算力的支撑。
第三是算法。其实大家现在算法谈得很多,也显得很高端,但其实某种程度上来说算法是获取成本最低的。现在有很多不错的paper,开源的网络代码,各种AutoML自动化手段,使得算法的门槛越来越低。另外提一点,算法这块其实是创业公司比较容易的切入点,数据很多人会觉得low,会认为就是打打标签而已,所以愿意做的不多;算力需要芯片支撑,是大公司争夺的主要阵地,留下的只有算法了。
人工智能发展的历史
人工智能发展历程
人工智能诞生于20世纪50年代中期,1956年被确立为一门学科,至今经历过经费枯竭的两个寒冬(1974-1980年、1987-1993年),也经历过两个大发展的春天(1956-1974年、1993-2005年)。从2006年开始,人工智能进入了加速发展的新阶段,并行计算能力、大数据和先进算法,使当前人工智能加速发展;同时,近年来人工智能的研究越来越受到产业界的重视,产业界对AI的投资和收购如火如荼。
全球的人工智能仍处于感知智能的发展阶段
按照人工智能的发展程度,行业一般将其分为计算智能、感知智能和认知智能三个层次。其中,计算智能阶段指机器能够像人类一样进行计算,诸如神经网络和遗传算法的出现,使得机器能够更高效、快速处理海量的数据;感知智能阶段指机器能听懂我们的语言、看懂世界万物,语音和视觉识别就属于这一范畴,这些技术能够更好的辅助人类高效完成任务;认知智能阶段指,在这一阶段,机器将能够主动思考并采取行动,实现全面辅助甚至替代人类工作。
目前,全球的人工智能仍处于感知智能的发展阶段。
——更多数据请参考前瞻产业研究院《中国人工智能行业市场前瞻与投资战略规划分析报告》。
结语:以上就是首席CTO笔记为大家介绍的关于人工智能的根基是什么的全部内容了,希望对大家有所帮助,如果你还想了解更多这方面的信息,记得收藏关注本站。