导读:今天首席CTO笔记来给各位分享关于我怎么认错人工智能了的相关内容,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!
人工智能98%都认错,图像识别AI遇上对抗性图像竟变“瞎子”
在视觉方面,AI和人类的差距有多大?来自UC Berkeley等高校的研究人员创建了一个包含7500个“自然对抗实例”的数据集,在测试了许多机器视觉系统后,发现AI的准确率下降了90%!在某些情况下,软件只能识别2%-3%的图像。这样的AI若用在自动驾驶 汽车 上,后果不敢想象!
近几年来,计算机视觉有了很大的改善,但仍然有可能犯严重的错误。犯错如此之多,以至于有一个研究领域致力于研究AI经常误认的图片,称为“ 对抗性图像 ”。可以把它们看作计算机的光学错觉,当你看到树上有一只猫时,人工智能看到了一只松鼠。
研究这些图像是很有必要的。当我们把机器视觉系统放在AI安全摄像头和自动驾驶 汽车 等新技术的核心位置时,我们相信计算机和我们看到的世界是一样的。而对抗性图像证明并非如此。
对抗性图像利用机器学习系统中的弱点
但是,尽管这个领域的很多关注点都集中在那些专门设计用来愚弄AI的图片上(比如谷歌的算法把3D打印的乌龟误认为是一把枪),但这些迷惑性图像也会自然的出现。这类图像更令人担忧,因为它表明,即便不是我们特意制作的,视觉系统也会犯错。
为了证明这一点,来自加州大学伯克利分校、华盛顿大学和芝加哥大学的一组研究人员创建了一个包含7500个“自然对抗实例”(natural adversarial examples)的数据集,他们在这些数据上测试了许多机器视觉系统,发现它们的 准确率下降了90%,在某些情况下,软件只能识别2%-3%的图像。
下面就是一些“自然对抗实例”数据集的例子:
数据有望帮助培养更强大的视觉系统
在论文中,研究人员称这些数据有望帮助培养更强大的视觉系统。他们解释说,这些图像利用了“深层缺陷”,这些缺陷源于该软件“过度依赖颜色,纹理和背景线索”来识别它所看到的东西。
例如,在下面的图像中,AI错误地将左侧的图片当作钉子,这可能是因为图片的木纹背景。在右边的图像中,它们只注意到蜂鸟饲养器,但却错过了没有真正的蜂鸟存在的事实。
下面的四张蜻蜓照片,AI在颜色和纹理上进行分析后,从左到右依次会识别为臭鼬、香蕉、海狮和手套。我们从每张图片中都可以看出AI为什么会犯错误。
AI系统会犯这些错误并不是新闻了。多年来,研究人员一直警告说,利用深度学习创建的视觉系统是“浅薄”和“脆弱”的,它们不会像人一样灵活地理解世界上的一些几乎相同的细微差别。
这些AI系统在成千上万的示例图像上进行了训练,但我们通常不知道图片中的哪些确切元素是AI用于做出判断的。
一些研究表明,考虑到整体形状和内容,算法不是从整体上看图像,而是专注于特定的纹理和细节。本次数据集中给出的结果似乎支持这种解释,例如,在明亮的表面上显示清晰阴影的图片,会被错误地标识为日晷。
AI视觉系统真的没救了?
但这是否意味着这些机器视觉系统没得救了?完全不是。一般这些系统所犯的错误都是小错,比如将排水盖识别为沙井,将货车误认为豪华轿车等。
虽然研究人员说这些“自然对抗性的例子”会骗过各种各样的视觉系统,但这并不意味着可以骗过所有系统。许多机器视觉系统非常专业,比如用于识别医学扫描图像中的疾病的那些专门系统。虽然这些系统有着自己的缺点,可能无法理解这个世界和人类,但这并不影响它们发现并诊断癌症。
机器视觉系统有时可能会很快且有瑕疵,但通常都会产生结果。这样的研究暴露了机器成像研究中的盲点和空白,我们下一步的任务就是如何填补这些盲点了。
歧视中国人的东京大学“准教授”道歉,“教授”为何会甩锅给人工智能?
东京大学大泽副教授,曾公开歧视中文并在海外社交媒体Twitter上发布,“不雇用中文”和“将筛选中文简历”,于12月1日发布推文。然而,尽管这是道歉,但他说他的言论是“基于有限数据(例如人工智能)的结果”。这种对人工智能的倾销使很多网友表示歉意。
许多日本网民对小泽以前的歧视性评论给予了强烈评价。关于他的道歉,许多日本网民仍然觉得自己不够真诚。他们说:“以人工智能为理由是一个怪异的借口”,“我真的没有受过教育,这样的人怎么能在最高的学校出生”。
今年11月,一个以日本东京大学特聘副教授的名字自称“大泽大泽”的人在社交媒体上发推文说,他“不雇用中国人”,并且“将屏蔽中国人” “走下坡路”和其他涉及歧视的言论在网上引起了极大的争议。但是,面对网友的批评,大泽小平不仅没有道歉,而且在随后的推文中进行了报复。他声称,“在资本主义的背景下,歧视程度低的工人应该是对的”,“使用无能的人会增加绩效恶化的风险”,“不懂日语的'低等国民'非常挑衅”。
一些网民从013010第14条中移出:“所有公民在法律面前一律平等。在政治,经济和社会关系中,他们不得因种族,信仰,性别,社会认同和门阶而异”,以及何时提出为了使外国人在主流法学中也得到宪法的保证,大泽以少量“大量汉字,认真阅读”解雇了另一方。网友在下面的评论中讽刺地说:“如果看到自己的缺点,就装傻,真羡慕!”
由于事件的严重影响,东京大学的“信息学和跨学科情报研究所”于11月24日在其官方网站上发表了一份声明。该声明指出,所涉教师为“短期雇用的教师”,其言论“这是老师及其兼职组织的行为,与学校无关。”他说,学校对他的言论表示“非常抱歉和深切抱歉”。为此,东大大学还于当月28日成立了专门的调查委员会。
2月1日,大泽大泽(Osawa Osawa)再次在同一个帐户上发帖,说:“我为他的言行(对于所有人)造成的不便和不愉快深表歉意。”大泽雅鲁(Masaru Osawa)对中国人发表了歧视性评论。他写道:“对于他过多的言行造成的不便和不愉快,我深表歉意。”他还辩称,“一系列推文中提到的对特定国籍人士能力的判断是基于有限的数据,例如人工智能”,并指出“今后,我们将保持谨慎,避免使用推文歧视(语音)。”
你觉得计算机会算错吗?你见到过人工智能犯错吗?
计算机和人工智能当然有可能犯错,而且一旦犯错,往往会导致巨大的危险。
假如一辆自动驾驶的汽车,把迎面而来的白色卡车认错成一朵白色的云,那么后果不堪设想。要避免这样的悲剧发生,人工智能领域的研究人员必须非常对于日常中最常见的意外有深度的认识,这样的话,机器才可以变得更加聪明。这也正是谷歌在做的事——同时研究人脑和神经网络。到现在为止,神经网络的意义在于人眼不会认错的地方,机器也不会认错。
自从20年前深蓝(Deep Blue)在国际象棋中击败卡斯帕罗夫(Garry Kasparov),该事件就被人们誉为机器智能最权威的证明。谷歌的AlphaGo已经在围棋比赛中以四胜一负赢得了韩国棋手李世石,更表明了这些年来人工智能的迅猛进步。机器终会比人类更聪明的预言即将到来,但我们似乎并没有真正理解这个具有划时代意义的事件的影响。 事实上,我们执着于对人工智能的一些严重的、甚至是危险的误解。
很难知道该相信什么。但借助于计算科学家,神经科学家,和人工智能理论家的创举,我们可以逐渐了解关于人工智能更清晰的图景。下面是关于人工智能最常见的误解和虚传。
一、人工智能由于其极高智能,将不会犯任何错误。
Surfing Samurai机器人人工智能研究者和开发者,Richard Loosemore认为大多数假设的人工智能将毁灭世界的情景都非常不符合逻辑。大多数类似的假设总是认为人工智能将会说:“我知道毁灭人类文明是由于设计引起的故障,但无论如何我还是很想去做。”Loosemore指出如果人工智能在打算毁灭人类时,其思路是如此自相矛盾的话,它将在其一生中面临无数自相矛盾的逻辑推理,也因此会干扰了其认知从而变得非常愚蠢,而同时根本不足以对我们造成伤害。他同时也断言,那些认为“人工智能只会做程序设定的任务”的人,将会像在电脑刚刚发明时那些说电脑将永远不会具备应变能力的谬论的人一样。
二、我们永远不会创造出类似人类智慧的人工智能
我们已经在一些游戏领域,如象棋与围棋、股市交易和谈话等创造出可以与人类智慧匹敌、甚至超过人类的计算机。 而背后驱动的计算机和算法只会越来越好;因此,计算机赶超其他人类活动,将只是个时间问题。
当怀疑论者说这是一个无法解决的技术问题,或是生物大脑有一些内在的独特之处时,是不能令人信服的。我们的大脑是生物机器,但归根到底它们仍然是机器;他们在现实世界中存在,按照物理学的基本规律运行。没有什么是不可知的。
三、人工智能将有自觉意识
关于机器智能的一个共同的假设是,它是自觉的有意识的,也就是说,它会像人类一样思考。我们完全可以想象一个非常聪明的机器,缺乏一个或多个这种属性。最后,我们可以建立一个非常聪明的,但没有自我意识的,不能主观或有意识地体验世界的人工智能。
只是因为一台机器通过图灵测试从而证实计算机和人类在智能上无区别,并不意味着它是有意识的。对我们来说,先进的人工智能可能会导致机器看起来是意识的假象,但是在自我自觉方面,它并不比一块岩石或计算器更能感知自我意识。
四、我们不应该害怕人工智能。
一个高度智慧的系统也许能了解完成一个特定任务所需要的所有知识,例如解决一个让人头痛的财务问题,或者侵入一个敌人的系统。但除开这些它所专长的特定的领域外,它很可能非常无知和愚昧。
五、一个简单的修补程序将解决人工智能的控制问题。
假设我们创造出强于人类的人工智能,我们将要面对一个严重的“控制问题”。未来主义者和人工智能理论家完全不知如何限制和制约一个ASI(超强人工智能),一旦它被创造出来,也不知道如何保证它将对人类友好。最近,佐治亚理工的研究人员天真地认为人工智能可以通过阅读简单的故事和社会习俗来学习人类价值观。而问题很可能会远远比这复杂。
所以,理论上,如果不停挑战AI所不擅长的复杂选点棋局,是有可能发现AI的问题,引起过拟合现象的。就像前面提到的,李世石对战AI第四盘棋中的“神之一手”。不是因为这一手够正确,而是因为这一手够怪。
简单来说,你只要不停走AI没见过的棋局变化,是有可能引起AI出“bug”的。哪怕是在现在很成熟的AI系统上,过拟合的风险。以人脸识别为例,只需要你在脑门上张贴类似于人脸其他器官纹理的贴纸,就能轻易让AI错乱。
AI确实征服了很多难题,但现在的AI也绝非完美。需要我们去了解其原理,并将其优势为我所用。就像现在的围棋棋手们,未选择用“怪棋”挑战AI的极限,而选择了和AI共同进步学习那样。这才是我们和AI的相处之道。
我们该如何看待人工智能?
人工智能的定义可以分为两部分,即“人工”和“智能”。“人工”比较好理解,争议性也不大。有时我们会要考虑什么是人力所能及制造的,或者人自身的智能程度有没有高到可以创造人工智能的地步,等等。但总的来说,“人工系统”就是通常意义下的人工系统。
人工智能无疑为我们的生产生活提供了极大的便利,但也让人们开始担心人工智能是否会对人类产生威胁。
人工智能的发展的确会在一定程度上对人类社会构成威胁,比如说人工智能取代人类的一部分工作会导致失业率升高甚至掀起大规模的失业浪潮,还会导致大批企业倒闭。MIT、斯坦福、OpenAI等机构在去年12月份发布了人工智能指数报告。
报告认为人们对AI能力的预估是“盲目的”:人工智能领域的研发和投资都异常火热,尽管AI在执行某些特定任务方面已经超越了人类,但它在一般智力方面仍然非常有限。我们并不能忽视AI带来巨大的影响,尤其是对工作的威胁:6%的职业最具重复性,有完全自动化的危险,对于剩下的部分,只有部分工作可以由机器完成。
人工智能最为危险之处在于其未知性与不可控性。2017年4月27日,霍金在北京举办的全球移动互联网大会上通过视频发表了关于人工智能的演讲。在演讲中,霍金强调“人工智能崛起要么是人类最好的事情,要么就是最糟糕的事情”。在此之前,霍金已经多次表示“彻底开发人工智能可能导致人类灭亡”。“创造一个可以等同或超越人类的智能的人工智能的结果是:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人工智能对人类社会带来的影响是好是坏我们并不能确认,但是应该竭尽所能让其可控,保证其朝着有利方向发展。”
人工智能在目前的应用中还是利大于弊的,对于一些重复而枯燥的工作来说,人工智能极大地提高了生产效率。比如对财务从业人员而言,人工智能可能够操作财务流程中高度重复的工作,降低人力时间的耗费,还可以获取较高的数据准确率,根据既定的业务逻辑进行数据处理和判断,降低跨岗位的沟通成本等,所以机器人在操作方面具有人类不可比拟的优势。又比如,物流机器人,它们具有自主学习能力,通过每天的运行,可以不断进行不同场景的训练,从而拥有越来越强的自主判断能力。在各个物流场景,AI机器人可以来回穿梭,互不影响,相互协作,无论环境如何变化,机器人们都能通过自己的智慧来从容应对。这些例子都表明了AI给人们的生产生活提供了极大的便利。
人工智能的发展具有无限的可能性,它可能会完全颠覆我们的想象。我们如何控制人工智能,让它的利大于弊,是我们当下应该思索的问题。
我对人工智能的看法
我觉得人工智能是现代人和电脑会同样交流的平台(技术)。它把计算机逻辑和人家知识放在一块了,这种集合产生了很多的好处。比如说之前的代人只有计算机语言给计算机解释过人们的各种各样的问题,然后计算机用一些计算帮人们解决过那些问题。那到现在呢我们可以用我们语言和计算机交流,那计算机呢用我们语言会回答我们。人工智能的应用方面很宽无论是商场还是医院都可以按自己的范围使用。
机器视觉:指纹识别,人脸识别,视网膜识别,虹膜识别,掌纹识别,专家系统,智能搜索,定理证明,博弈,自动程序设计,还有航天应用等。
人工智能就其本质而言,是对人的思维的信息过程的模拟。
对于人的思维模拟可以从两条道路进行,一是结构模拟,仿照人脑的结构机制,制造出“类人脑”的机器;二是功能模拟,暂时撇开人脑的内部结构,而从其功能过程进行模拟。现代电子计算机的产生便是对人脑思维功能的模拟,是对人脑思维的信息过程的模拟。
人工智能不是人的智能,更不会超过人的智能。
“机器思维”同人类思维的本质区别:
1.人工智能纯系无意识的机械的物理的过程,人类智能主要是生理和心理的过程。
2.人工智能没有社会性。
3.人工智能没有人类的意识所特有的能动的创造能力。
4.两者总是人脑的思维在前,电脑的功能在后。
结语:以上就是首席CTO笔记为大家介绍的关于我怎么认错人工智能了的全部内容了,希望对大家有所帮助,如果你还想了解更多这方面的信息,记得收藏关注本站。