首页>>人工智能->人工智能如何远离偏见(2023年最新解答)

人工智能如何远离偏见(2023年最新解答)

时间:2023-12-16 本站 点击:0

导读:本篇文章首席CTO笔记来给大家介绍有关人工智能如何远离偏见的相关内容,希望对大家有所帮助,一起来看看吧。

无偏见人工智能是什么

01

首先机器人的产生,是一堆废铁所堆砌起来,只会机械的按照指令进行工作,这也是无偏见的最初形态。

02

后来,科学家们想,能不能让机器人有人的思维--自主思考,于是乎,人工智能所诞生,最初的人工智能其实和机器人一样,思维能力并不强,也就无偏见,按照指令来工作。

03

后面随着科技进步,人工智能得到了大力发展,也越来越接近人类的思维,前段时间的阿尔法狗称霸围棋界便是一个很好的例子。这时候人工智能出现了偏见,也就是像人一样有了偏见,其主要的偏见便是种族和性别偏见,这也是人类的最主要偏见。

04

其实总结而已,无偏见人工智能属于最初的产品,其技术还不太成熟,所以按照指令,无独立思考能力的智能机器人。

如何避免人工智能对基本权利的影响

避免人工智能对基本权利的影响:

1、从隐私到安全

IT领导者需要让用户知道正在收集什么数据,并获得用户的同意。除此之外,关于数据集的适当培训和实施对于防止数据泄露和潜在的安全漏洞至关重要。

测试人工智能系统以确保它实现目标,而不会产生意想不到的影响,例如允许黑客使用虚假的生物识别数据访问敏感信息。实施人工智能系统的监督,可以使企业在必要时停止或撤销它的行动。

2、从不透明到透明

当企业的人工智能/机器学习工具对其用户做出了重要的决定时,需要确保他们得到通知,并能得到关于为什么做出这个决定的完整解释。

企业的人工智能团队还应该能够追踪导致每个决策的关键因素,并在这一过程中诊断出任何错误。内部面向员工的文档和外部面向客户的文档应该解释人工智能系统是如何以及为什么这样运作的。

3、从偏见到公平

仔细查看历史数据,评估是否引入了任何潜在的偏见或减轻了偏见。一个经常被忽视的因素是企业的开发团队的多样性,而更加多样化的团队通常会引入更公平的过程和结果。

为了避免意外的伤害,企业需要确保来自人工智能/机器学习开发、产品、审计和治理团队的所有涉众完全理解指导企业的人工智能项目的高级原则、价值和控制计划。获得独立的评估,以确认所有项目都符合这些原则和价值观。

人工智能与隐私保护之间的关系

人工智能应用与隐私保护并非不可兼得。尽管人工智能应用在一定程度上存在隐私泄露的风险,但这并不意味着它与隐私保护之间是绝对对立的关系。

一方面,人工智能应用决不能以隐私泄露为代价。隐私权不容侵犯,它既是公民的基本权利,也是社会文明进步的显著标志。有效保护隐私有利于人们维护人格尊严、保持心情舒畅,有利于促进人的全面发展。

人工智能技术无论如何发展、发展到什么程度,归根结底都是为了辅助人、服务人,为使用者提供便利,而不能成为肆意损害人格权利、恶意泄露个人隐私的工具。这是人工智能应用必须坚守的底线,否则人工智能技术就会失去价值,也难以走远。

另一方面,不能因为存在隐私泄露的伦理风险,就延缓甚至放弃人工智能应用。

我们既要有效防范伦理风险,又要加快人工智能技术发展。事实上,人工智能应用与个人隐私保护之间并不是非此即彼的关系,完全可以通过多种手段从伦理层面对人工智能应用加以正确引导,将隐私泄露的风险降至最低。

作为一种新兴技术,人工智能本身并无善恶、对错之分,关键在于使用者能否在符合伦理规范的前提下对其进行正当应用。隐私泄露现象是人工智能应用不当导致的,从深层看则大多是利益驱动的结果。所以,不能将隐私泄露简单归为技术层面的问题,也不能简单归咎于人工智能。

机器人没有人性的弱点?

人具有情感所以会被情感左右。人性的丑恶、人性的虚伪、等等天生的弱点,决定了人不会是公正无私的。但机器人是没有情感的,它会是公正无私的吗?

回答是否定的。前段时间,网上流传的“人工智能具有种族歧视”的报道[1]就说明了这个问题。据说,机器人人脸识别时只认得白人,而不认得黑人。甚至对于白人名字感觉“喜悦”,而对于黑人名字却表示出“不悦”。

现在人工智能还远远没能达到人脑的智能水平,所以还不知道情感是怎么回事。就算有一天,人工智能真的能够达到人脑的智能水平,也未必能拥有或者未必能够理解体会情感。因为,人的喜、怒、哀、乐只是表象,其本质乃是人性(虚荣、自私、贪婪、放纵、嫉妒、愤怒、自卑、忧虑、懒惰、盲目、等等)的体现。

人喜欢被赞赏,那是因为虚荣在内部作祟。人在失去面子之后往往会恼羞成怒。人的大脑在简单的喜怒哀乐背后有着深刻的运行机制。这些机制到现在我们也知之甚少。

所以,更谈不上让人工智能去模仿人类的这些行为。所谓情感计算,也只不过是这些表象的简单识别或者说区分而已。

人工智能没有情感就会公正无私了吗?当然不是。人工智能说到底,是按照人的思维运作的机器。它的程序是人写的,或者说给它的指令是人发出的,那么它的灵魂就带有人的色彩。人总会潜移默化地把自己最底层的思想移植给机器,或者说人在潜意识中会教给机器一些人性的好恶。人有“偏见”,于是机器人也有。这就是为什么“人工智能具有种族歧视”。

人工智能的“偏见”还来源于数据的不对称。人工智能是依靠数据的训练形成模型的,当采集的数据存在偏差时,用这种数据所训练的人工智能系统也会存在相应偏差,其产生的模型或者结果不肯避免的会复制并放大这种偏差。所以,认为人工智能系统的应用有助于克服人类主观偏见带来的一系列问题并不是完全正确的。

参考文献:

[1]人工智能竟然也会种族歧视,2017-03-22读研网。

结语:以上就是首席CTO笔记为大家整理的关于人工智能如何远离偏见的相关内容解答汇总了,希望对您有所帮助!如果解决了您的问题欢迎分享给更多关注此问题的朋友喔~


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/37032.html