世界先进制造技术论坛AMT—领先的高科技先进制造产业服务平台

发表于 2018-11-21 10:23:08 | 显示全部楼层 |阅读模式

各位是否还记得,两年前谷歌将黑人认成“大猩猩”这个乌龙事件?正因此次事件造成的不良影响,让Google意识到:与其担心AI伤人,更严重的是AI偏见问题。为了防止AI“胡来”,Google为其制定了七项“道德”准则。

事情的原委是这样的,2015年,一位名叫Jacky Alciné的黑人软件开发人员在推特上透露,Google Photos使用的图像分类器将一名黑人女性称为“大猩猩”(Gorillas),引起了轩然大波。事发后,谷歌为此深表歉意,并着手处理这一漏洞。

不仅如此,谷歌还提出AI技术的开发道德准则,并且成立了专门的机器学习道德部门,对公司的产品和服务进行分析测试,提出改进意见,尽可能避免AI偏见的产生。不光是Google,从IBM到Airbnb,每家公司都在努力确保自己的算法不会出现类似的偏差。

为此,今年6月,Google首席执行官Sundar Pichai发布了公司的七项人工智能原则,指导谷歌在这些方面的工作和研究,包括确保Google员工不会制造或加强不公平的AI偏见,并表示AI技术的开发和使用将在未来许多年内对社会产生重大影响:

对社会有益
  避免制造或增强不公平的偏见
  建造并测试其安全性
  对民众负责
  融入隐私设计原则
  坚持科学卓越的高标准
  为符合这些原则的用户提供

除了那次不愉快的“大猩猩”事件外,哈佛大学的研究员Latanya Sweeney表示:谷歌搜索中存在种族歧视,当搜索类似黑人名字时,会比搜索类似白人名字更有可能出现与“被逮捕”相关的广告。这些现象都是我们的部门成立的原因,不应该让我们的用户看到这些,我们需要首先阻止这些偏见的产生。

实际上,对于AI偏见这件事,一份来自皮尤研究中心近期公布的研究结果显示:目前美国有58%的成年人认为,人工智能的算法极其程序将会始终包含对人类的偏见,人工智能算出的结果不能保持中立的态度。从受调查者的年龄来看,50岁以上的受访者中,有63%的人认为算法不中立;18-29岁的受访者中,也有48%的人认为算法一定会存在偏见。

如此看来,大众对AI偏见这件事存有共识。显然,解决AI偏见光靠Google一家公司还远远不够,需要有更多的公司加入其中。


回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies

本版积分规则

主题 682 | 回复: 699

QQ|联系我们|法律声明|用户协议|AMT咨询|商务合作|会员入驻|积分充值|积分商城|积分奖励规则|TradEx全球购|加入QQ技术群|添加企业微信|加入微信技术群| 世界先进制造技术论坛™(简称AMT™, 制造知网™) ( 沪ICP备12020441号-3 )

GMT+8, 2024-11-18 16:41 , Processed in 0.030041 second(s), 34 queries , Redis On.

论坛声明: 世界先进制造技术论坛(制造知网) 属纯技术性非赢利性论坛,请勿发布非法言论、非法广告等信息,多谢合作。
本论坛言论纯属发表者个人意见且会员单独承担发表内容的法律责任,与本论坛立场无关;会员参与本论坛讨论必须遵守中华人民共和国法律法规,凡涉及政治言论、色情、毒品、违法枪支销售等信息一律删除,并将积极配合和协助有关执法机关的调查,请所有会员注意!
本论坛资源由会员在本论坛发布,版权属于原作者;论坛所有资源为会员个人学习使用,请勿涉及商业用途并请在下载后24小时删除;如有侵犯原作者的版权和知识产权,请来信告知,我们将立即做出处理和回复,谢谢合作!

合作联系: 双日QQ客服:3419347041    单日QQ客服:3500763653    电话021-37709287    合作问题投诉:QQ:2969954637    邮箱:info@amtbbs.org    微信公众号:AMTBBS

 

快速回复 返回顶部 返回列表