
订阅
人工智能(AI)的批评者已经发现了他们的公平份额,提出了对这项技术的担忧。面部识别系统,不识别较暗皮肤的面孔。招聘算法,绕过包含单词“女性”的恢复。一个ch.atbot通过与用户的互动教导为种族主义和厌恶女性。但这些例子不必定义未来。
AI.系统是 只有美好 随着数据投入到其中,包括隐含的种族,性别或意识形态偏见。随着越来越多的AI出现错误的例子,风险威胁到了黯然失色的潜在利益。随着每个新的例子,公众对AI的信任进一步侵蚀。
越来越多的公司正在注意 和 采取缓解风险的行动,在过程中,寻找提供解决方案的机会。
成为成为其中一个成员之后 负责任AI的伙伴关系, 科技巨头 IBM. 正在创建将使其客户端能够检测和减轻其AI应用程序中的偏差的方法。公司是 也通过了他们的知识 公平360开源工具包, 这有助于应用程序开发人员在整个AI应用程序生命周期中检查,报告和减轻机器学习模型中的歧视和偏置。该计划包括70多个公平度量和10个偏置缓解算法,与金融,人力资本管理,医疗保健和教育相关。它还包含三个 教程 检测和减轻信用评分,医学管理中的种族偏见和面部图像的性别偏见的年龄偏见。
微软 正在构建一个工具,可以在一系列不同的AI算法中识别偏差,并提高其员工的认识。
“现在最重要的是,现在最重要的事情是教育他们的劳动力,以便他们意识到偏见可以出现并表现出来的无数方式,并创建工具使模型更容易理解和偏见更容易被检测,”富豪大库一位微软研究员讲述了 麻省理工学院技术评论 last year.
谷歌 介绍了A. 谷歌 Crash课程:公平模块介绍 在构建,评估和部署机器学习模型时,教导开发人员关于最佳公平考虑因素。
拼图是谷歌父母公司字母表中的一个单元,最近宣布与Glaad合作,创建公共数据集和机器学习研究资源,以帮助使在线对话更加包含LGBTQ社区。
“我们的使命是帮助社区在规模上进行了很大的谈话,” CJ Adams说,杰明产品经理。 “我们不能满足于让计算机从滥用和骚扰目标群体中采用负面偏见。”
这不仅仅是在AI前面主动的技术公司。 Accenture 也是通过其新的船 应用智力实践,最近推出了“AI.公平工具。“该工具在模型中检测敏感变量(年龄,性别,种族等)对其他变量的数据影响,测量变量彼此的相关性,以查看它们是否倾斜模型及其结果。然后它有助于校正算法中的偏差。
埃森哲目前是用于测试该工具的伙伴,其迄今为止对信用风险的模型进行了原型设计,并且正在准备柔软的发布。该工具将成为一个调用的更大程序的一部分 AI. Launchpad.,这将有助于公司在道德中创建责任和培训员工的框架,因此他们知道要考虑的内容以及要问的问题。
“我希望这是我们可以为非科技公司提供可访问的和可用且易于使用的东西 - 我们希望扩大其使用AI的一些财富500强的客户,但他们非常清楚关注意外后果,“ Rumman Chowdhury说,埃森哲的全球负责任AI领先。
迈克尔李,创始人兼首席执行官 数据孵化器,数据科学培训和安置公司,告诉了 哈佛商业评论 他认为,“AI的风险可以来自业务的任何方面,而且没有单一经理有发现一切的背景。相反,在AI渗透着一切的世界中,公司需要培训他们所有的商业领导者对AI的潜力和风险,因此每一行业务都可以发现机会和旗帜问题。“
他呼吁企业为其员工提供专门的AI培训,以了解各种可能性和风险。 “这不是技术 - 高管不需要成为实践的从业者 - 但他们确实需要了解数据科学和AI足以管理AI产品和服务。商业领导者需要了解AI的潜力,以改善业务,以及其潜在的缺点和危险。“
图片信用:Gerd Altmann来自 Pixabay.
Maggie Kohn.很高兴成为三重Pundit的贡献者,以说明如何在支持长期增长的同时实现世界的积极变化。 Maggie在Biopharma Giant Merck工作了20多年&公司,Inc。,领先的企业责任和社会业务举措。当她不忙于为当地的动物收容所培养小猫时,她目前写了,发言,谈论企业责任和社会影响。点击 这里 to learn more.