标识

醒来 日常  我们最新的业务报道更好地完成,直接在您的收件箱中。

 标识

拿你的 每周  崛起企业活动家分析的剂量分析。

选择时事通讯

通过注册即表示您同意我们的 隐私政策 。你可以选择任何时候退出。

蒂娜凯西爆头

国防部问题人工智能原则:现在很难

蒂娜凯西 的单词
人工智能

科技巨头一直在举行隐私权与美国国防部利用人工智能之间的紧张关系,特别是关于该部门的臭名昭着的项目Maven成像倡议。该问题也溢出到员工关系和品牌声誉的领域。

该部门终于上个月为AI发出了一套伦理原则,但如果新的指导方针为科技公司,员工及其客户提供保证,则仍有待观察。

国防部和人工智能

国防部发布了新的道德指南 上个月,在国防专业出版物之外的媒体上没有很多通知。

在过去两年中,考虑到围绕科技巨头,艾,国防部和隐私权,有点令人惊讶。

媒体沉默的一个原因可能是AI的道德原则,在某种程度上,DoD现在的担忧最少。 去年,兰德公司对国防部的目前的人工智能国出现了绝对分析的分析,发现了 一系列关键缺点.

该报告的作者没有迷你单词。总之,他们写道,国防部使用数据和AI培训是“脆弱的,手工和...优化商业而不是国防部使用。” 他们还发现,验证和测试程序是“无处可靠地确保AI应用的性能和安全性”,“国防部在AI中的姿势在所有尺寸方面受到严重挑战”。

作者指出,该作者在深度,系统性断层列表中的长期列表中,该机构的新建联合人工智能中心(JAIC)缺乏能见度和当局来开展目前的作用。“

“它还缺乏一个五年的战略路线图,以及一个精确的目标,允许它制定一个,”作者结束了。

系统问题的道德解决方案

在这方面,国防部的新阐述道德原则只是在一个更深刻的问题上。

尽管如此,他们确实建立了至少一个最小的订单和可预测性,这与企业社会责任原则相当一致。新原则也依靠长期导牌,包括宪法,战争法和各种国际条约。

国防部将该系列划分为五个地区的12个新准则。三个涉及国防部雇员对人工智能系统的个人责任,就行使适当的判断,最大限度地减少了意外偏见,并专注于有关数据收集,方法和来源的问责制和透明度。

第四个焦点区域提交Dod仅部署具有专门测试和在整个生命周期内进行测试和保证的功能的AI系统。 该部门还致力于防止旨在防止机器运行AMOK的防止安全系统。

“该部门将设计和工程师AI功能来满足其预期职能,”摘要状态“,同时拥有检测和避免意外后果的能力,以及脱离或停用部署系统的能力,展示了展示了意外行为的能力。”

谁在转向AI船?

这是一个很好的开端,但是裸体骨骼指南可能不足以让苹果这样的技术硬件公司保证,这需要安抚消费者 个人设备保护他们的隐私.

进入这个问题的更深入揭示了谨慎的谨慎原因。 指导方针是通过的 国防创新董事会 (DIB)去年一系列公开会议和聆听会议。 

在巴拉克奥巴马政府期间推出的16人Dib作为与学术界和企业家联系的手段。它由Eric Sc​​hmidt主席谷歌和字母表,其公司(他目前是Alphabet的技术顾问)发现自己与唐纳德特朗普管理局相结合 人权问题 。谷歌的无线服务副总裁也代表了董事会的公司。 

张力似乎表示DIB是政治中性的。但是,关于至少还有一个其他公司成员的潜在冲突,微软。

去年,微软击败了亚马逊为国防部的大规模 吉迪云计算合同。亚马逊没有DIB座位,考虑到正在进行的情况并不奇怪 总统特朗普和亚马逊首席执行官杰夫贝斯之间的费卢.

另一个考虑的因素是新形成的 美国AI倡议,在执行命令下推出去年。新倡议是一个“促进和保护国家AI技术和创新”的一致努力,即“删除AI创新障碍”等行动项目和“培训AI Ready劳动力”。 

与这种热情,对AI的激进追求相比,国防创新局推荐的道德原则看起来像茶叶相当较弱。

在这方面,有趣的是要注意一个人 促进美国AI倡议的工具 是特朗普政府的迈克尔·克拉西奥斯 首席技术官.

Kratsios是几个管理层的关系 领先的政府承包商佩兰蒂尔是一家已成为的公司 臭名昭著 利用其机器学习和AI技术 强制执行美国移民政策.

外带:科技公司可能是明智的,不要从DIB作为绿灯的道德保证,而是仔细考虑员工和消费者的担忧,然后在与国防部的人工智能合同上升。

图像信用: 国防部

蒂娜凯西爆头 蒂娜凯西

蒂娜经常为TriplePundit和其他网站写作,重点是军事,政府和企业可持续发展,清洁技术研究和新兴能源技术。她是纽约市环境保护部公共事务的前副主任,以及关于回收和其他保护主题的书籍和文章作者。她目前是新泽西州联盟县的公共信息副主任。这里表达的观点是她自己,不一定反映了机构政策。

阅读蒂娜凯西的更多故事

品牌采取的更多故事