机房360首页
当前位置:首页 » 技术前沿 » 人工智能需要“可解释”,但这可能吗?

人工智能需要“可解释”,但这可能吗?

来源:机房360 作者:Harris编译 更新时间:2018/12/25 7:15:56

摘要:亚马逊公司的人工智能部门在10月初发布消息后透露,该公司已经取消了一个招聘引擎,因为它涉及“性别歧视”。然而,现实更复杂。

    亚马逊公司的人工智能部门在10月初发布消息后透露,该公司已经取消了一个招聘引擎,因为它涉及“性别歧视”。然而,现实更复杂。
  
  自2014年以来,亚马逊公司一直在尝试自动筛选每个内部职位空缺收到的大量简历。根据路透社的一份报告,在2015年,该公司意识到它一直使用的人工智能并非“性别中立”。那是因为它使用了在10年内提交给亚马逊的简历进行过培训,而且由于这些简历是由男性主导的,因此其决策有偏差。
  
  这提醒人们,人工智能与其训练的数据一样好。如果该数据有偏差,那么人工智能将反映它。这不是一个新的论点,并不是机器学习的具体内容,任何类型的大数据自动化都存在着陷入不公平的风险,数据科学家CathO'Neil博士在2017年出版的“数学毁灭武器”中探讨了这一点,最近,由政治学家VirginiaEubanks于9月出版的《自动化不平等》(AutomatingInequality)一书中探讨了这个问题。。
  
  人工智能添加了一个新的维度,那就是指在整个过程中学习并随着时间的推移而改进。因此,如果数据包含某种偏差,那么这些偏差将随着时间的推移而放大。即使是运行系统的人也可能看不到它们。
  
  人们很容易发现人工智能有利于男性而不是女性。应该有可能发现基于种族的歧视。但是,由于他们的名字,或者他们成长地的邮政编码,或者他们在申请中使用的特定动词,很难说有人因为面试而被拒绝。当偏差自动化且难以发现时,它们会造成很大的伤害。
  
  这开始让人担心。IBM公司于9月发布的商业价值研究院的一项研究询问了5000名高管,他们是否担心人工智能如何使用数据并做出决策。大约60%的受访者表示他们在2016年的研究中占29%。他们的担忧正在违反监管和合规标准。
  
  与此同时,在普华永道公司2017年全球CEO调查中,三分之二的商业领袖表示他们认为人工智能和自动化将在未来五年内对利益相关者对其行业的信任产生负面影响。
  
  假设一名患者就其癌症治疗计划起诉医院,医院表示正在遵循人工智能提出的计划?也许人工智能在每种情况下都选择了最好的计划,除了这个。是否有可能解决其决定网络,以确定它在这种情况下如何提供糟糕的建议?对这个故事的宣传会对其他医院和医学领域的自动化有信心吗?
  
  这样的例子在当今不太可能发生——即使使用人工智能进行癌症治疗的医院也用它来辅助医生的决定,而不是代替他们,但是“归咎于人工智能”会成为一种常见的防御策略并非难以想象。IBM和谷歌等厂商正在通过在其产品中添加“可解释性工具”来做出回应。
  
  商业领袖有充分理由要求可解释性,但供应商是否真的可以提供解释性?风险资本家RudinaSeseri今年早些时候表示:
  
  “某些当前方法(最明显的深度学习)的部分优势在于,模型识别(某些)比人们可以定义的更好的相关变量,因此其性能更好的部分原因与由于系统识别出人类尚未识别或明确表达的变量和关系,因此非常复杂,难以解释。如果可以的话,我们会对其进行编程并称之为软件。”
  
  换句话说,根据定义,真正的机器学习几乎是无法解释的。她补充说,引人注目的公司要揭示专有人工智能系统是如何运作的,这有效地使他们的竞争对手可以复制它们:“这就是为什么通常情况下,推动这些要求有利于在市场上拥有大量预算和支配地位的现有企业,并且会扼杀初创生态系统的创新。“
  
  人工智能估计代表了15万亿美元的经济机会。但这并不完美。人们必须希望整个系统的人员(供应商、业务客户和消费者)能够有适当的激励来质疑人工智能流程和审查决策。
  
  编辑:Harris
  

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/20181225/n5693114435.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片