机房360首页
当前位置:首页 » 技术前沿 » 人工智能、机器人与道德风险

人工智能、机器人与道德风险

来源:机房360 作者:Harris编译 更新时间:2022/5/7 7:26:39

摘要:人工智能是一个充满活力的技术领域,为工业机器人和机器人流程自动化(RPA)领域的新兴应用提供动力。与之前出现的变革性技术一样,人工智能带来的道德伦理问题正受到越来越严格的审查,从而催生了限制其应用范围的法规和政策。那么,采用人工智能有哪些风险?以及正在采取哪些措施来促进人工智能的道德应用?

人工智能是一个充满活力的技术领域,为工业机器人和机器人流程自动化(RPA)领域的新兴应用提供动力。与之前出现的变革性技术一样,人工智能带来的道德伦理问题正受到越来越严格的审查,从而催生了限制其应用范围的法规和政策。那么,采用人工智能有哪些风险?以及正在采取哪些措施来促进人工智能的道德应用?
  
  人工智能与机器人的交叉点
  
  人工智能到底是什么?它在机器人技术中扮演什么角色?随着时间的推移,利用能够学习和推理的计算、模式识别系统的概念已经扩展到机器学习、自然语言处理和数据科学等更广泛的领域。在工业机器人技术中,人工智能通常用于感知和感知物理机器运行的环境,以便安全地自动化操作(例如汽车装配线上的机械臂)。工业机器人往往局限于重复运动,不需要持续学习,通常不会被视为威胁。
  
  但人工智能远不止是工业机器中的传感器和执行器;它也是开发强大的建模软件、决策支持软件、预测分析软件和其他能够产生可疑的自主输出的智能应用软件背后的力量。因此,与机器人不同,人工智能应用程序接收大量数据,需要实时解释和分析以实现持续学习,因此更容易受到风险的影响。
  
  道德风险和其他风险是什么?
  
  考虑到人工智能技术的范围仍处于定义过程中,并且其运行环境可能有些模糊,因此以合乎道德的方式实现人工智能的好处可能是一个相当大的挑战。无论如何,围绕人工智能潜在问题方面的辩论仍在持续,目前集中在一些关键问题上:
  
  •隐私和安全——人工智能基于数据运行,由于所有数据收集和存储现在都已经实现数字化和网络化,网络安全漏洞可能对个人和组织构成威胁。
  
  •不透明度/透明度——数据如何处理以及如何使用?人工智能系统识别的模式可能无法真正代表分析决策输出。选择了哪些数据以及如何确定其质量?需要在系统中建立透明度、社区参与和“算法问责制”,以确保对人工智能衍生的输出符合道德标准、公平和无偏见的信心。
  
  •偏差——偏差可以通过多种方式影响算法,无论是使用与当前问题无关的有缺陷的数据或数据集(统计偏差),无意识地将正面或负面品质归因于被分析的对象(无意识偏差),或者以确认个人先入为主的观念的方式解释信息(确认偏差)。
  
  解决道德问题
  
  与人工智能之前的其他颠覆性技术一样,制定的法规正在迎头赶上,因为它与这个令人难以置信的增长和机遇领域相关。在检测和消除人工智能系统中的偏见方面,有大量的技术和应用还处于早期阶段。此外,技术修复也有其局限性,因为它们需要发展一个难以实现的数学公平概念。
  
  尽管实际制定的政策很少,但已经有了一些显著的开端。美国数据创新中心(CenterforDataInnovation)在发布的2019年欧盟政策文件提出,“值得信赖的人工智能”应该是合法、道德和技术稳健的,并阐明了实现这些目标的要求:人为监督、技术稳健、隐私和安全数据治理、透明度、公平性、福利和问责制。目前,2021年4月,欧盟框架已被写入法规,导致拟议的立法被《纽约时报》称为一项首创的政策,概述了政府和企业如何使用被视为最重要的技术之一。
  
  评估人工智能应用程序的框架
  
  人工智能可以为成功利用其力量的企业带来巨大利益,但如果在没有道德保障的情况下实施,也可能损害企业的声誉和未来业绩。然而,与其他新引入的技术(如蓝牙)不同,制定标准或起草法律并不容易。这是因为人工智能涵盖了一个广泛的、无定形的领域——从战场机器人到用于审查合同的自动化法律助理,无所不包。事实上,几乎所有与机器学习和数据科学相关的东西现在都被认为是人工智能的一种形式,这使得人工智能在制定行业标准方面相形见绌。
  
  展望未来,一个确保道德实施的拟议框架正在成为焦点。该框架围绕四个关键支柱构建:可信度、透明度、公平性、隐私性。
  
  •可信度——首先,能够证明人工智能应用程序的可信度是需要确认的基本问题。人们需要知道,他们使用的人工智能应用程序来自可靠的来源,并且是在负责任和可信的监督下开发的。
  
  •透明度——对人工智能的使用方式保持透明度,并在特定用例场景中解释其好处,这将显著有助于减少担忧和扩大采用。
  
  •公平性——开发人员需要证明人工智能是以公平、公正的方式部署的。由于人工智能在其基本状态下缺乏应用判断的能力,而主要关注于模式识别,因此需要对算法进行微调以消除偏见。还应引入流程,以避免人类因自身经历而带来的偏见。
  
  •隐私性——开发人员考虑使用人工智能可能影响嵌入在正在处理的数据中的任何个人可识别信息(PII)是至关重要的。虽然人工智能处理确实消除了一些隐私问题,因为它绕过了人类与敏感数据的交互,但也引发了其他问题,如信息的使用范围、存储位置以及谁可以访问信息。
  
  结论
  
  人工智能将会继续存在,行业参与者需要积极思考,并寻找方法将他们的应用程序嵌入到前面提到的框架中。一种可能性是使用同行评审系统来帮助建立信任并提高透明度。在这里,人工智能开发人员将在类似于以前的开源环境的人工智能社区中提交他们的用例供审查。
  
  虽然开源最初遭遇了挫折,但最终有所好转。起初,免费提供源代码的想法让全世界科技公司的首席财务官感到恐惧。随着时间的推移,社区监控、更新和提供评论的开源软件的发布所带来的透明度提高了巨大的效率,并带来了更重大的发展。如今没有一家软件公司不利用开源代码。
  
  另一种提高人工智能应用清晰度的方法是建立一个临时组织,并将他们的项目和应用程序提交给中央人工智能注册表。与通常由控制议程的大型组织主导的正式标准机构不同,注册管理机构将是一个自我报告机构,用于收集反馈、建议和确认。最终,确保人工智能应用程序以合乎道德的方式部署的最佳方法可能是从一开始就将道德嵌入计算机科学课程中。
  
  编辑:Harris

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/202257/n1872145615.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
转载声明:凡注明来源的文章其内容和图片均为网上转载,非商业用途,如有侵权请告知,会删除。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片