机房360首页
当前位置:首页 » 技术前沿 » 保护避免有害的人工智能带来的未来风险?

保护避免有害的人工智能带来的未来风险?

来源:机房360 作者:Harris编译 更新时间:2023/12/13 6:47:21

摘要:人工智能包括多个学科:自然语言处理、自动推理、机器学习、深度学习、神经网络、认知计算、高级分析和数据挖掘等。以下将探讨当今人工智能的现状,并强调了保护大型语言模型的必要性,以防止人工智能不受制约的发展带来的风险。

   人工智能包括多个学科:自然语言处理、自动推理、机器学习、深度学习、神经网络、认知计算、高级分析和数据挖掘等。以下将探讨当今人工智能的现状,并强调了保护大型语言模型的必要性,以防止人工智能不受制约的发展带来的风险。
  
  更严格地说,人工智能涉及研究和创造能够智能行为的计算机系统,即能够执行或模仿与人类心灵直观相关的认知功能,包括从环境中学习、适应、解释、推断和解决问题的能力。
  
  机器学习和深度学习是什么?它们有什么不同?
  
  机器学习被认为是人工智能的一个子领域,本质上是指数字系统的开发,这些系统可以通过经验随着时间的推移提高它们在给定任务上的表现。这些系统利用一组方法来推导复杂的模型和算法,这些模型和算法可以根据收集的数据理解、分析和预测未来的结果,而无需明确地进行编程。机器学习的最终目标是创建自动学习的算法,无需任何人为干预或帮助。
  
  深度学习是广泛的机器学习家族中一个快速发展的领域,在数据集越来越大、目标函数非常复杂的应用程序中越来越多地被采用。这种方法使用分层层次的人工神经网络,使机器学习算法能够通过耦合和分层的过程执行特征提取和转换。它侧重于数据表示和优化,允许使用一些共生假设来解释数据信息。
  
  深度学习和传统机器学习算法的主要区别在于,后者通常在数据上处理特定功能,而不建立层次结构或依赖关系,而深度学习算法是基于通过多层表示或层次结构进行相关和互联的数据处理,这增加了它们的复杂性,使它们比传统ML算法更加抽象。
  
  如今,深度学习技术在许多不同的领域都有应用,因为它们基本上可以应用于任何大数据分析应用。其中最常见的是自然语言处理、语音识别、医疗诊断和网络安全。
  
  大型语言模型是使用大量自然语言数据(通常超过10亿个参数)的深度学习类型。大型语言模型可以快速理解并生成对文本查询的响应。迄今为止最流行的大型语言模型ChatGPT在2022年11月才出现,由OpenAI构建并公开发布。这些聊天机器人席卷了整个世界。
  
  最新的ChatGPT模型GPT-4有超过1750亿个参数。它的功能让很多人感到惊讶,并且从那以后它在消费者和企业领域都广受欢迎,催生了大量的模仿者和快速发展的竞争替代品:JasperAI,谷歌的Bard,微软的Bing,以及DeepMind的Sparrow,甚至还有由ChatGPT模型本身驱动的替代品(ChatSonic,YouChat)。
  
  大型语言模型快速进化的危险
  
  基于大型语言模型的聊天机器人的快速发展带来了关于人工智能危险的讨论。每当人工智能取得一些重大进展时,这些讨论就会周期性地出现,尽管当今的受众比以前广泛得多。在某种程度上,这是由于ChatGPT的闪电般的发展,甚至让它自己的开发人员都感到惊讶;然而,这主要是因为它对很多人来说都是即时可用的。虽然人工智能在很大程度上是一种有点遥不可及的概念技术,但当今的开源特性使任何人都可以直接与技术进行交互,而无需支付任何费用或专业设备。这使得通过ChatGPT的人工智能在许多人的脑海中成为一个具体的现实,而不是一个抽象的、空灵的结构。
  
  就像人类智能一样,人工智能具有双重用途,既可以用于有益的目的,也可以用于有害的目的。目前,人们对人工智能的关注主要有三个方面。
  
  (1)人工智能会对人类构成威胁吗?
  
  第一种观点认为,随着人工智能变得有知觉,它将对人类构成威胁。在过去的十年里,许多行业领先的技术和科学人士对此进行了广泛的辩论。在很大程度上,这种观点是可以理解的。将非人类的有知觉的生命视为对人类的威胁,这是人类的自然反应;因为人类就是这样进化到有感知能力的。希望自己的行为能反映在其他有情众生身上,尤其是那些以自己的形象创造出来的人。因此,这不是一个毫无根据的担忧,但它仍然假设人工智能实际上可以变得有知觉,这目前将人工智能社区分为两派。
  
  (2)人工智能会被用来造成伤害吗?
  
  除了这些未来主义的争论之外,第二个担忧与现在的人工智能应用更为直接相关。这侧重于创建可用于有害目的的模型:恶意(用于犯罪)或在政府使用的背景下使用。最终,人工智能的有害使用将取决于开发者的核心价值观(社会、政治、道德、哲学、经济等)。对于人工智能的有害使用,不同的开发者会有不同的主观态度(例如,在公共场所使用面部识别技术,侵犯隐私或国家安全的必要性)。
  
  聊天机器人的使用可以教育、提供信息和帮助,但它们也可以用来传播宣传或虚假信息。随着人工智能变得更高效、更实惠、更容易获得,以及硬件、处理能力和数据存储等配套产品也变得更便宜、更容易获得,越来越多的用户利用人工智能进行犯罪的能力将会增加。
  
  (3)人工智能的漏洞可以被操纵吗?
  
  第三个问题直接关系到当今模型中存在的漏洞,这些漏洞可以通过对抗性操纵来利用。这些漏洞中的大多数还没有得到解决。长期以来,研究界一直表明,包括神经网络在内的机器学习模型容易受到对抗性操作的影响,而对抗性的例子也很多。但迄今为止,从商业角度来看,在确保这些模型安全方面做得很少。
  
  训练算法有一个基本的盲点,可以通过这种对抗性操作暴露出来。最常见的例子是对图像分类模型的扰动,其中训练数据的微小变化(人眼无法区分)可能导致模型对图像进行错误分类。这些对抗性输入在模型之间转移;不同的模型经常对相同的对抗性示例进行错误分类,从而使威胁向量相乘。这就给部署新型人工智能系统带来了一个问题,这些系统可能会在无意中暴露给利用这些固有漏洞的攻击者。
  
  目前设计的大多数机器学习系统,除了网络安全行业中存在于对抗性环境中的系统外,都没有考虑对抗性操作。在很大程度上,这是由于它们针对固定环境的设计,其中训练和测试数据都假定是从相同的分布生成的。因此,大多数模型设计者没有考虑到自适应对手,他们的目标是通过操纵输入数据来利用模型。如今,随着大型语言模型的出现,这种看法正在彻底改变。
  
  值得信赖的人工智能时代
  
  虽然学术界关注对抗性操纵问题已经有一段时间了,但只有随着大型语言模型的兴起,这项研究才得以更成功地商业化。很多开发商专注于人工智能安全的各个方面:模型安全、大型语言模型的使用和开发值得信赖的人工智能。而其他公司专注于利用完全同态加密(FHE)来保证隐私和机密性。事实上,更广泛的机密计算领域正在将注意力转向如何为机器学习算法提供机密性,并提供多方计算和可信执行环境作为候选对象。虽然许多技术在保护机器学习算法方面已经很好地发挥了作用,但复杂性呈指数级增长,因此,应用这些相同的技术来保护深度学习算法(例如大型语言模型)存在困难。
  
  显然,关于确保人工智能安全的讨论是复杂的,所有的担忧最终都需要得到解决。在对抗性操纵和有害使用的问题上,从技术角度和监管角度来看,实际上已经可以做很多事情。通过为开发负责任和道德的人工智能模型奠定基础,有可能将未来可能对人类构成生存威胁的有害人工智能的风险降至最低。
  
  编辑:Harris

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/20231213/n2371155073.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
转载声明:凡注明来源的文章其内容和图片均为网上转载,非商业用途,如有侵权请告知,会删除。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片