机房360首页
当前位置:首页 » 技术前沿 » 避免落入AI虚假营销陷阱的9种方法

避免落入AI虚假营销陷阱的9种方法

来源:企业网D1Net 作者:Harris编辑 更新时间:2023/5/18 6:56:24

摘要:最近几个月,AI已经成为每个人最喜欢的流行语。随着AI的稳步发展,硅谷的初创公司和《财富》500强公司纷纷加入这场行业革命。但亢奋、进步和AIWashing等危险信号也在同等程度上发展。有些企业不顾一切地想要利用炒作赚钱,所以他们夸大了自己的AI能力,而事实上,他们使用的AI很少或根本不存在。

   最近几个月,AI已经成为每个人最喜欢的流行语。随着AI的稳步发展,硅谷的初创公司和《财富》500强公司纷纷加入这场行业革命。但亢奋、进步和AIWashing等危险信号也在同等程度上发展。有些企业不顾一切地想要利用炒作赚钱,所以他们夸大了自己的AI能力,而事实上,他们使用的AI很少或根本不存在。

  (*AIWashing:它是某些企业为了改善自己的产品形象,迎合大众口味,而进行的一种虚假营销手段。Gartner对外发布了一份“新兴技术炒作周期图”,显示某些软件公司正在利用人工智能这波热浪,夸大AI在其产品中的能力,不加区分地给自己的产品贴上人工智能的标签。“机器学习”“认知专家顾问”“软件定义安全”“自动驾驶汽车”“区域块”等概念正处于炒作顶峰。Gartner公司把这种现象叫做“AIwashing”。)

  与非AI初创公司相比,这种有问题的营销策略可以帮助他们获得更多的种子轮、A轮和B轮融资。根据GlobalData的数据,仅去年一年,AI初创公司就筹集了超过500亿美元的风险投资资金,考虑到ChatGPT的盛行,预计今年这一数字还会增长。

  考虑到大量资金涌入这些初创公司,AIwashing现象只会愈演愈烈。美国联邦贸易委员会(FTC)充分意识到了这种危险,并警告供应商在宣传其AI能力时要透明和诚实。

  FTC广告业务部门的律师MichaelAtleson在一篇博文中写道,“一些声称有AI技术的产品可能根本就没有广告宣传的那么有效。在某些情况下,这种缺乏功效的情况可能仍然存在,并将造成其他潜在危害。营销人员应该知道,关于产品功效的虚假或未经证实的声明是我们坚决打击的。”

  不过,在这种复杂的情况下,很难区分合法的AI解决方案和营销噱头。

  德勤全球人工智能研究所执行董事BeenaAmmanath表示,“面对供应商对其AI产品的宣传,企业需要保持基本的怀疑态度。就像任何事情一样,如果一件事听起来好得令人难以置信,那它很可能就是陷阱。”

  纽约大学CIODonaldWelch表示,如果CIO和他们的公司掉入这种虚假宣传的陷阱,那么他们可能会面临包括项目失败或延迟、经济损失、法律诉讼、声誉风险,甚至最终被解雇等后果。

  幸运的是,他们可以使用一些策略来避免错误。

  AI驱动的企业需要技能娴熟的员工

  审查这些声称使用AI技术的企业可能是一个漫长而耗时的过程。然而,一些简单的事情,比如在LinkedIn上搜索,就可以发现一些有价值的见解。

  Ammanath解释称,“审查供应商员工的AI经验和教育水平是个好主意。正在开发AI解决方案的公司应该具备这样的人才,这意味着他们在AI、机器学习、算法开发等方领域拥有丰富经验的数据科学家和数据工程师。”

  除了审查员工,CIO还可以寻找与外部AI专家和研究机构合作的证据。这一类别包括与大学的合作,参与行业会议和活动,以及对开源AI计划的贡献。如果供应商有类似项目或应用程序的经验,这也是一个好迹象,因为这表明它可以交付高质量的结果。

  美国初创公司MacPaw的首席技术和创新官ViraTkachenko补充道,“还可以仔细检查供应商的历史。如果一家公司是AI领域的专家,它很可能在这个领域或其他AI产品上发表过研究论文。”

  寻找一个精心设计的数据策略

  真正将AI集成到产品中的公司也需要一个深思熟虑的数据策略,因为AI算法需要它。他们需要处理高质量的数据,数据越丰富、越相关,结果就越好。

  Ammanath解释称,“AI系统是由大量数据驱动的,因此这些公司也应该有一个构建良好的数据策略,并能够解释收集了多少数据以及从哪些来源收集数据。”

  另一件值得关注的事情是,这些公司是否在遵守监管要求方面付出了足够的努力,并保持了较高的数据隐私和安全标准。随着《欧盟通用数据保护条例》和《加州消费者隐私法》等数据隐私法规的兴起,企业必须对其数据实践保持透明,并为个人提供对其个人数据的控制权。如果这种情况没有发生,那就应该是一个危险信号。

  请求证据来支持这些主张

  虽然流行语可能很诱人,但耐心地询问证据会有所帮助。Ammanath建议称,“提出正确的问题,并要求提供产品声明的证据,对于厘清营销和销售语言,以确定产品是否真的由AI驱动至关重要。”

  评估特定产品或服务的CIO可以询问模型是如何训练的,使用了什么算法,以及AI系统将如何适应新数据。

  Tkachenko补充道,“你应该询问供应商,他们使用什么库或人工智能模型。他们可能会把一切都建立在一个简单的OpenAIAPI调用上。”

  管理和技术咨询公司BearingPoint的合伙人和全球技术主管MatthiasRoeser对此表示赞同,并补充道,CIO还应该彻底理解组成部分和框架,评估应该包括“道德、偏见、可行性、知识产权和可持续性”等因素。

  这种调查可以帮助CIO更多地了解该产品的真实功能和局限性,从而帮助他们决定是否购买该产品。

  关注初创公司

  初创公司将自己定位在创新的前沿。然而,虽然他们中的许多确实在AI领域突破了可能的界限,但有些可能只是夸大了他们的能力,以获得关注和金钱。

  美国初创公司Claid.ai的联合创始人兼首席技术官VladPranskevičius表示,“作为一家机器学习公司的首席技术官,我经常遇到AIwashing的情况,尤其是在创业社区。而且,最近这种情况变得更加严重。这种现象在像目前这样的炒作周期中尤为危险,因为AI正被视为新的淘金热。”

  不过,Pranskevičius也认为,随着围绕AI的监管变得更加严格,AIwashing将在不久的将来得到控制。

  建立技术专业的声誉

  公司购买可疑的AI解决方案其实并不罕见,在这种情况下,并非都是CIO的错。相反地Welch认为,“这可能是公司领导力低下的一个症状。业务部门被营销炒作所迷惑,并越过了IT团队购买有问题的AI解决方案,最后IT团队来收拾残局。”

  为了防止这样的情况发生,企业需要培养一种协作文化,在这种文化中,技术专业人士的意见受到重视,他们的观点会被充分尊重。

  与此同时,CIO和技术团队应该在公司内部建立自己的声誉,这样他们的意见才更容易被纳入决策过程。要做到这一点,他们应该表现出专业知识、专业精神和软技能。

  西格玛软件集团的首席创新官MaxKovtun表示,“我认为,对CIO来说,检测AIwashing不是太大的问题。更大的问题可能是业务利益相关者或企业家推动以任何形式使用AI,因为他们希望看起来创新和前沿。”

  超越流行语

  在比较产品和服务时,必须以开放的心态来评估它们,彻底查看它们的属性。

  Tkachenko认为,“如果一个产品或服务对你来说唯一的优势就是AI,你应该在订阅之前仔细考虑一下。最好研究一下它的价值主张和特点,只有当你了解这个项目在AI之外的好处时,才能开始合作。”

  Welch对此表示赞同并补充道,“思考一下,你会因为一个系统是用C、c++或Java编写的而购买它吗?作为尽职调查的一部分,你可能还需要了解他们是否能够维护代码、公司的生存能力等等。”

  做一个彻底的评估可以帮助企业确定他们计划购买的产品或服务是否符合他们的目标,是否有可能提供预期的结果。

  Kovtun表示,“技术越复杂,非专业人士就越难以理解它,以至于无法验证该技术的应用是否正确、是否合理。如果你决定为你的公司利用AI技术,你最好聘请在AI领域有经验的知识渊博的专家。否则,你的努力可能不会为你带来期望的好处。”

  关注AI相关新闻

  了解与AI相关的产品及其相关问题的最新情况,也可以帮助CIO做出明智的决策。通过这种方式,他们可以发现自己可能犯的潜在错误,同时利用新的想法和技术。

  底特律市CIOArtThompson表示,“我认为目前公众对AI的了解程度还不够”。

  他建议CIO们进行充分的研究,以避免落入新技术或实验性技术的陷阱,这些技术所承诺的远远超过了它的实际能力。他表示,如果发生这种情况,重新投标和挑选更换产品的时间,真的会让员工无法跟上任何变化。更不用说人们投入时间学习新技术的困难了。

  此外,了解最新的AI相关事项可以帮助CIO预测监管变化和新兴行业标准,这可以帮助他们实现合规性并保持竞争优势。

  不仅仅是CIO需要与时俱进。BearingPoint的Roeser建议称,“教育你的团队或聘请专家,将相关能力添加到你的投资组合中。”

  围绕AI的额外监管行动

  即将出台的新法规可能会简化CIO们判断产品或服务是否采用了真正的AI技术的任务。白宫最近发布了一项AI权利法案,其中包括负责任地设计AI系统的指导方针。未来几年可能还会出台更多法规。

  Ammanath表示,“这些行动背后的前提是保护消费者权利和人类免受技术的潜在伤害。为了降低风险,我们需要预测技术的潜在负面影响。”

  道德不应该是事后考虑事项

  企业倾向于强调新技术的潜在好处,同时往往淡化潜在的负面后果。

  瑞士圣加仑大学博士后研究员PhilipDiSalvo表示,“当一项技术成为流行语时,我们往往会忽视它对社会可能产生的潜在有害影响。研究表明,企业正在推动围绕AI的讨论,而技术决定论的论点仍然占主导地位。”

  这种认为“技术是社会和文化变革背后的主要驱动力”的观点,可能会掩盖围绕道德和政治影响的讨论,而更倾向于以营销为导向的论点。正如DiSalvo所说,这造成了“一种争论的迷雾,使这些技术及其生产者更加模糊和不可问责。”

  为了解决这个问题,有一个关键的挑战是向公众传达人工智能实际上不是什么,它不能做什么。

  DiSalvo解释称,“我们今天看到的大多数AI应用——包括ChatGPT——基本上都是围绕大规模应用统计和数据分析构建的。这可能听起来像是一个无聊的定义,但它有助于避免对‘人工智能’定义中‘智能’所指的任何误解。我们需要关注现实问题,如偏见、社会分类和其他问题,而不是假设的、推测的长期情景。”

  编辑:Harris

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/2023518/n2359153320.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
转载声明:凡注明来源的文章其内容和图片均为网上转载,非商业用途,如有侵权请告知,会删除。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片