会员服务 登录 注册
×
资讯活动

如何平衡GenAI应用的速度与风险 避免过快或过慢的部署

发布时间:2024-10-11 来源:金属加工

跳上GenAI的潮流可能会带来反效果,但行动过慢也并非明智之举。找到最佳节奏需要考虑多个因素,首先要有适当的风险承受能力。

在AI领域,错失良机的恐惧是真实存在的。根据Coleman Parkes Research为Riverbed进行的调查,91%的大型公司决策者担心,如果竞争对手在AI上领先一步,他们将失去优势。因此,当被问及GenAI时,所有受访者都表示他们将在未来18个月内使用、测试或计划与之相关的项目。

根据S&P Global Market Intelligence于9月发布的调查,新技术的空前采用率使得GenAI在企业中已超越了其他所有AI应用。近四分之一(24%)的企业已经在全公司范围内集成了GenAI功能,37%则已投入生产,但尚未完全扩展。

“错失恐惧症是非常真实的,尤其当看起来每个企业都有某种AI战略时,”Forrester Research分析师Alla Valente说道,“但过快行动也有危险,包括负面公关、合规或网络安全风险、法律责任,甚至集体诉讼。”

即便GenAI的失败没有达到重大公众尴尬或诉讼的程度,它也可能降低企业的风险承受能力,使其在推出更多AI项目时犹豫不决。

“那些不敢冒险使用GenAI的企业,将无法快速增长或创新,长期来看会失败。甚至在中期,它们也会失去市场份额。”Valente表示。

这并不意味着GenAI应立即全面推行。

“企业确实需要考虑一个‘刚刚好’的策略,”她说,“对它们来说,‘刚刚好’意味着要考虑它们的风险承受能力、风险管理的成熟度,以及GenAI的治理框架。”

保持AI远离公众

企业在为面向公众的项目采用GenAI时,应格外谨慎。

自从ChatGPT于2022年末推出以来,许多公司因为过快部署AI而陷入困境。一家航空公司的聊天机器人给客户提供了不应有的折扣,法院裁定该公司负有责任。Google的AI建议用户在披萨上涂胶水,以防止奶酪滑落。最近,马斯克的Grok AI被发现散布选举虚假信息,迫使五位州务卿向母公司X发出公开信,要求修复聊天机器人。

这类行为让一些公司对公开使用GenAI变得谨慎。相反,它们将技术集中应用于内部运营,在这种环境中,即使出错也不会导致巨大的公关灾难,仍能产生有意义的影响。

例如,财富1000强科技咨询公司Connection正在内部使用GenAI进行一些项目,例如利用Fisent的流程自动化解决方案BizAI,将客户采购订单与销售记录进行对比,并建议是否应批准订单。

Connection 使用 Pega Platform 来根据业务规则和逻辑智能管理公司多个领域的工作流程。随着 BizAI 的加入,Connection 现在能够将关键业务流程数字化并进一步自动化。

“我们每年会从许多没有与我们电子集成的小型和中型企业收到大约 50000 到 60000 份不同的客户采购订单。”Connection 的流程优化与转型高级总监 Jason Burns 说道。

这些客户可能会通过电子邮件附加 PDF、电子表格、图像文件或其他类型的文档,或者直接将采购订单粘贴在电子邮件正文中。

“在使用 AI 之前,这些订单是人工审核的,人工将采购订单的硬拷贝与我们系统中的条目进行比对。”他说。大约有十几个人从事这项工作,订单到达后到有人开始审核并做出决定的平均处理时间长达四个小时,文件积压是常见问题,而现在,GenAI进行初步比较并给出建议,处理时间已经缩短到了两分钟。

例如,GenAI可以帮助确定订单是否是发给 Connection 的,有时客户会错误地将采购订单发给错误的供应商。GenAI还会检查地址是否匹配,这一点对于早期的 AI 类型来说较难实现。此外,GenAI还会将客户对产品的描述与 Connection 内部的 SKU 进行匹配。

“我们的客户不了解我们的内部 SKU,”Burns 解释道,“他们可能会以一种方式描述产品,而我们可能用另一种方式描述,AI 能够非常有效地将它们关联起来。”

他补充说,AI 设置得比人类更加保守。如果有任何不明确的地方,它会自动转交给人工审核。由于 AI 仅处理提供给它的信息而不生成新内容,因此发生“幻觉”的几率也被降到了最低,它只是给出一个简单的建议。

“到目前为止,我们还没有遇到过 AI 建议订单进入下一流程但被人工否决的情况。”Burns 说道。更常见的情况是 AI 停止了订单处理,转交给人工审核,而人工确认可以继续进行。“我们发现它的可靠性超出了我们的预期,现在甚至考虑让 AI 放宽标准,对文档的批判性要求稍微减少一些。”

接下来,Connection 计划在其他十几个类似的内部用例中部署生成式 AI,帮助进行代码生成、撰写信件和总结会议内容。“潜在的生产力提升是显著的,我们需要对此进行深入探索。”Burns 说道。

然而,考虑到额外的风险,Connection 目前还没有在面向客户的场景中使用生成式 AI。“在 AI 方面,风险容忍度是关键,”他说,“我们认识到其中蕴含的巨大潜力,但我们的首要任务是客户、他们的数据安全,以及提供卓越的成果。随着技术的演进,我们也将随之发展。”

保持人类参与

拥有约 50000 名员工的业务流程外包公司 TaskUs 也将GenAI限制在公司内部,该公司也专注于那些确保有人工介入以捕捉潜在问题的用例。

“我们不希望 AI 自行其是。”TaskUs 的 CIO Chandra Venkataramani 说道。

该公司构建了一个名为 TaskGPT 的内部平台,帮助员工为客户提供支持,效率已经提升了15%至35%。AI还开始用于内部自动化和其他提高生产力的用途。

以 Air Canada 为例:他们的聊天机器人承诺给客户折扣,但公司后来拒绝了,最终被迫兑现,这成为了一个警示案例,表明面向公众的AI存在多么大的风险,Venkataramani 说道。相比之下,这些工具是用于帮助员工提供建议和推荐的。

“这样,团队成员就可以控制AI的输出,”他说,“他们可以说,‘这听起来不对,我不会把它发给客户。’人工干预非常重要。”因此,他推动内部团队更多地使用AI,但仅用于提高效率。“我们鼓励客户采用AI,但不会不加限制地使用它,”他补充道,“如果我们能在完全安全的前提下提升20%的效率,或者在不安全的情况下提升30%或40%的效率,我们会选择20%的提升和安全性。安全和保障是我们的首要关切。”

事实上,许多AI问题可以通过人工监督来避免。“AI有时会‘幻觉’, ”Champlain College 在线运营副总裁 Christa Montagnino 说道,“AI的训练目的是取悦我们,但并不总是准确的。”该学院一直使用GenAI来帮助课程设计师和学科专家创建在线课程。过去,这个过程非常繁琐,教师们通常没有接受过教育设计的培训,必须与课程设计师配对合作。一个七周的课程通常需要约15周的时间来创建,但有了GenAI,时间减少了一半。

尽管如此,人工因素依然是流程中的关键部分。“我们现在从GenAI入手,然后让学科专家与课程设计师合作,”她说,“他们是这些信息的编辑者,负责筛选出对学生有意义的内容以及需要加入的其他资源。”

她补充道,使用AI还减少了一些日常的行政任务和负担,使教师能够有更多时间与学生互动。

然而,处理公司工伤的 Company Nurse 公司通过AI自动化其质量控制(QA)流程的经历却是一个教训,该公司使用AI为客户企业的员工提供医疗建议,护士们可以立即收到关于通话中所犯错误的反馈。

“我们以为,如果能给员工更多关于他们错误的反馈,他们就会犯更少的错误。”该公司首席技术官 Henry Svendblad 说道,但结果是护士们开始辞职,员工流失率从低于15%上升到30%以上,部分原因与疫情和大规模离职潮有关,但也有一部分是因为员工快速收到太多负面反馈。

“我们从员工那里听到的强烈反馈是,告诉他们每次互动中所犯的每一个错误,并没有带来积极的工作满意度,”他说,“我们遇到过这样的情况:新员工的设备还没送到,他们就已经不想要这份工作了。以前从未发生过这样的情况。”

为了解决这个问题,TaskUs 公司重新引入了人工干预,聘请了一位人力发展经理,开始关注护士们工作中的积极表现,而不仅仅是他们的不足。“我们也明显减少了对QA自动化的依赖。”他说。

避免敏感信息的使用

Champlain College 的 Montagnino 表示,该学院愿意使用GenAI来帮助开发课程内容或营销材料,因为这不涉及让AI接触到敏感信息。

但在涉及学生数据的项目时,情况就不同了,Montagnino 说道,所以这类项目将会推迟到后期进行。“我觉得我们现在最好的机会在于产品开发和吸引未来的学生。”她补充道。

最近从 LabCorp 分拆出来的临床试验公司 Fortrea 也非常谨慎地选择那些隐私风险最小的项目。“我们有巨大的机会将临床试验提升到新的水平,”CIO Alejandro Galindo 说道,“我们最近启动了一个机器学习和AI工作室——这是我们用来推动创新的一个领域。”

例如,Fortrea 正在为其技术栈部署微软的 Copilot 助理工具。“它开始像野火一样迅速传播,因为我们在公司内部取得了一些有趣的成果,”他说,“这是我们正在为公司引入的一层智能化的工具。”

该公司已经在收集请求提案信息的时间上减少了30%。“这给了我们极大的生产力提升,”他说,“而且产品的质量也比以前大大提高。”这是因为AI从多个孤立的数据源中提取信息,他解释道,然而,作为一家医疗保健机构,Fortrea 也必须对所部署的技术非常谨慎,以避免出现任何合规问题。

“我们必须在创新速度和合规性、安全性之间找到平衡,”他说,“我们是快速跟随者。”例如,临床试验的纸质工作非常繁重,他补充道。当临床研究员去现场时,会有大量的信息可以收集,但是公司在选择AI处理哪些信息时非常谨慎。

“我们需要隐私官的批准,确保我们正在开发的项目是符合规定的,”他说,“而我的首席安全官在我们选择什么技术时有非常强的发言权。”

例如,未来可能会部署一些可以扫描文档的技术,并使用过滤器确保不会意外泄露患者信息,但目前来说,涉及临床试验现场访问时,公司专注于处理一些非敏感类型的信息,例如使用的物理设备。

“我们可以拍摄冰箱的照片,扫描维护的时间和设定的温度,”他说,“我们想确保设施中的所有条件都符合要求。”

为基础工作留出时间

除了公共尴尬、客户或员工的流失、法律和合规责任之外,过快推动GenAI还存在其他更多的技术风险。

例如,那些在推出AI之前没有做好充分准备的公司,可能没有建立合适的数据基础或缺乏适当的安全保障措施,或者他们可能过于仓促地将全部信任放在单一供应商身上。

“企业面临的一个巨大风险是,可能会将自己锁定在一项为期数年的开支或承诺中,而一两年后才发现有更便宜、更好的解决方案。”EY Americas的GenAI负责人David Guarrera表示。有些企业在没有考虑整体技术战略的情况下,就匆忙跳进了AI的应用。

“很多地方现在的情况是,企业正在同时启动数十或数百个原型项目,”他解释道,“可能技术部门开发了一个合同分析器,CFO办公室又开发了一个,而他们甚至彼此不了解。结果是,我们可能生成了大量原型,但它们没有明确的应用方向,最后都被搁置了。”

还有一个问题就是资金的浪费。“假设一个企业因为害怕错过机会(FOMO),不问清是否真的需要,就购买了一堆GPU,”他说,“这种投资可能会导致企业无法专注于数据领域真正需要的东西,或许你真正需要的是更好的数据治理或数据清理。”

急于推出试点项目并仓促做出开支决策的背后,是企业因恐慌而想尽快掌握GenAI,然而,他补充道:“实际上,有很多方法可以采用这种技术,从而减少未来的遗憾。”

“快速行动并打破常规”这个口号也许适合小型初创企业,但对大型企业来说并不适用。“你不希望把数十亿美元和市场置于风险之中。”Guarrera说道。