保险业警惕人工智能潜在风险:头部公司寻求责任豁免,多起AI错误已致巨额损失

近日,包括美国国际集团(AIG)、大美洲保险(Great American)和WR伯克利(WR Berkley)在内的多家美国大型保险公司已向监管机构提交申请,旨在将其企业保单中与人工智能(AI)相关的责任予以排除。此举凸显了保险行业对AI技术快速发展所带来的潜在风险的深切担忧。

业界普遍认为,人工智能模型的输出结果如同“黑匣子”,其不透明性和不可预测性使得风险评估和承保工作变得异常困难。伦敦劳合社旗下专注于科技风险的保险公司Mosaic的欧洲网络保险主管丹尼斯·伯特伦(Dennis Bertram)指出,AI模型“太像一个黑匣子”,难以承保,甚至拒绝承保ChatGPT等大型语言模型带来的风险。

保险公司最担忧的并非单一巨额赔付,而是当广泛使用的AI模型出现故障时,可能引发成千上万起同时发生的索赔,进而对行业构成系统性威胁。怡安集团(Aon)的一位高管凯文·卡林尼奇(Kevin Kalinich)表示,保险业能够承受一家公司4亿美元的损失,但无法承受因一个AI提供商的错误导致1万起同时发生的索赔,称之为“系统性、关联性、聚合性风险”。

多起近期案例已显示AI错误可能导致巨大的经济损失和法律纠纷。例如,美国太阳能公司Wolf River Electric起诉谷歌,索赔至少1.1亿美元,理由是谷歌的AI概述功能错误地声称该公司正面临明尼苏达州总检察长的起诉。

此外,加拿大航空公司曾因其聊天机器人提供错误的折扣信息而被法院裁定必须履行承诺。一名乘客因聊天机器人误导,支付了全价机票,法院判决加航应对其聊天机器人提供的错误信息负责。另一起事件中,总部位于伦敦的设计工程公司奥雅纳(Arup)在今年1月遭遇了一起利用高管“数字克隆”进行的深度伪造视频诈骗,导致公司损失2500万美元。奥雅纳已就此案向香港警方报案,调查仍在进行中。

在人工智能技术加速融入企业运营的背景下,保险公司正面临前所未有的挑战。如何在AI快速发展的同时,合理评估并管理其风险,制定适应性的保险政策,已成为保险行业亟待解决的重要课题。

上一篇:

下一篇:

发表回复

登录后才能评论