金融业初涉AI Agent,从“优等生”到“熟练工”道阻且长

2024-07-15 19:49:00 - 21世纪经济报道

21世纪经济报道记者李览青上海报道

大模型时代的AIAgent(智能体),就像互联网时代的APP,在大模型与产业落地应用之间,AIAgent为实现“链接”提供了可能。

在近日举办的2024年世界人工智能大会(WAIC)上,21世纪经济报道记者注意到,各行各业的专业智能体应用已“百花齐放”,金融行业探索AIAgent专业智能体应用的脚步也在加速,如支付宝在WAIC期间就推出了基于蚂蚁百灵大模型的AIAgent支付宝智能助理。

然而,在与从业人员、专家的交流中,记者发现,金融业Agent的应用“道阻且长”。

一方面是自主决策能力的不足,目前行业依然停留在“问答式”的初级应用中。更重要的问题在于,智能体的复杂结构所带来的风险,仍然是未知数。

如何让Agent从具备丰富知识的行业“优等生”,成为金融场景应用端的“熟练工”?已经成为大模型时代科技厂商、金融机构以及监管部门的必答题。

智能体应用落地进入初级阶段

2024年被视作AIAgent爆发的元年。

IDC在今年1月发布的《2024AIGC应用层十大趋势白皮书》中提到,在接受调研的100家年收入超过5亿的大型企业中,所有企业都认为AIAgent是AIGC发展的确定方向,同时50%的企业已经在某项工作中进行相关试点,另有34%的企业正在制定相关应用计划。

中国信通院华东分院人工智能事业部主任常永波告诉记者,相比于传统的AI智能助手,例如Siri是面向所有人提供相似的功能,未来通过Agent每个人都能获得个性化、专属于个人的智能助手。

据记者了解,AIAgent的落地应用可以分为单一任务场景与多任务场景,前者聚焦垂直赛道,后者则是从通用大模型走向通用Agent,最终有望是按调配资源并自主集合,形成问题解决方案。从Agent产品形态来看,目前仍处于“问答式”落地应用的初级阶段。

冰鉴科技研究院高级研究员王诗强向记者提到,与传统机器学习AI相比,生成式AI在非结构化数据解读的优势较大,可以应用于信用评分、风险分析等场景,而AIAgent将进一步增强AI与用户的交互能力。

“在小雨点集团的业务流程中,目前人工智能技术已在贷前、贷中、贷后的业务全链条实现了应用,但主要还是集中在贷前的市场拓展、获客等场景。”小雨点集团首席技术官许慎告诉记者,“虽然大模型在贷前的应用比较广泛,但并不意味着技术已经非常成熟,其主要原因还是在于,贷前、贷中、贷后等不同流程对风险的容忍度是不同的。”他坦言,在贷中、贷后等领域,大模型的准确度要求更高,还需要满足一系列监管要求,也正因如此,在探索Agent落地时,小雨点在内部系统运维、智能客服等领域已经开展相关应用,但对Agent在业务侧落地还保持谨慎态度。

在一家头部科技公司的WAIC展区,一位产品经理向记者坦言,“我们虽然演示了金融行业的相关应用,但效果还不理想,所以没有大规模推向市场。”他表示,目前实现用户交互的大模型应用主要还是通过“对话+搜索”的问答形式,而理想情况下的AIAgent应用是,当收到一个问题时,AI可以通过自主决策自行拆解任务、调用工具最终生成内容甚至直接解决问题,这一应用在金融专业领域的效果仍有很大进步空间。

金融业直面AI原生时代治理难题

“AIAgent或开启AI原生应用时代。”中金公司在一篇研报中指出,当AIAgent从基础形态迈向通用形态,将带来应用侧的进一步爆发。

在金融领域,对大模型决策的准确率与精确度要求更高,这也带来更为复杂的风险。

在多位受访对象看来,AIAgent带来的风险既包括原有大模型内容生成过程中产生的幻觉问题,也包括在交互性加强后在应用的“端侧”产生数据安全、工作流程管控等合规问题。

马上消费金融人工智能研究院院长陆全向记者指出,AIAgent带来的调整主要有三个方面,一是数据来源可能存在的风险,他表示智能体与普通的AI工具不同,需要大量数据训练,这些数据来源本身可能带来风险。

“AIAgent未来应该是一个系统化的产品,在端侧实现应用需要积累大量用户数据来开展,如何保障数据安全就至关重要。”常永波也提到,例如微软在Windows11中加入的AI助手Copilot就加强了本地的数据安全管理。

陆全提到的第二个风险来自于智能体的使用过程。“过去是通过人工输入、输出确定的内容,这样更容易控制人工智能的使用范围,而现在的智能体拥有更高的智能水平,其工作流程很难管理。”

第三个风险来自于智能水平发展的不确定性。“因为有一些不可预见的风险出现,所以金融行业的人工智能治理不能‘刻舟求剑’、‘缘木求鱼’,而是根据技术发展不断增强治理水平,从而实现共生治理。”陆全表示。

在许慎看来,包括AIAgent在内的生成式AI技术至今没有在金融行业深度应用与大规模推广,最主要的问题还包括监管治理框架尚未完善。

“金融的核心业务场景和医学很类似,决策准确率的99.9%和0%在某种意义上没有差别。其实作为人,医生也有出现误诊的概率,但是对这一错误的责任划分已经非常清晰。如果AI出现误判,谁来承担这一决策失误的责任和后果?”许慎提到,以医学为例,大模型或许在一些证书的考试分数比人类更高,但在美国一位医学生要真正成为医生,需要10年的实习经验,这需要不断地实践来实现经验积累。“在金融领域也是这样,大模型或许在金融知识学习层面表现良好,但到实际应用层面更需要考验对业务、系统的理解,例如在风控领域基于大模型和矢量数据库技术,我们实现了10倍的效率提升。”许慎表示。

针对金融行业部分场景,监管侧对人工智能应用的治理已经在加速推进,金融科技伦理治理早已被纳入金融数字化转型的重点工作。

继2021年发布《人工智能算法金融应用评价规范》后,2023年11月央行发布《人工智能算法金融应用信息披露指南》,引导提升人工智能算法金融应用的透明度与安全性,指导行业披露算法组合信息、算法逻辑信息、算法应用信息、算法数据信息、算法主体信息、算法变更信息、算法审计信息等。

2023年8月,在中国互联网金融协会指导下,多家机构联合起草《互联网金融智能风险防控技术要求》,规定了互联网金融场景下智能风控所需满足的技术框架、功能要求、技术要求、安全要求与运行要求等。

今日热搜