
本篇内容来源于鲍捷博士2023年5月13日在 中国科学技术大学国际金融研究院 中演讲。
壹
大模型:颠覆自然语言处理的昂贵时代
大模型的基本技术原理非常复杂,但 我想用一个比较简单的比喻来说明。 不同的动物会根据环境的不同进化出不同的特征,而人类的DNA虽然相同,但我们可以在不同的环境中游泳、跑步、打猎等,这是因为 人类具有泛化能力。人类本质上是一种软件,大脑是软件执行器,大模型也具备类似功能。 以前不同的任务需要训练不同的模型,现在大模型具备了泛化能力,无论是人脸识别、语音识别还是其他任务,都可以使用同一个基础模型完成。这种能力带来了深远的经济学价值。

过去金融机构中台的建设通常是分散的,每个应用场景都需要不同的业务逻辑和技术框架。而现在, 使用同一个基座可以实现所有应用 ,包括数据治理、分析型应用、写作类应用和智能交互式应用,这种工作范式是之前难以想象的。基于这一范式,可以在同一个基座上完成所有下游任务,无论是撰写招股说明书,还是进行券商质控和核查,甚至是投资研究和研报汇总。

基于这一范式,我们首次拥有了一种可能性,可以在同一个基座上完成所有下游任务。无论是撰写招股说明书这样的写作类应用,还是进行券商的质控、核查,或者投资研究、研报汇总, 所有这些下游任务都可以在同一个基座上完成。
01 从昂贵到亲民,大模型进步带来成本革命
使用大模型重新处理之前的不同场景, 降低了信息抽取类应用的建模成本。 现在每个数据点的建模成本约为1000元,相比2016年的1万元下降了一个数量级。预计在两到三年内,使用大模型可以再次降低一个数量级,将一个数据点的成本降低到100元。 技术在过去十多年中已经带来了成本的大幅下降, 而未来有望再降低100倍。

在发行、监管、投研和财富管理等新场景中,最初的尝试大多以失败告终。即使一些头部银行在2017年前后尝试智能投研和智能投顾系统,到了19-20年后也逐渐销声匿迹。这是因为在过去从事财富管理需要大量资管和基金数据,但这些数据非常稀缺。实际上, 主流的基金公司在20年后才开始大规模使用机器处理数据。 因此,17年时难以构建准确的产品画像。当时用户画像方面,我们依赖用户填写表格,但很难让用户长期为我们提供数据。
02 智能投顾的挑战:数据稀缺与用户画像
智能投顾和智能投研在当时并不成功,证券公司只能通过在APP中进行埋点并收集用户行为数据来获取结构化数据,但无法获取需要与用户对话才能获取的更丰富的数据。因此,缺乏对产品和用户的了解 , 凭什么成为一个投资顾问呢? 在知识方面, 投资是一项高度知识密集型的活动,涉及复杂的投资逻辑 。以往,编写投资逻辑规则需要大量人力,或进行回归分析来分析大量因素。但 投资非常复杂,难以用普通逻辑解决。 例如,川普上任的那一天,我认为川普上任会导致美国经济下滑,所以第二天股市一定会下跌。结果却相反,美国股市上涨了,而且中国的川大智胜股票也莫名其妙地上涨了。投资知识无法仅依靠结构化方法建模,同时数据不足和人工编写知识规则也限制了投研发展。

当时智能投研和智能投顾等领域的努力基本上以失败告终,主要因成本效益问题,而非技术限制。然而,今天 ChatGPT 虽然无法完全解决这些核心问题,但至少已经看到了胜利的曙光。之前发行给中国上市公司 ESG 评价指标主要是通过出版书籍的形式,需要大量学生手工标注数据。但问题是,用人工方式制定的 ESG 评价指标,在发布时就已经过时了。因此, 如果不通过机器自动化处理新指标体系 ,则无法适应快速变化。 利用统一的大语言模型作为基座,能实现以前无法实现的事情。每个场景中进行定制化工程,就像人类既可以到北极又可以到赤道一样,同一个大模型可同时进行投研和投顾,大幅提高个人效率。这在以前无法实现的,以下将介绍过去几个月内在应用层面的探索。
贰
证券行业的智能化革命:大模型与智能研究的应用
01 构建第三代智能投研:Just-in-Time 投研
投研经历了几个的阶段和发展方向 。第一代投研是量化投研,第二代投研是以瀑布式的知识投研为主,适用于中短期和高频交易,通常是 T+0 交易。在2016年之后,人们开始认识到基本面也需要量化,基本面量化投研应运而生。在那个时候,人们通常会先有一堆研报、公告和各种文本数据,定义数据点的架构(schema),再使用机器学习和自然语言处理算法从文本中提取数据。接着定义投资逻辑和规则,最后构建智能化的交互界面。

不同利益相关方关注不同字段,无统一标准,需要根据需求提取数据。对于一份招股书来说,交易所可能关注的字段数量超过1万个,但如果考虑到全球各方的需求,可能会达到10万个字段或更多。 这就是为什么第三代智能投研需要采用"Just-in-Time"的方式 , 它更灵活、实时,可根据实际需求和使用情境抽取数据,并根据投资目标、时间周期和市场情况获取所需数据,进行准确和有效的投研分析。
在构建"Just-in-Time"智能投研时, 数据治理部分 涉及数据的收集、清洗、整合和管理,保证数据质量和一致性; 知识建模部分 进行数据分析、挖掘和建模,提取有价值的信息和洞见; 智能交互部分 设计和开发智能化的交互界面,方便投研人员与数据和模型交互和探索。 尽管每个组件都具有一定的挑战和复杂性,通过合理的架构和技术支持,可以建立完整的"Just-in-Time"智能投研系统,提供准确、实时和个性化的投资决策支持,提高效率和决策质量。 进一步拆解这个智能投研的概念,涉及感知能力、编辑能力、创作能力等等方面 。最重要的是大型语言模型带来了持续进化的系统,包括感知能力、决策能力、记忆能力和进化能力。 记忆能力是指大语言模型本身的能力。而进化能力则是指则是下游任务提示学习范式的新范式,能适应各种场景。

最近,Bloomberg 发布了自己的 GPT 模型,目前来看还比较简单,不需过分担心。我最近也在和一些在 Bloomberg、摩根大通、高盛等机构的同学交流,问他们如何应用这种技术。得知应用并不复杂,主要用于填补未知领域的知识。 大语言模型的另一个好处 是它引发了一场掀桌子的革命,将所有人拉到了同一起跑线上, 没有谁比谁更领先。即使像 Bloomberg 这样的机构也并不比我们更领先,目前还没有能够获得非常有意义的结果,出现的新尝试只处于早期的阶段。举个例子,佛罗里达大学的研究人员使用 ChatGPT 来预测新闻对股票的影响,他们得出的结论是比随机选择稍微好一些。 这表明大语言模型在金融领域的应用 还处于初级阶段,仍需进一步研究和实践,发掘其潜力。Just-in-Time 投研的理念可以帮助我们根据具体需求和使用时刻来灵活地获取数据和知识,而不是试图预先建模所有情况。 值得注意的是, 虽然大语言模型为智能投研带来了许多机遇,需要谨慎评估大语言模型的能力和局限性,确保其在投资决策中的有效性和可靠性。 同时,数据隐私、模型鲁棒性和监管合规等方面也需要被充分考虑。

金融领域的大模型应用具有巨大潜力。目前,我们正在与一家券商合作,预测股票表现已成为可能。与金融机构进行合作实验,旨在通过更大规模的回测和与之相关的研报分析,探究其长期效果,特别是对研报中的各种描述在长期视角下的效果。以往,这项工作非常困难且耗时, 但借助大模型,回测过程更加简化,同时也有助于我们发现更多投资逻辑。 此外,知识库的建设是金融领域中更基础的工作之一。 如今借助新技术,能够以更快的速度构建基础的知识库。
02 大模型技术无处不在
a.投行领域
大模型在投行领域有广泛应用,特别是在底稿核查方面。从2020年开始,人工智能在底稿核查中已成为主流券商的标配。当交易所开始使用人工智能进行账目核查时,许多券商因此受到了严厉处罚,有的甚至停业一年。然而,这一过程进展非常缓慢。我所了解最早采用此技术的券商是在2018年,而技术总体是在2020年开始普及。 整个建设过程的成本非常高,因为证监会总是会以新的视角进行观察,并且总有新行业出现。因此, 底稿核查系统需要不断变化和监察,这个过程似乎没有终点。是否能拥有一个能自我进化的系统? 这得益于大模型的出现,现在已经成为可能。

例如,在问询函生成方面,大模型可以自动化生成问询函,帮助发现文档中可能存在的逻辑漏洞。对于许多在券商实习过的金融学院同学,可能曾经历过无数个晚上写文档的辛苦。使用大模型可以及早发现文档中存在的问题,并进行模拟问询,对文档进行检验。 当大模型阅读了足够多的问询函后,它能够大致掌握基本的逻辑,并将这些逻辑应用于所写的文档中,帮助找出可能存在的逻辑漏洞。 底稿核查是一个包罗万象的领域,涉及的内容非常丰富。 例如财务报表往往含有晦涩难懂的专业术语,对于大多数人来说不易理解,特别是涉及到母公司、子公司合并财务报表以及集团财务报表等情况。然而,通过让大模型阅读并帮助理解这些报表,可以检测文字描述与表格描述之间的一致性,将其转化为更易理解的自然语言描述,提高底稿质量。

此外,在投行领域还存在大量的文档撰写工作。除了最终的报告外,还有立项报告、审批报告以及内部的 OI(Operations and Infrastructure)和 IPM(Investment Portfolio Management)等一系列文档。在这个过程中,经常需要将一个文档的内容复制到另一个文档中,再复制到下一个文档中,这非常繁琐。 未来大模型可以帮助我们完成许多工作, 每个文档都可以成为大模型的新知识库。通过人机协作的方式,可以提出问题并与大模型合作。例如,让大模型帮助生成框架,提供建议内容或基于以前的报告模板填写表格。这样可以加快读写、审查、编辑和发布的速度。
b.财经媒体
我们近期正在尝试一项工作,即与某财经媒体合作,该网站是中国主流的财经门户网站,现在我们的机器人已被用于其公告摘要。它每天能自动阅读上万份上市公司公告,并将其转化为易于理解的人类语言。 未来,将进一步提高其智能程度,使其更符合人类的使用习惯。 因此,未来2到3年内,所有与文档生成相关的应用都将被大模型所覆盖。
c.营销展业
在展业层面上,大模型可以做很多工作,比如营销文案 。未来,可以快速帮助客户经理生成营销文案,实现所谓的场景凝容。也就是说,遇到每一个客户时,只要该客户已接入系统,营销人员或客户经理可以在1分钟内由机器人自动生成营销文案。

营销话术可以告诉如何激活这个客户。 例如,还有一个场景叫做 MOT,在客户管理和客户服务方面,这是大家非常关注和重要的事情。MOT 指的是如何让客户激活,因为客户可能与你聊了很久,但始终不愿意购买。他们肯定有一个事件发生了,所以你需要找到这个事件。如果你能将 MOT 的成功率从10%提高到20%,这将是一项巨大的收入增长。 在这一点上,大模型应该将提供极大地帮助。
d.评级公司

文因与中国顶级评级公司合作已经超过两年的时间,用于债券实时风险监控以及底层数据因子的分析。之前使用人工只能处理五六百个因子,但在债券领域,因子远不止这个数量,还有大量与债券相关的社交外部数据和工具应用。因此,未来的债券评级公司将不再仅仅是一个以发行指数为核心的公司,而是一个工具型公司,一个生态系统,围绕着一大批专业人士和资产网络以及工具。 要构建这样的公司,必须具备广泛的人工智能能力,成为一个服务型公司 。
叁
从汽车说起:四方面落地金融大模型

要将一个大模型适配到金融领域中,需要进行同样的许多工作。总体而言, 可以将其分为四大类工作 。
01 语料工程
第一类工作是语料工程,即金融语料的处理。这方面非常特殊,因为绝大多数语料是 PDF 文件,其中包含图表等内容。与 ChatGPT 不同,ChatGPT 主要阅读书籍、维基百科或一些网页内容,这些基本上都是纯文本,是一维线性的。 而财务报表是二维的,涉及到勾稽关系的财务报表甚至是三维的。 因此,大家不要被金融文本的表象所迷惑,要意识到金融文本是具有多维结构的,而不仅仅是一维的纯文本。

如果将这些所有上下文信息消除,将损失大量信息。因此, 需要将金融语料注入到大模型中。 这需要进行大量复杂的前期预处理工作,称之为语料工程。 对应于汽车,这就像是如何提高燃料的研发效率。
02 提示工程
第二部分是提示学习 , 即如何快速适应如投研、投顾、合规、财富管理和展业等各种不同的场景 。这些场景可以在统一的基础大模型上进行适应,但如何将这些领域知识注入其中?目前有很多不同的方法,通常使用的是例如 LangChain 或其他提示学习方法构建问答对。最近文因将超过200万份研究报告注入大模型中,一方面进行全参数训练,但这个过程非常缓慢。另一方面,可以利用80/20法则,使用其他人工智能方法提取出其中最高质量的信息,将其压缩成百万级的问答对,使用提示学习的方法注入,会快得多。 这是一种相对节约成本的方法,因为大家还没有一万块 A100 的显卡。也就是说,如何确保在只有比如10块 A100 的显卡的情况下,使我们能够完成这件事情? 这就是迁移学习可以加速整个领域适应过程的地方。

03 质控工程
第三方面是可用性,也可以称为质量工程,因为大模型可能会胡说八道,那它到底胡说八道的程度如何呢?举个例子, 前段时间瑞士信贷银行暴雷,因为他们购买了一种叫 CoCo 债的特殊欧洲债券。有人问 ChatGPT,询问欧洲是否有其他银行因为 CoCo 债而破产,ChatGPT 一本正经地回答是葡萄牙的 BCP 银行,并给出了具体的破产日期和金融时报、路透社的链接。如果你对这件事情不熟悉,真的会被它误导。然而,如果 打开那两个链接,会发现它们完全是虚构的,根本不存在。而且,无论你在任何可信的搜索引擎上使用这个关键词进行搜索,都找不到相关的结果,这整件事情是虚构出来的。

再举一个四则运算的例子说明,你能相信一个连四则运算都做不好的会计吗?ChatGPT 就像这样一个会计,曾经给它两个非常复杂的浮点数进行加法,它确实得出了正确的结果,a 加 b 等于 c,计算正确。 但然后问它 a 加 b 减 c,因为我们将其结果定义为 c,所以我问 a 加 b 减 c 等于多少?应该是0。结果它又一本正经地给出了一个错误的数。 所以它并不理解什么是数,也不理解什么是加法,只是进行符号运算而已。 因此,如果盲目地相信大模型,那么写的研报中的数字有60%的概率是错误的,敢让用户使用吗?必须有易用性和质量工程来实现约束。
04 运维工程
最后一点是运维工程,大模型本身非常昂贵, 必须让它在有限的硬件上运行 。最近我为许多头部金融机构进行了测试,发现绝大多数金融机构的显卡数量不到10张。在这种情况下,即使进行推理( inference ),成本也无法承担,必须进行大量的领域适配工作。现在所有金融机构的高层现在都头疼信创这个问题,他们 需要对有限的硬件进行优化以提高效率 。很多算法都需要重新改进。 去年花费一年时间与一家信创公司合作,最终成功将所有涉及显卡的设备替换为国产硬件,并且它们能够正常工作。因此,在开始任何项目之前,必须考虑到这些问题,并 进行大量的运维工作,总结起来就是这四大类。但是,如果详细讲述的话,可能需要一整个下午,所以就不再赘述,就到此为止。
文因将从语料工程、提示工程、运维工程和质控工程这四方面入手,打造专业的金融领域模型。 与 OpenAI 和文心一言等公司不同,文因致力于帮助大客户拥有自己的私有领域金融模型。 为什么能够做到这一点呢?因为文因是一家专注于知识工程的公司,在过去几年里,一直做大量领域实践的工作。以前使用其他算法进行工作,现在使用大模型,但本质上仍然是知识工程。例如,语料工程关注的是如何更有效地运用知识,提示工程关注的是如何更好地存储和记忆知识等等,这些都是关于知识的方面。


