ChatGPT在智能投顾领域应用探讨
发布时间:2023-03-20 | 发布者: 东东工作室 | 浏览次数: 次(原标题:ChatGPT在智能投顾领域应用探讨)
ChatGPT上线不到一周用户突破100万,据报道称,ChatGPT开发者OpenAI预计ChatGPT明年年营收将会达到2亿美元,2024年营收将达到10亿美元。业内也都是ChatGPT的溢美之词,关于其实现的探讨已有不少。对其在具体场景中的应用探讨不多,本文将探讨ChatGPT在智能投顾领域应用,包括其带来的变革以及潜在问题。
“大力出奇迹”还将继续
当ChatGPT发布之后,就有一种观点认为并没有什么理论上的创新,并有些质疑这条路只有大的公司才能继续的道路。ChatGPT是基于GPT3.5模型,2020年GPT3.0模型就有1700亿以上参数,训练一次需要上千万美元。可以想见,GPT3.5训练一次将需要更多的资源,也就只有头部的互联网公司能够实现。在笔者2020年出版的书就有如下论述:
“强化学习领域著名教授理查德·萨顿(Richard S. Sutton)则认为,人类不应试图把自己的知识和思维方式植入到AI之中,比如用人类的思路教AI下棋,将让AI按照人类总结的思路来识别图像等等。真正的突破,必然来自完全相反的方向。摒弃人类在特定领域的知识,充分利用大规模计算才是王道。用人类在特定领域的知识来提升人工智能,都是在走弯路。OpenAI首席科学家Ilya Sutskever精辟地总结了萨顿的核心观点:大力出奇迹(Compute always wins)。对此也有相反观点,牛津大学计算机系教授希蒙·怀特森(Shimon Whiteson)就认为构建AI需要融入人类知识,问题只在于该何时、如何、融入哪些知识。笔者认为,在科学界,自然需要各样的研究方法论。但在工业界,“大力出奇迹”,是不二法门。大规模计算的作用还远远没有发掘完,只要数据数量与质量、计算能力持续提升,加之算法的优化,在工业界一定还有更多的惊喜等着我们。”
GPT需要如此之多的资源投入,可以想见这条路还远没有到头。
智能助理将向前一大步
2020年,GPT3虽然也在一系列NLP数据集上取得更好效果,但并没有让人们觉得惊叹。而试用过ChatPGT的人都会感叹ChatPGT合理的回答、可设定角色以及多轮对话能力。以下是让ChatPGT介绍下自己以及根据要求修改自我介绍的示例。
图片来源:openai.com
ChatGPT是基于GPT3.5模型,按理说不会比GPT3.0模型上有太大的改进。其中模型优化来自:1)人类反馈的强化学习(Reinforcement Learning from Human Feedback, RLHF)增强了人类对模型输出结果的调节,并且对结果进行了更具理解性的排序。2)评估式强化人工训练代理(Training an Agent Manually via Evaluative Reinforcement,TAMER)框架,该框架将人类标记者引入到Agents的学习循环中,可以通过人类向Agents提供奖励反馈,从而快速达到训练任务目标。之前GPT3提出了一种In-Context Learning的方法,模型不根据下游任务调整参数,而是将下游任务的输入输出接起来,引导模型根据测试集的输入生成预测结果,从而让模型学习到当前的语境。
更多的模型介绍可以参考下文:
这两年国内也刷出比GPT3更优的效果,笔者也认为GPT3.5能达到如此惊艳的多轮对话效果,可能更多是在数据处理、工程方面的优化。
当年智能音箱被各家互联网公司重视,即使赔本卖,也要出货量。就是想抢占人机交互接口。数字时代,当领域中各类设备都带有芯片,传感器无处不在,每个设备都具备一定信息处理能力,并能将数据实时与网络中云计算服务器同步。ChatGPT将不只是让具备通识的智能助理近了一大步,更是万物”苏醒”时代的人机协同不可或缺的接口,各领域助理也向前进了一大步。
投资领域智能客服将向前一大步
国内的投资领域智能客服通常方案是通过模型识别用户意图,匹配到特定的对话模板中,再往App功能跳转或交易转换。2017年,当笔者在蚂蚁金服时,曾负责支付宝理财客服“支小宝”的前身“安娜机器人”。当时做的一个创新是将一些投研、基金知识图谱与客服机器人、闲聊机器人结合,期望:
结合金融知识图谱和基于深度学习自然语言处理模型帮客户处理纷繁复杂的市场信息,为的是帮助个人客户更好地构建自己的理性投资。
但当时并没有多轮对话能力,对超出标准集覆盖外的问题也只能转到闲聊机器人,给人比较智障的感觉。团队也尝试做多轮对话优化,仅靠内部客服数据远远不够。当时就想金融投资领域搜索交互时序的数据,以及知乎、论坛回复时序数据应该会有改进。这里还是要期待下国内版ChatGPT能尽快问世。结合ChatGPT能力,就能将用户问题映射到一个相关合理的回答结果集,在此基础上再结合客户个人信息,专业投研知识图谱必能提供更专业、更合理的回答。
可以想见,各领域智能助理都将因为ChatGPT而向前一大步。
难点一:投资需要客观事实
前些天为调戏ChatGPT,人们会给其一个错误假设,如“贾宝玉爱上紫霞仙子,他们结局如何?”,那时ChatGPT基本上会将这个错误前提作为上下文顺着意思编一段,近几天这问题已被修复。这么看来其也是需要一个事实知识库?
在金融投资领域,充斥着谣言,并且谣言与事实是混在一起。这也是权威媒体,以及金融数据供应商不可或缺的原因。今年,国内金融数据供应商一波提价,让一众金融机构纷纷思考长期的替代方案,以及将投研数据建设提到更优先的位置。想想提价也是有道理,毕竟国外彭博(Bloomberg)的价格在那里,而且每年还涨价。在2B领域,不可替代性才是利润的王道。有些跑题,金融领域客观事实依靠的可靠信息源而不是大众的点击反馈。但光依靠金融供应商、权威媒体、知识库、人机结合的方案已被证明效果并不理想,如之前Kensho(kensho.com)的尝试。
ChatGPT最让人惊艳的事就是不需要构建事实知识图谱,靠大模型、海量数据和少量人工标注(听说只有40人的标注团队)就达到如此效果。但如何解决事实的常识,是大模型很难解决的问题之一。在投顾领域,可能的解决方案还是上述所说将ChatGPT能力作为智能投顾链路的一部分。
更重要的一点,社会、经济领域的事实是有主观性的,真实世界事实映射到数据的结果,与其采取的特定方法是密切相关的,当我们采取了一种方法来处理、解读数据时,就使它们成了这样一种特定方法论、一定主观性的特定事实。这样的主观性也是经济、社会领域不确定性的原因之一,但这也是经济社会多样性的来源。
难点二:投资需要多样性
当你问ChatGPT同样问题,你很可能得到类似回答。笔者也查了下其他人问类似问题的截图进行验证,的确答案非常类似。模型是有一定泛化能力,而且也可以将多样性作为模型优化指标之一,但大模型训练出来,很难保证多样性回答。
金融投资是需要多样性的。近年A股行情中,多次出现白马股踩踏,分析其原因,大部分是因为基金风格的高度趋同化,持仓高度相似,一旦市场大幅回调,会形成连锁效应,逼迫这些产品的管理人减仓止损, 当市场的流动性缺失时,又会加大市场的短期跌幅。虽然这些奉行价值投资理念的基金,几百亿的规模,只有白马股才能为这些资金提供足够的流动性,但这种流动性在趋同的策略市场上不堪一击。只有一种风格的股市,暴涨暴跌是正常的,因为市场自我调节的作用消失了。哈耶克所在学派强调市场过程,强调大量独立个体参与,通过竞争中的价格发现机制,把各种有限、当地化、碎片化的信息汇聚,达到有效配置资源进行劳动分工的目的。差异性信息的有效收集和运用是市场发挥自我调节的作用的前提。市场参与者预期多样性,决定了市场的弹性。当市场的预期一致时,不论是否合理,都丧失市场部分重要功能。
OpenAI的论文《Learning from Human Preferences》提到学习人类的偏好,学习人类偏好本身没啥稀奇,所有的搜索推荐模型都在做这事。诺贝尔经济学获得者保罗·萨缪尔森提出显示偏好公理(Weak Axiom of Revealed Preference)是现代新古典主义经济学的基石之一。如果人们共用一个偏好序列,这一定能被机器学到,但多样性来源于人们偏好不一致,GPT大模型并没有解决对个性化的偏好学习。而且神经科学发现,个体的偏好是不稳定的,当一个行为主体进行知觉判断时,他要经历一个随机的认知过程,做出一个随机的偏好决策。“所有的信号(期望主观价值也是一个神经信号)都是随机的。”当我们从认知科学角度探讨行为主体面对不确定性环境下的偏好时,不仅有其自身的禀赋原因,他们以往的经验、经历也将对决策产生影响。既包括个人的,也包括社会、环境的经历,都将影响我们的偏好。
而且价值和偏好是在诱导过程中建立起来的,偏好是情境的、过程敏感的,甚至是有可能偏好反转的。借助各种诱导能够改变偏好因素的相对权重,从而产生不同的偏好顺序。所以ChatGPT在智能投顾流程中只能作为重要环节之一,但不应成为主导性环节,个人的偏好还是应以用户自身偏好决定而不是被机器决定或诱导。ChatGPT的智能投顾方案也应是助推多样性的,而不是扼杀多样性。市场需要人类的偏好、直觉,这是多样性的重要来源。
作者简介
袁峻峰,《人工智能为金融投资带来了什么》作者,复旦大学金融学硕士,FRM金融风险管理师,目前就职于国内某大型券商,本文仅代表个人观点。笔者关注于金融投资数字化、智能化,以及数字货币、WEB3等带来的金融领域变革等,欢迎探讨。公众号:FIN AI 探索
本文系未央网专栏作者:袁峻峰 发表,内容属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!转载请标注:我爱技术网——ChatGPT在智能投顾领域应用探讨