第四范式发布式说大模型 戴文渊:大模型未必需要通才
发布时间:2023-05-06 | 发布者: 东东工作室 | 浏览次数: 次4月27日消息,第四范式首次向公众展示其大模型产品「式说3.0」,并首次提出AIGS战略(AI-Generated Software):以生成式AI重构企业软件。式说将定位为基于多模态大模型的新型开发平台,提升企业软件的体验和开发效率,实现「AIGS」。
第四范式创始人兼CEO戴文渊表示:“C端产品已经逼近用户体验的上限,而B端的企业级软件往往是个十分复杂的执行系统,堆砌十几层菜单和成千上万功能也不算多。”
戴文渊认为,目前这些B端软件极为复杂的交互体验,以及复杂性带来的极低开发效率,恰恰为生成式AI留下足够大的重构和改造空间。
“过去很难通过人类语言(自然语言)的方式去调用企业软件的功能,现在当我们有更强的语义理解和生成能力,再加上GPT任务翻译、任务分发和推理的能力,就可以通过更好的「对话框式」交互方式实现功能的调用,不再需要找到某个位于十几级的菜单目录之下的功能。”
这背后还是大模型的能力。第四范式现场拔网线,展示了式说大模型的图片理解、多轮对话、写小说、迅速画图等能力。
此外,现场展示了式说通过推理能力完成更加复杂的“装箱”操作,以及其现场编写代码的能力。
在戴文渊看来,要做到AIGS,大模型未必需要是知识广博、十项全能冠军的通才,更重要的在于模型具备Copilot(副驾舱),和思维链CoT(chain of thoughts,多步推理)的能力。
“要去改造企业软件,大模型不能只有语言能力。式说2.0就加入了多模态和Copilot,因为很多企业软件里的数据是多模态的,而Copilot能把人的指令翻译成要调用后台的哪个API。”此前发布的式说2.0的Demo中,门店员工通过语音、文本等交互方式向式说发起指令,式说理解后,联网门店监控软件调出后厨未戴口罩的图片,并直接将图片以对话框的形式输出给员工。
大模型去调用软件内置的一个个功能、数据来「对话框式」完成任务,已经能产生巨大价值。但员工用企业软件时也会面临复杂任务,需要人按照顺序执行一个个功能。
因此,式说3.0强调的是Copilot加上思维链CoT,具有更强的推理能力,在学习大量数据和“攻略”后,能形成中间的逻辑推理步骤,从而做到拆分并执行复杂工作。
第四范式将AIGS的路径总结为三个阶段:
第一阶段,Copilot调动不同的信息、数据、应用,作为助手完成用户的指令。相当于在所有企业级软件系统里,配备一个指挥官。指挥官听用户的指挥,比如“把照片亮度调亮20%”。
第二阶段,Copilot+基于企业规则的“知识库”,AI能够参照规则做复杂工作,进一步丰富了「对话框」的能力。比如AI查询了“人像美化”知识库后,能执行把照片修好看的步骤。
第三阶段,Copilot+CoT(思维链)。软件系统的使用行为最终会被大模型学会,形成AI针对这个领域的思维链,意味着“把照片处理得更好看”这种复杂指令,AI能自动地按照步骤完成。
第四范式的AIGS战略,就是指基于式说大模型背后的Copilot+COT能力,把企业软件改造成新型的交互范式,并在新型交互上不断地学习软件的使用过程,形成领域软件的“思维链”。
在我国航空制造代表企业的实际场景演示中,其与第四范式基于Copilot技术,联手改造了某工业设计软件。
现场某医疗行业的实际场景演示中,式说的“思维链”能够清晰指出将药品销售出去的具体步骤。
最终,由于新的交互形式的出现,企业软件的开发效率变得更高。以前是功能和执行逻辑被编排在软件界面,每次一个功能升级,都要周而复始的经历原型图、设计、开发等,至少是月级别的开发时间。而现在由于「对话框式」的界面是固定的,功能和逻辑被改写在数据、API和内容层面,变成了天级别的开发效率。(静静)
转载请标注:我爱技术网——第四范式发布式说大模型 戴文渊:大模型未必需要通才