大模型商业化开荒,微软走到哪里了

21Tech李强 2023-04-18 15:45

即使是对于微软,大模型微调目前也依然是个技术门槛。

21世纪经济报道记者李强 北京报道

4月17日,微软以Azure OpenAI国际版服务所提供的GPT-3、GPT-4、Codex、DALL-E和企业级ChatGPT服务为基础,针对零售电商、制造业、数字原生等行业领域推出首批三套“Azure全球创新行业场景”。

今年一月,Azure OpenAI国际版服务首次推出面向企业用户的大模型服务,目前已经可以提供用于文本理解生成的GPT-3、GPT-4,可理解和生成代码的Codex,可通过文本提示生成图片的DALL-E,以及能够提供聊天集成和定制服务的企业级ChatGPT等五种主要大模型服务。

“国内客户更主动拥抱新技术,很多应用场景可能都是中国客户有一些创新想法以及去积极使用,换一个角度,从传播需求角度来讲,大家发现OpenAI、ChatGPT已经成为传播热点,媒体在关注,用户在关注,市场也在关注,我们产品的服务也紧跟着而来。所以在中国市场笼统来说,对应用场景的关注,创新性技术的使用,我觉得其实一点都不差,而且可能还是在全球比较领先的位置上。”OneSight一网互通公司联合创始人兼首席运营官苗宇表示。

场景试点开发

作为OpenAI生成式人工智能的独家云服务商,在此前3月初举办的Azure技术峰会上,微软首次面向中国市场介绍和讲解了Azure OpenAI相关服务,针对当前市场需求最为迫切的零售电商、制造业、数字原生三大领域,微软也在近日正式推出首批Azure OpenAI国际版“全球创新行业场景”。

在零售电商领域,可帮助客户快速生成产品相关文案及可视创意素材,创造更符合用户需求的销售及培训话术,编制客户服务及舆情应对预案;呼叫及客服中心服务记录汇总,新品营销活动反馈分析,售后评价及投诉分析;快速编制应用接口代码,由自然语言生成SQL查询语句;基于自然语言理解的搜索优化。

在制造业领域,可以实现多语言智能终端与人机交互体验,适应海外市场的销售及客服话术;基于垂直领域的生产技术文档归纳,跨平台多方会议纪要总结;加速应用开发与迭代,加速跨数据平台代码转换;企业内部智能客服(如行政及IT),基于垂直领域的文档搜索,面向外部的售后、技术、产品支持。

在数字原生领域,则可以进行无限故事创作的NPC (Non-Player Character)交互体验,游戏、互联网出海营销所需的文字及可视内容、素材生成和加工;汇总分析多渠道玩家反馈,当地市场活动、竞品情报分析;生成、重构过程游戏平台代码;面向海外市场的智能化游戏客服机器人。

“技术上的领先以及厂商们的应用,也反馈给我们很多的洞察。像在零售电商行业,流量上来之后就涉及到跨界的一些服务,比如搜索。我们会发现,原来不同的行业在很多场景又合在一起了,然后彼此跨界,出现很多新的可能性。刚刚两三个月,我们也在看到客户也在不断的尝试和创新,但是我们已经看到有一些苗头,未来也会有一些跨界的应用出现。”微软中国大数据和人工智能产品市场总监李冕表示。

“OpenAI并不是微软智能云Azure唯一提供的AI服务,其他一些场景,比如识别字幕、语音翻译、语言翻译等,这些都是Azure本身就有的服务,只是跟OpenAI做了一个结合。”微软公司副总裁、微软大中华区首席运营官康容表示。

商业化探路

对于走在最前沿的微软,在其带领大模型的技术探索及落地实践中,如何将可能一本正经说瞎话的AI,调整为能够解决各种实际问题的专家成为重要的关注点。

参考GPT-3到ChatGPT式的飞跃式进步,对大模型进行微调,通过语料库对模型参数进行调整,“再投喂”海量的行业数据,对大模型进行更进一步的专业训练,从而满足特定领域对准确度等方面的要求,无疑是主要思路之一。

日前,北京智源人工智能研究院理事长张宏江也表示同样的观点,他指出,从“大炼模型”到“炼大模型”是一个范式的转变,未来的APP的开发将是在大模型的基础上“大模型+微调”的流水线运作方式,向产业提供源源不断的智力源。相比以前既做APP,又炼小模型的方式,释放掉重复造小模型的人力等资源浪费,极大降低开发成本,使边际成本趋零,带来百倍甚至千倍的生产力提升。

但李冕告诉21世纪经济报道记者,即使是对于微软,微调的know how(技术诀窍)目前也依然是个技术门槛。

“我们对微调的感觉是,GPT用了非常大的,超过1750亿参数的语料库,现在只把极少的数据量导进去,就像往大海里面倒几桶水,其实改变不了大模型,相反可能越改越差。虽然我们的平台是open to everybody,我们把微调的功能开放出来,所有人可以去做微调,但如何确保微调之后就一定能实现更好的结果,目前还没有一个特别好的实践。”李冕表示。

“我们推荐客户通过prompt engineering和embedding的方式去做匹配,效果要比微调要好一些,比如万科,它并没有做特别多的微调,它也是通过prompt engineering以及embedding的方式,将物业管理中的一些分类工作交给Azure OpenAI,像门禁、下水道以及安保等问题,这些原来是人工来做的,可能大部分情况是对的,现在用AI分拣,试了一下,效果有一点点差距。AI没有取代人,但是极大辅助了团队,这是我们看到的一个案例。”李冕补充道。

值得说明的是,prompt engineering,即“提示工程”,是指由于大模型可能生成不准确或不当的文本,通过优化输入提示,引导大模型生成更加准确、可靠、符合预期的输出内容,进而实现各种应用场景的实际使用优化;而embedding则是指事先把预先设定好专有领域的问题和答案生成词向量,存入向量数据库,每次对话时先去向量数据库的搜索问题和答案,再交给大模型对问题和答案进行整理,最终再输出给用户,这种方式又被称为“检索增强”。

“只有像那种以前做过机器学习,打过标签,也失败过,知道微调中会碰到很多坑的客户,我们才会鼓励它们去做微调,但是一些传统的行业就很难,因为他们都不知道里面的坑有多深,一碰到问题就非常frustrated(沮丧懊恼)。因为人是有期望值的,领导说能不能调好,你说能,结果调了一个礼拜,花了大量的人力物力去组织、拿数据、打标签,效果还是不行,一个月之后领导就把它砍掉了。”李冕对21世纪经济报道记者表示。

(作者:李强 编辑:张伟贤)