AI大模型市场研究报告(2023)——迈向通用人工智能,大模型拉开新时代序幕简介经过大规模预训练的大模型,能够在各种任务中达到更高的准确性、降低应用的开发门槛、增强模型泛化能力等,是AI领域的一项重大进步。大模型最早的关注度源于NLP领域,随着多模态能力的演进,CV领域及多模态通用大模型也逐渐成为市场发展主流。政企的极大关注带动了行业领域大模型的高速发展,逐渐形成了多模态基模型为底座的领域大模型和行业大模型共同发展的局面。伴随基于大模型发展的各类应用的爆发,尤其是生成式AI,为用户提供突破性的创新机会,打破了创造和艺术是人类专属领域的局面。AI不再仅仅是“分类”,而且开始进行“生成”,促使大模型带来的价值进一步升级到人类生产力工具的颠覆式革新。同时,数据规模和参数规模的有机提升,让大模型拥有了不断学习和成长的基因,开始具备涌现能力(EmergentAbility),逐渐拉开了通用人工智能(AGI)的发展序幕。过去几年,国内外的AI厂商均在大模型领域有所布局。OpenAI在2019年发布了GPT-2大模型,国内互联网科技厂商也集中在2020-2022三年期间相继发布了自己的大模型。ChatGPT的发布,掀起了一波发展热潮,原有厂商基于自身大模型开始推出一系列生成式AI应用,并对外提供API接口。更多的创业公司、科研机构和新的科技厂商涌入该市场,发布相关的产品服务。大模型人气高涨,吸引了用户的关注,不仅是CIO、CTO等技术决策人员,CEO、CFO等业务决策人员也同样希望发挥此类模型在业务用例中的潜力。用户关注度的跃升成为对厂商自身能力的考验,前期已具备全栈大模型构建能力的厂商开始显现积累优势。为帮助用户了解国内大模型市场的发展情况、厂商格局和竞争地位,沙利文研究团队通过详实的访谈调研,对中国市场提供大模型产品服务的厂商进行了深入的分析和评估。1执行摘要来源:CNCF,沙利文整理全球知名大模型发布时间节点HuggingFace:BLOOMGoogle:Minerva(540B)清华:GLM-130BAI21Labs:Jurassic-1-JumboStabilityAI:StableDiffusionGoogle:ImagenMetaAI:OPT-175BOpenAI:DALL-E2DeepMind:ChinchillaDeepMind:AlphaCodeGoogle:Palm(540B)EleutherAI:GPT-NeoX-20BOpenAI:InstructGPTDeepMind:GopherMicrosoft&NVIDIA:Megatron-TuringNLG530BOpenAI:Codex百度:ERNIE-GEN(large)智源研究院:WuDao2.0NAVER:HyperClova清华&达摩院:CogViewAI21Labs:Jurassic-XEleutherAI:GPT-J-6B华为:PanGu-alpha智源研究院:WuDao-WenYuanEleutherAI:GPT-NeoOpenAI:DALL-EOpenAI:GPT-3175B(davinci)Google:MeenaMicrosoft:TurningNLGGoogle:T5-3BGoogle:T5-11BGrover:Grover-MegaNVIDIA:Megatron-LM(Original,8.3B)OpenAI:GPT-2百度:ERNIE3.02019-Jan2019-Apr2019-Jul2019-Oct2020-Jan2020-Apr2020-Jul2020-Oct2021-Jan2021-Apr2021-Jul2021-Oct2022-Jan2022-Apr2022-Jul2022-Oct2023-JanUnitedStatesUnitedKingdomChinaIndiaKoreaCanadaIsraelGermanyIndeterminate商汤:书生1.02023-Apr百度:文心一言大模型阿里:通义千问大模型商汤:书生2.5商汤:日日新大模型阿里:通义大模型关键发现点AI大模型的高速发展离不开底层技术支持和应用场景迭代。大模型作为AGI时代的曙光,相关厂商也将迎来广阔的发展空间。本报告将呈现从发展现状、驱动因素洞察AI大模型厂商竞争与发展关键点,并推演竞争格局的逻辑分析过程:•前瞻洞察:通向AGI的技术路径具有多元性,目前大模型是最佳实现方式。大模型具有强大的泛化性、通用性和实用性,能够降低AI开发门槛、提高模型精度和泛化能力、提高内容生成质量和效率等多种价值,实现了对传统AI技术的突破,并成为AGI的重要起点。进而将AI发展由数据飞轮升级到智慧飞轮,最终迈向人机共智。大模型和人类反馈的强化学习(RLHF)的结合,进一步重构了AI开发范式,进入大模型主导的软件2.0时代。另一方面,AI开发则形成新的“二八定律”,开发者的生产力将得到极大释放。•驱动因素:大模型“基础设施-底层技术-基础通用-垂直应用”发展路线逐渐清晰,国内各厂商加速战略布局,加大资金和技术投入,迎头赶上全球大模型产业化浪潮,本土化大模型迎来发展新机遇。整体上,行业驱动因素主要包含三个层面:(1)政策端:政策环境持续优化,赋能AI大模型市场高速发展。(2)供给端:下一代AI基础设施等快速发展,助力大模型应用落地。(3)需求端:AI市场高景气,大模型下游行业需求旺盛。•行业观点:大模型未来发展将趋于通用化与专用化并行、平台化与简易化并进。同时,MaaS模式将成为AI应用的全新形式且快速发展,重构AI产业的商业化结构生态,激发新的产业链分工和商业模式。未来,大模型将深入应用于用户生活和企业生产模式,释放创造力和生产力,活跃创造思维、重塑工作模式,助力企业的组织变革和经营效率,赋能产业变革。•关键成功因素:大模型面临算力需求大、训练和推理成本高、数据质量不佳等挑战。一个可对外商业化输出的大模型的成功,要求其厂商拥有全栈大模型训练与研发能力、业务场景落地经验、AI安全治理举措、以及生态开放性4大核心优势,才能保证其在竞争中突出重围。其中,全栈大模型训练与研发能力还包括数据管理经验,AI基础设施建设与运营,以及大模型系统和算法设计3个关键要素。•竞争格局:在竞争格局渐趋明晰的过程中,相关厂商需跨越技术、人才、资金等壁垒,在产品技术能力、战略愿景能力、生态开放能力三大维度上展开角逐。通过遴选,报告选择了5家大模型厂商,分别为商汤、百度、阿里巴巴、华为、腾讯,评价模型包含15个一级指标、56个二级指标,对厂商大模型的各个能力进行评估。•用户建议:通过此报告能够了解大模型厂商的竞争态势,关注领先厂商,内部创建大模型战略文件,明确其优势、带来的风险和机遇,以及部署路线图,针对具体的用例,权衡模型的优势和风险,并选择合适场景试点、评估大模型的应用价值。2目录3关键发现章节一AI大模型掀起时代浪潮,加速通用人工智能(AGI)时代的来临AI大模型是人工智能预训练大模型的简称,包含了“预训练”和“大模型”两层含义,二者结合产生了新的人工智能模式,即模型在大规模数据集上完成预训练后,仅需少量数据的微调甚至无需微调,就能直接支撑各类应用。这些模型通常具有多层神经网络结构,并使用高级的优化算法和计算资源进行训练,具有强大的泛化性、通用性和实用性,可以在自然语言处理、计算机视觉、智能语音等多个领域实现突破性性能提升。AI大模型是人工智能迈向通用人工智能的里程碑技术。以目前热门的ChatGPT为例,ChatGPT的最大贡献在于基本实现了理想LLM的接口层,能够使LLM自主适配人的习惯命令表达方式,由此增加了LLM的易用性,提升了用户体验。InstructGPT/ChatGPT首先意识到这个问题,并给出了相应解决方案,较之前fewshotprompting方案更符合人类表达习惯。AI大模型的内涵与特征来源:张俊林《由ChatGPT反思大语言模型(LLM)的技术精要》,沙利文整理对新数据的适应能力泛化性解决多个任务的能力模型能应用于不同的数据集或任务通用性应用时的可用性和效率模型能以合理的时间和资源,快速处理数据并做出决策实用性Transformer、GAN、CNN、RNN等架构通过海量数据进行预训练微调以应用于不同的场景解决各种复杂任务(以ChatGPT为例:ChatGPT是LLM与RLHF技术融合革新的生成式AI代表性产品,推动语言模型与人类意图的一致性,是从弱人工智能向强人工智能迈出的坚实一步)•以ChatGPT的发布为里程碑事件,AI的发展进入到了继突破工业红线之后的,以AGI为发展目标的全新通用智能时代。•大模型是通向AGI时代的最佳技术路径,并开始在以自动驾驶为代表的场景下所体现。同时,大模型也带来了全新的AI开发范式,基模型+人工反馈闭环的模式给开发者带来了新的“二八定律”。•生成式AI成为大模型能力应用的爆发点,以文生文、文生图等内容生成为代表的大模型应用快速增长,并逐渐成为日益完善的生产力工具。关键发现模型在从未见过的数据上能表现出良好的性能能力生成式AI:基于现有数据生成全新原创内容的模型大模型:基于大规模参数的人工智能预训练模型LLM:基于深度学习的自然语言处理技术ChatGPT:2022年11月OpenAI公司发布的基于LLM研发的人工智能聊天机器人4人工智能近年来高速发展,现已经进入了以AGI为代表的新里程碑阶段。随着AI基础设施逐步完善,深度学习技术不断进步,人工智能应用场景逐渐增多,过去模型参数规模和数据量也实现了大幅度增长,为NLP、CV等领域带来更强大的表达能力和性能。人工智能发展历程中主要有两大里程碑:里程碑一:2012年CNN获得ImageNet第一,标志着机器视觉识别能力开始逐渐超越人眼识别准确率,开启了人工智能革命。随着深度学习技术不断突破,诞生了一批“AI+场景应用”的专属模型,但是整体研发成本比较高、研发时间比较长。里程碑二:2022年ChatGPT的出现,掀起了又一波人工智能发展热潮,以大模型+RLHF为核心的技术落地意味着人工智能开启AI新范式。人工智能相关产业开始基于强大的基模型进行发展,通过人类反馈和强化学习不断解锁基模型的能力,以解决海量开放式任务,带来了新的研究范式。人工智能的发展历程GPT-4提供完全不同可能性的多模态模型,例如视频20121980sProlog&Lisp专家系统解答特定领域问题1990s机器学习算法互联网娱乐自动驾驶DALL-E2由文字生成高清原创图像2022StableDiffusion使用消费级显卡获取文本驱动的图像PaLM-E具象化多模态语言大模型CNN夺得ImageNet第一•正确率超越第二名近10%ChatGPT发布可以理解人类语言并生成类似人类的书面文本内容智慧城市AI新范式AI+场景应用AI突破工业红线高效的通用智能随着AI基础设施逐步完善,深度学习技术不断进步,人工智能应用场景逐渐增多,大模型参数量以指数级速率逐步提升,数据量随着多模态的引入也实现了大规模增长来源:沙利文整理人工智能发展进入以AGI为代表的新里程碑阶段智能手机智慧医疗超大模型,有人类反馈的强化学习5AGI技术能够精准识别人类情绪意图、理解人类语言、学习人类知识并进行类脑推理与创造。OpenAI的CEO山姆(SamAltman)对AGI的定义相当明确:如果AI模型具有一个“普通人”学习解决问题的综合技能,能够在任何领域变得优秀,那就拥有了AGI。大模型是目前通往AGI的最佳实现方式。以ChatGPT为代表的人工智能技术已经具备AGI的核心技术和特征,能够自动化地学习任何可以符号化的知识及信息,不断自我优化,充分理解和流畅表达人类语言,同时逻辑推理能力强,实现了具备一般人类智慧的机器智能。相较于过去AI应用与部署难以全面覆盖产业的短板,大模型能覆盖全产业流程的每个环节。以自动驾驶场景为例,在输入层,大模型能全链条覆盖感知环境,并生成大量实景图片。在输出层,解码器负责重构3D环境、预测路径规划、解释自动驾驶的动机等。大模型能实现自动驾驶感知决策一体化集成,更接近人的驾驶行为预判断,助于提升自动驾驶的安全性、可靠性和可解释性。通往AGI的技术路径多元,目前大模型是最佳实现方式(1/2)Q:我需要停车。A:左前方两个空车位,右前方三个空车位Q:前方能否靠右行驶?A:不能,右侧为公交专用道Q:此刻可以直行吗?A:需等待38秒才能直行通过例如:自动驾驶场景中常见的场景感知需求场景:驶离停车场后,通过红绿灯驶入大路,回避公交车专用道,到达目的地停车场找空车位停车。Q:如何驶离停车场?A:前方左转停车场标志信息空车位信息交通信号灯状态路面标识信息来源:AGICall,沙利文整理因果逻辑类人脑推理人类情绪意图精准识别通用认知模型预训练通过人类情绪意图的精准识别与反馈,可以规避常规机器学习过程中靠人工进行反馈的主动性、片面性、低效性基于情绪意图、因果推理的海量学习,形成灵活敏锐的通用认知结构,具备通用场景可用性模仿人脑因果推理过程,大幅提升机器计算效率,从底层机制解决人工智能对环境的适应性AGI优势AGI的优势与特点6AGI将实现从“数据飞轮”到“智慧飞轮”的演进,最终迈向人机共智。现有AI体系主要基于数据飞轮,AGI催生了新的研究范式——智慧飞轮,通过强化学习和人类反馈不断解锁基模型新的能力,以更高效地解决海量的开放式任务。数据飞轮:现有AI体系主要从前端获取大量数据并进行人工标注,通过更新后的模型反馈到前端,以获取高质量数据,但是研发时间长和成本高。智慧飞轮:AGI体系则将实现人与模型的互动,基模型将不断理解人的意图以解锁更多技能,并能实现自动化标注,成本约AI体系的1%,有助于推动数据进行快速迭代与优化,以输出更高质量的智慧内容。通往AGI的技术路径多元,目前大模型是最佳实现方式(2/2)来源:《Beyondtheimitationgame:Quantifyingandextrapolatingthecapabilitiesoflanguagemodels》,商汤,沙利文整理数据飞轮算法模型数据循环互动级升基模型1.解锁更多技能2.AlignwithHuman智慧内容的生成智慧内容:生成式AI,AIGeneratedContent智慧飞轮大模型将由数据飞轮向智慧飞轮升级演进大模型的缩放法则(ScalingLaw)和涌现性(EmergentAbility)大模型的缩放法则和涌现性与AGI的发展息息相关。缩放法则是指随着模型规模逐步放大,任务的表现越来越好(如图a所示);涌现性是指随着模型的规模增长,当规模跨过一定阈值,对某类任务的效果会出现突然的性能增长,涌现出新的能力(如图b所示)。当全部人类的知识被存储在大模型中,这些知识被动态连接起来时,其所具有的智能远超人们预期。7来源:商汤,沙利文整理“Software1.0”——DistributedAI“Software2.0”——CentralizedAI手工标注AI模型AI模型AI模型AI模型AI模型AI模型AI模型AI模型云基础设施业务逻辑业务逻辑AI超算基础设施模型迭代提示工程提示工程领域模型领域模型基模型+人工反馈闭环AI原生基础设施(AI高性能计算+大数据)模型微调AI软件开发进入全新范式大模型的出现,将重构人工智能生产范式。传统的软件开发模式是通过任务/业务数据集形成专属模型,小模型不断迭代,开发人员用明确的代码去表达程序执行的逻辑,而随着业务场景从通用场景发展到长尾、碎片场景,该模式则逐渐显现出开发成本高,精确度不佳等一系列挑战。在大模型的加持下,逐渐形成围绕大模型结合人工反馈强化学习为核心的软件开发新范式,通过模型微调的手段,可以基于超大规模基模型,打造出领域大模型或者行业大模型,进而覆盖更多行业自场景。与此同时,通过提示工程,只需用示例向计算机表达预期目标,计算机将通过神经网络自行找出达到目标的方法。传统软件开发时期,解决单一问题的深度学习方法与工业化小模型生产工具逐步成熟,现阶段在一些垂直领域仍会应用,如医疗影像、工业检测等。未来软件开发新范式将是AI大模型驱动的商业模式与产品设计的基础。人工智能的小模型时代下,解决单一问题的深度学习方法与工业化小模型生产工具逐步成熟。在大模型时代,在AI原生基础设施上,大模型即服务(ModelasaService)结合数据反馈闭环是未来人工智能大模型驱动的商业模式与产品设计的基础,在此前景下,新范式将会更加注重基础设施成本、算力与数据规模、以及实时用户大数据的反馈和迭代。人工智能生产范式发生转变,新的“二八定律”形成(1/2)8人工智能生产范式发生转变,新的“二八定律”形成(2/2)来源:DeepMind,沙利文整理基于大模型的代码生成(以DeepMindAlphaCode为例)新的“二八定律”形成,AI大模型将释放开发者的生产力。在传统软件时代,100%的计算机代码由程序员编写程序逻辑,计算机中约20%的指令承担了80%的工作。到小模型时代,AI模型可以替换20%的人工代码逻辑,但手工开发的业务逻辑仍占到80%。进入大模型时代,未来软件80%的价值将由AI大模型提供,剩余20%会由提示工程和传统业务开发组成,新的“二八定律”由此形成。大模型通过机器学习训练代码,直接生成满足需求的程序代码。原特斯拉AI总监AndrejKarpathy曾表示自己现在80%的代码由AI完成,而商汤内部实测日日新大模型提升代码编写效率约62%。大模型不仅能生成代码,补全必要的代码块,还能够保证一定的准确率。DeepMind的AlphaCode在Codeforces上托管的10个竞赛中总体排名前54%,清华大学开发的多编程语言代码生成预训练模型在HumanEval-X代码生成任务上取得47%~60%求解率。基于大模型的高精度代码生成,能够提高软件开发的效率,标志着人工智能向AGI更进一步。62%代码编写效率提升(内部实测)——商汤日日新大模型54%编程竞赛平台Codeforces上10个编程竞赛中排名——DeepMindAlphaCode47%~60%HumanEval-X代码生成任务求解率——清华大学CodeGeeX数据学习抽样及评估预训练Fine-tuning大规模抽样GitHubCodeContestsAIforAI释放软件开发生产力~80%AI编写代码占比以及准确率——OpenAI&GitHub&微软CopilotProblemsSolutionsCodeForcesProblems大量潜在的解决方案选定的小部分候选方案筛选&聚类执行&评估9伴随AI技术升级和大模型成熟,AI绘画与ChatGPT的成功破圈,生成式AI技术迎来发展拐点,行业关注度大幅提升。生成式AI是指基于大模型、生成对抗网络GAN等人工智能技术,通过已有数据寻找规律,并通过适当的泛化能力生成相关内容的技术,可生成如图像、文本、音频、视频等原创内容变体。例如,以ChatGPT、Midjourney、文心一格、商汤商量、Codex为代表的生成式AI应用拥有文本语言理解能力、涌现能力以及思维链推理能力,能够完成文学创作、新闻写作、数理逻辑推算、代码生成、图片生成等多项任务。目前,国内电商、游戏、文娱、设计等行业正在积极使用相关的生成式AI应用来提高自身工作效率,尤其以文生图应用为主。生成式AI不仅能够增强并加速下游多领域的设计,而且有潜力“发明”人类可能错过的新设计、新对象。生成式AI有生成大规模、高质量、低成本内容优势,在算力和算法支持下生成大量内容,生成的内容质量将持续超越UGC与PGC。未来有望为各行业提供内容支持并促进其内容繁荣,最大化释放内容生产力。文字生成属于发展成熟、易于跨界转化的赛道,而跨模态生成赛道的发展潜力最高。生成式AI应用根据模态划分为文字生成、音频生成、图像生成、视频生成、跨模态生成。语音合成、文本生成、图像属性编辑等技术应用目前较为成熟,跨模态生成、策略生成是高增长潜力的应用场景,在自动驾驶、机器人控制等领域有极高应用价值,随着未来技术不断发展成熟,预计3-5年可实现稳定落地。AI大模型技术创新,助推生成式AI应用场景加速落地来源:红杉资本,沙利文整理大模型发展及相关应用实现落地时间表2020年前202020222025?2030?2050?文字代码生成图像视频/3D/游戏垃圾邮件识别翻译基础问答基础文案写作起草初稿更长的文字完成第二稿艺术作品Logo设计摄影多行代码生成单行代码自动完成更长的代码更高的准确率多程序语言更多垂直领域垂直微调科学论文产品设计模型建筑概念模型基础/初稿视频及3D文件高于人类平均水平的终稿写作文本到产品(草稿)产品设计模型建筑模型第二稿产出比全职开发人员做得更好的文本到产品(终稿)AIRoblox产出基于个性化梦想的电子游戏和电影产出比专业艺术家、设计师、摄影师做得更好的终稿产出比职业作家写得更好的终稿可用的大模型:初步探索基本形成准备阶段10关键发现在“基础设施支撑+顶层设计优化+下游需求旺盛”三轮驱动下,AI大模型迎来了良好的发展契机。通过数据交互和任务反馈,优秀的大模型能够赋能各行各业开放任务,满足对未来AI应用的期待。展望未来,大模型“训练基础设施–底层技术–基础应用–垂直应用”发展路线逐渐清晰,随着底层技术逐步革新,基模型和领域大模型持续完善,大模型应用边界不断拓宽,将加速赋能交通、医疗、金融等各个行业和领域,引发一场以强人工智能和通用人工智能为代表的新一轮智能革命浪潮,大幅提高生产和生活效率,带来深刻的经济、社会和产业变革。优秀的大模型能够赋能各行各业开放任务来源:沙利文整理基模型智慧交通智慧零售智慧文旅娱乐互联网智慧医疗AI教育智能手机智慧楼宇智能汽车智慧金融任务反馈数据交互吃顶层设计优化基础设施支撑下游需求旺盛关键发现章节二大模型迎来发展新机遇,未来前景可期•人工智能的政策引导逐渐覆盖到大模型生态,并开始出台相应的生成式AI监管建议,进一步支撑大模型生态的有序发展;•大模型的神经网络架构和训练大模型的AI基础设施,均逐渐发展成熟,推动大模型的生产更加系统化和工程化;•下游企业用户的AI部署需求进一步规模化发展,急需在上游大模型支撑下,获得AI应用开发门槛降低,部署精度提高等基础价值,进而降低AI规模化部署的成本;•大模型的发展趋于通用化与专用化并进,平台化与简易化并进;•依托ModelasaService,大模型建立起面向政企、消费者群体等差异化的商业模式,并逐渐形成基模型、领域、行业大模型一体的商业化架构。112021-2025“十四五”规划强调国家战略科技发展的重要性,支持人工智能在多行业、多领域的融合发展,并出台规范类政策,促进人工智能产业健康发展“十二五”至“十四五”期间部分人工智能相关政策依托互联网平台提供人工智能公共创新服务,加快人工智能核心技术突破,促进人工智能在智能家居、智能终端、智能汽车、机器人等领域的推广应用从“十二五”到“十四五”规划,国家从宏观层面上对人工智能新技术、新产业给予巨大支持,顶层设计从方向性引导到强调落地应用与场景创新,进一步细化、深化。地方政府积极响应国家战略,加快规划人工智能产业建设,如北京市经济和信息化局发布《2022年北京人工智能产业发展白皮书》,支持头部企业打造对标ChatGPT的大模型,着力构建开源框架和通用大模型的应用生态。国家重视人工智能产业的安全可信和伦理秩序,两会期间科技部部长十天两提ChatGPT,强调规范科技伦理,趋利避害。国家近日出台人工智能相关管理条例,如《生成式人工智能服务管理办法(征求意见稿)》,进一步促进AI技术的规范应用和产业整体的高质量发展。政策环境持续优化,助力AI大模型市场高速发展来源:各政府部门官网,沙利文整理提出基于信息物理系统的智能装备、智能工厂等智能制造技术引领制造方式变革,加快推动新一代信息技术与制造技术融合发展,着力发展智能装备和智能产品,推进生产过程智能化2015.5国务院《中国制造2025》2015.7国务院《国务院关于积极推动“互联网+”行动的指导》2011–2015“十二五”规划重点提出产业结构调整以求得核心竞争力提升,推动基于互联网的人工智能相关应用2016–2020“十三五”规划强调人工智能为战略前沿领域,由顶层制定了分步走战略,并发布了人工智能相关的标准体系建设指南建立重大项目动态调整机制,综合把握国际科技前沿趋势,在人工智能等方面遴选重大任务,适时充实完善重大项目布局到2025年人工智能基础理论实现重大突破,到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心2017.7国务院《新一代人工智能发展规划》到2021年,明确人工智能标准化顶层设计,研究标准体系建设和标准研制的总体规则等,完成重点标准的预研工作,到2023年,初步建立人工智能标准体系2020.7中央网信办等五部门《国家新一代人工智能标准体系建设指南》2016.7国务院《“十三五”国家科技创新规划》瞄准人工智能等前沿领域,实施一批具有前瞻性、战略性的国家重大科技项目2021.3全国人大《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》推动人工智能场景创新对于促进人工智能更高水平应用2022.7科技部《关于加快场景创新以人工智能高水平应用促进经济高质量发展指导意见》围绕构建人工智能行业应用生态,支持一批基础较好的人工智能应用场景2022.8科技部《关于支持建设新一代人工智能示范应用场景的通知》对生成式人工智能产业给出包括定义、准入资格、责任义务和处罚措施等规定,支持算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源2023.4国家网信办《生成式人工智能服务管理办法(征求意见稿)》122018年从基础架构来看,Transformer是AI大模型演进的基础。Transformer由论文《AttentionisAllYouNeed》提出,是一个新的简单网络架构,遵循Encoder–Decoder架构流程来实现结果,完全基于注意力机制,摒弃了循环和卷积。Transformer模型结构与基于RNN模型结构相比,不仅提升了自然语言处理任务的精度和质量,而且可并行化程度更高,所需的训练时间明显减少,能够提升计算效率和资源利用率。目前Transformer已逐步取代LSTM等RNN模型,成为NLP问题的首选模型,并有逐步统一图像处理等领域的趋势。可以说,Transformer促成了GPT和BERT两大LLM模型主流技术的出现。BERT使用掩码语言模型,可以双向处理输入序列,适用于理解类或某个场景的具体任务。GPT使用自回归模型进行语言建模,适合生成类以及多任务场景。LLM应该具备自主学习能力,理解人类的命令,执行并完成尽可能多类型的任务,而生成模型更容易做好zeroshot/fewshotprompting方式的任务,因此当前几乎所有参数规模超过千亿的LLM模型都采用了GPT路线。AI基础架构及基础设施快速发展,助推大模型应用落地高效率、低成本、规模化的AI基础设施成长迅速,帮助夯实大模型基础。底层服务支撑层包含AI计算、存储、加速、容器核心套件,能够提供高性价比的算力,承载海量数据的处理、超大模型的训练和推理。AI开发平台层集成数据处理、模型开发、部署运行、资产管控等功能工具,能够围绕AI模型/算法的生命周期提供工具,连接不同层次开发者对AI模型设计、训练、部署等活动。大模型及服务层能够提供基础大模型,应用于下游多个场景中,且能够通过数据反馈实现模型的持续优化迭代。如商汤AI大装置、百度AI大底座、腾讯云新一代HCC高性能计算集群、字节-火山引擎发布的高速训练引擎等,能够提供大算力和大数据,实现高性能的模型开发应用。LLM研究的发展路径AI基础设施架构图底层服务支撑层AI开发平台层大模型及服务层AI计算AI存储AI加速AI容器数据处理算法开发模型训练应用部署ELMoBERTGPT1.0GPT2.0GPT3.0RoBERTaALBERTT5国内LLMGPT3.5LaMDAPaLMGopherOPTChinchilla2019年2018年2018年2019年2019年2019年2020年2022年来源:CNCF,《AttentionIsAllYouNeed》,张俊林,沙利文整理13AI大模型的技术架构通常涉及多个层次,可以分为基础层、技术层、能力层、应用层、终端层五大板块,其中核心技术层涵盖AI技术群和大模型的融合创新,为各行业深度赋能。基础层:AI大模型的基础层涉及硬件基础设施和数据、算力、算法模型三大核心要素。随着AI大模型规模的不断扩大,对计算资源的需求也在增加。因此,高性能的硬件设备、海量场景数据、强大的算力基础和升级迭代的算法模型成为了支持AI大模型发展的关键。深度学习模型的不断升级和迭代,增强了AI算法的学习能力;同时,开源模式将使AI大模型成为海量应用、网络和服务的基础。技术层:AI大模型的技术层主要涉及模型构建。目前,Transformer架构在AI大模型领域占据主导地位,如BERT、GPT系列等。AI大模型包括NLP大模型、CV大模型、多模态大模型等。这些模型采用预训练和微调的策略,先在大量无标注数据上学习语言或图像的基本表示,然后针对特定任务进行微调。能力层、应用层及用户层:在基础层和技术层的支持下,AI大模型拥有了文字、音频、图像、视频、代码、策略、多模态生成能力等,具体应用于金融、电商、传媒、教育、游戏、医疗、工业、政务等多个领域,为企业级用户、政府机构用户、大众消费者用户提供产品和服务。核心技术层协同发展,共同赋能AI大模型生态AI大模型的技术架构来源:CNKI,沙利文整理AI算力基础数据资源硬件设施外部合规数据数据标注结构化网络资源安全资源第三方合规数据数据整合AI芯片基础层能力层文字生成虚拟人/场景生成应用层用户层企业级用户政府机构用户大众消费者用户音频生成图像生成视频生成代码生成策略生成多模态生成...企业服务零售电商传媒/影视教育/科研工业游戏医疗政务金融服务技术层人工智能智能语音机器学习计算机视觉知识图谱自然语言理解智能文档理解视觉-语言语音-语言多模态检测与分割CV大模型图像生成图像表征视频表征视频生成图像分类图像与物体检测语义分割因果推断NLP大模型语音语义理解多语言模型语言理解与生成多模态对话文本语义与图结构开放域对话信息抽取与检索代码生成和理解算力资源储存资源云计算与云服务深度学习框架/开源模型模型训练/AI开发平台预训练大模型智能计算平台智能服务器多模态大模型AI模型生产工具14人工智能能够赋能经济社会发展各领域,下游各个领域的产业升级对大模型的需求持续走高。例如,在泛交通领域,人工智能能够在自动驾驶、智能座舱、运行管理优化等多个方面为汽车行业创造价值;在医疗方面,人工智能可以提高疾病检测的效率以及医学影像领域的智能化分析。据测算,2022年中国人工智能行业市场规模为3,716亿人民币,预计2027年将达到15,372亿人民币,有望在下游制造、交通、金融、医疗等多领域不断渗透,实现大规模落地应用。下游行业对人工智能需求呈现出碎片化、多样化的特点,从开发、精调、优化、迭代到应用都需要投入巨大的人力和财力,成本极高。而大模型能够向外赋能,包括通过开放API的形式,降低AI应用开发门槛,提高落地部署效率和精度等,进而降低AI规模化部署的成本,满足各行业场景的应用需求,进一步推动人工智能进入工业化发展阶段。中国人工智能行业市场规模,2021-2027EAI市场高景气,大模型下游行业需求旺盛2,6073,7165,3237,51610,53914,72915,73205,00010,00015,00020,000202120222023E2024E2025E2026E2027E+34%单位:[人民币亿元]AI大模型应用场景丰富AI大模型典型应用场景来源:头豹研究院,沙利文整理15AI大模型具有降低开发门槛、提高模型精度和泛化能力、提高内容生成质量和效率等多种价值,实现了对传统AI技术的突破。一方面,大模型可以帮助降低机器学习和自然语言处理应用的开发门槛,能够对复杂的模式和规律进行更准确的建模,通过不断地学习和更新自己的参数来提高其性能和准确度,提高模型的精度,更好地泛化到新的数据集和任务中。另一方面,大模型通常能够更好地泛化到新的数据集和任务中,可以提高内容生成质量和效率,例如生成对话、摘要、翻译等。除此之外,大模型的开源性和可复制性可以促进学术研究的发展和技术的普及,增强生态繁荣度,从而加速人工智能技术的进步和应用。来源:沙利文整理大模型的多种价值,将加速人工智能的技术进步和规模化应用大模型的五大基本价值提高模型精度大模型通过学习大量数据和任务获得广泛知识,捕捉更多细节,更好地泛化到新的数据集和任务中。增强模型泛化能力大模型拥有更多的参数和更深的层次结构,能对复杂的模式和规律进行准确建模,并通过不断学习和更新自己的参数提高性能和准确度大模型的开源性和可复制性能够聚合开发者、高校、实验室等多方资源,在促进学术研究的发展和技术普及的同时,加速人工智能技术的进步和应用。增强生态繁荣度大模型通过自动学习更多的特征和规律,减少手动特征工程的需求,使开发者能更轻松地构建高质量的模型。降低开发门槛大模型可以更好地捕捉和分析信息,用于生成高质量的内容,提升生成效率,例如生成对话、摘要、翻译等。提高内容生成质量和效率大模型的基本价值16AI大模型未来发展将趋于通用化与专用化并行。通用化是指模型能够适用于多个领域和任务,而专用化则是指模型被设计用于特定领域或任务。AI大模型将逐渐实现在多个领域和任务中的通用性和灵活性,未来会有更多模型被设计和优化用于特定的任务和领域。受制于数据规模和模型表达能力的约束,传统模型往往只能有针对性地支持一个或者一类模态,而无法支持其他任务。相比之下,AI大模型得益于其“大规模预训练﹢微调”的范式,可以很好地适应不同下游任务,展现出强大的通用性。通用大模型即为多模态基模型,偏重统一架构、统一知识表达、统一任务。通用大模型能够使用统一的模型框架,并采用相同的学习模式,构建可适用于多种模态的通用词表,将所有任务统一成序列到序列任务。例如,GPT系列模型在自然语言处理领域的多个任务中都取得了非常好的表现,包括文本生成、问答、摘要、翻译等任务。同样,BERT模型也被证明可应用于多种自然语言处理任务中,包括文本分类、命名实体识别、问答等。专用大模型则通过通用预训练和专用预训练实现业务场景应用。专用大模型包括领域大模型(如NLP、CV等)和行业大模型(如金融、能源等)。例如,近期彭博社发布了专门为金融领域打造的大型语言模型(LLM)——BloombergGPT。BloombergGPT是专门为金融领域开发的一种语言模型,可以更好地处理金融领域的数据和任务。大模型将趋于“通用化”与“专用化”并行来源:华东政法大学,CNCF,沙利文整理专用大模型领域大模型应用需求基础框架反哺技术技术落地表征学习迁移学习多模态单模态从算法只能基于一种模态学习并只能应用于该模态到可以学习并应用于多种模态从算法只能处理一种模态到可处理多种模态单模态向多模态转变专用领域预训练多模态基模型通用化与专用化并行17基于模型开发、场景适配和推理部署,AI大模型未来将趋于平台化与简易化并进,将形成全能简易开发服务平台。大模型发展趋于平台化,主要是指提供AI模型开发和应用的完整解决方案。例如OpenAI的GPT-3Playground,为开发者和研究者提供了在线使用GPT-3模型的平台。在AI加持下,GPT内部插件带来的用户体验优于直接使用外部的原生应用,用户的使用场景得以迁移到GPT模型内部。目前插件商店内部的应用主要由OpenAI邀请的第三方开发,包括办公协作、电商、旅游等。随着外部成熟应用的交互圈层扩大,GPT与用户日常生活将结合得更加紧密,参考移动互联网时代的端转手趋势,主流应用即将展开向AI平台的迁移,即迅速适应并布局GPT内的AI插件,探索AI加持下自身应用的新场景。这些应用可以依赖GPT的AI技术提高用户体验,而GPT则借助这些应用吸引更多用户,网络效应进一步加强了这种相互促进的趋势,从而提升GPT平台的生态价值。大模型的简易化则指使模型的使用更加简单易懂。AI大模型突破传统AI适用性弱的局限,传统的AI模型通常只针对性的针对一个或者一类任务,而AI大模型中大规模的参数量可以提升模型的表达能力,更好的建模海量训练数据中包含的通用知识,通过“预训练+微调”,AI大模型已经具有强大的通用性,例如,ChatGPT3.0通过prompt-tuning免去微调步骤,为开发者和用户提供了更加便捷的AI技术应用方式。大模型将趋于“平台化”与“简易化”并进来源:OpenAI,沙利文整理大模型平台化与简易化并进全能、简易开发服务平台微调工具部署工具场景适配便捷微调能力低参数调优能力开发工具模型开发数据增强和清洗能力并行计算能力存储优化能力自适应分布式训练能力弹性容错训练能力推理部署大模型和小模型无缝联动能力自适应分布式推理能力自动化压缩能力加密部署能力18大模型发展应用路线逐渐清晰大模型“训练基础设施–底层技术–基础应用–垂直应用”发展路线逐渐清晰。大模型以训练基础设施及底层技术构成的技术底座为基点,在海量通用数据上进行预训练,集成多样化的AI核心技术,构建具有泛化能力的多模态基大模型以及领域大模型,如CV大模型、NLP大模型、多模态大模型等。随着多模态能力的演进,CV领域及多模态通用大模型将逐渐成为市场发展主流。领域大模型能够结合垂直场景及应用行业需求进行模型微调和应用适配,结合ToC端用户交互数据或ToB/ToG端行业专业知识,为下游C端业务场景和B/G端商业生态进行技术赋能,助力大模型不断向上生长。国内大模型商业应用大幕徐徐拉开,厂商加速战略布局,加大资金和技术投入,持续打磨大模型,迎头赶上全球大模型产业化浪潮。大模型发展路线逐渐清晰,MaaS将重构商业化生态(1/3)来源:沙利文整理训练基础设施及底层技术基础应用B/G端垂直应用大模型厂商向B端和G端客户提供大模型的各项AI技术能力的调用,实现行业大模型及细分场景大模型的应用,如智慧城市、智慧生活、智能制造、智能汽车等•多模态基模型基于Transformer架构,而RLHF能够帮助基础大模型不断发展,解锁新的能力•领域大模型包括CV大模型、NLP大模型、多模态大模型等,未来CV大模型以及多模态大模型将迅速发展,成为主流大模型•训练基础设施,如计算网络存储、GPU卡等,能够有效支撑大模型的开发训练;•底层技术,如深度学习框架、自动化数据标注等底层技术能够助力夯实大模型底座C端垂直应用打造泛化通用能力以页面程序方式和用户互动,迭代问答式数据反馈,落地形式有软件程序如插件及App、智能硬件等,具体场景有商业办公、商业文档、搜索引擎、语音助手等推进商业化落地19MaaS,即ModelasaService,能够降低AI应用开发门槛,重构AI产业的商业化结构生态,激发新的产业链分工和商业模式不断涌现。MaaS将可能成为未来大模型的主流商业模式。MaaS模式将由基础层、中间层以及应用层三部分组成:•基础层将提供多模态基模型以及CV、NLP、多模态等领域大模型,输出泛化能力,对外开放大模型的调用接口;•中间层将付费使用接口,直接调用基础模型,基于行业特色数据与知识进行精调开发行业大模型,精准适配AI具体应用需求,如汽车领域的自动驾驶、医疗领域的蛋白质解析等,以及企业私有模型;•应用层上将进行多样化的SaaS应用以及新一代智能硬件的开发,杀手级应用、现象级产品未来将有望出现。基础层需要具备大算力、大数据、强算法等核心技术能力,是科技巨头以及部分科研机构高校的竞赛。基础层以上,包括中间层和应用层,将存在巨大的商业机遇,不仅限于科技巨头,各类公司都将有机会拿到入场券。创业公司更多的机会也在基础层以上,在大模型精调、应用开发、边缘模型部署等领域参与到MaaS商业化生态,例如基于StableDiffusion设计的Riffusion音乐创作工具等AI-enabled的各类软件。能够实现最后一公里商业化落地的公司更有望脱颖而出。大模型发展路线逐渐清晰,MaaS将重构商业化生态(2/3)MaaS产业一体化架构来源:阿里云栖大会,昆仑芯,沙利文整理吃吃吃计算/存储/网络/数据库云/GPU/XPU中间层:行业大模型基础层:多模态基模型NLP大模型CV大模型多模态大模型AI4S大模型等SaaS应用智能硬件基于API接口优化微调提供SDK产品/一体化解决方案变现应用层吃基础层:领域大模型多模态RLHF20MaaS模式在B/G端和C端的商业化落地有所区别。•C端用户量巨大,工具使用门槛较低,落地以及未来成长速度更快,“应用商店”等创新商业模式不断涌现。通过“对话+插件”形式将大模型单点工具接入厂商自有或第三方应用,将打造新的用户交互界面和入口。目前Chat-4已应用于微软必应搜索引擎,ChatGPT接入第三方网上购物及机票预订等平台、阿里巴巴“通义千问”大模型将连接旗下所有产品。插件形式将覆盖用户生活的方方面面,打造完整的生态系统。而随着Adept等无需App交互,自动执行操作响应用户需求的产品出现,未来MaaS模式下C端商业化落地形式将不断创新,颠覆传统,具有广阔的想象空间。•B/G端需要针对行业领域和业务场景进行大量工程工作,尤其是传统行业的知识获取和积累需要较长时间,即使是同一个行业下,细分场景的痛点不同,AI大模型渗透率也有明显差异。应用场景碎片化的特点导致低成本、易用、泛化能力较强的能力平台构建需较长周期,但B/G端客户付费能力更强,未来盈利空间及成长空间广阔。据分析,从美国市场看,目前ToB应用的数量大于ToC应用,通用工具数量大于具体场景应用数量主要集中于市场销售、客服/CRM/CEM、企业内部生产力工具等。未来B/G端市场,MaaS落地的主流商业模式将按照数据请求量和实际计算量计算。通过对外开放大模型的API调用接口,让开发者灵活地使用基模型服务,典型案例是GPT基于对外API的收费模型。基于此,垂直行业厂商可以提供SDK产品或一体化落地解决方案变现。大模型厂商也可以通过推出ToB/ToG的单点工具,按文本、图像或语音等不同形式的内容量收费,如DALL·E可以根据每张图片的分辨率和请求计算量计费。未来C端市场,MaaS落地的主流商业模式为软件订阅费用,以及第三方App的推广和订阅分成费用。基础层大模型厂商可以基于大模型推出类似ChatGPT的单点工具,以月度或年度订阅费提供产品功能使用,为用户提供灵活和便捷的购买方式。未来盈利模式也将可能向AppStore式靠拢,通过排行榜、广告位等收取费用。大模型发展路线逐渐清晰,MaaS将重构商业化生态(3/3)来源:拾象科技,沙利文整理ToC方向大模型将成为“操作系统+应用超市”ChatGPT通义千问21关键发现章节三AI大模型挑战犹在,企业发展仍需迎难而上技术和安全伦理等层面的多重挑战,成为大模型发展和应用道路上的阻碍,考验大模型厂商的技术和AI治理能力。大模型厂商在数据管理、AI基础设施建设与运营、模型系统和算法设计等全栈大模型训练与研发能力的积累对于大模型的开发落地不可或缺。基于繁荣的开源生态,厂商近年来业务场景落地经验的沉淀,能够孵化迭代更优秀的技术产品。在先进且持续的AI安全治理举措的加持下,AI大模型厂商能够规避AI技术对伦理秩序的破坏,推动大模型的商业化落地。掌握关键成功因素,大模型厂商将构筑竞争优势,在市场上展开角逐。•AI大模型面临算力需求大、训练和推理成本高、数据质量不佳、隐私和安全问题等挑战;•大模型考验全栈大模型训练与研发能力,如数据管理经验、算力基础设施工程化运营能力、底层系统优化和算法设计能力等,而厂商过往技术积累的know-how能够成为关键优势;•AI大模型厂商积极探索大模型的商业化应用,在实践中积累海量多元数据以及业务场景落地经验,能够帮助大模型加速走向产业;•大模型厂商构建数据安全等AI安全治理举措,能够保证AI大模型进入市场并商业化应用的可靠、可信,推动AI技术可持续发展;•生态开放性的高低程度决定了大模型厂商能否成功打造“技术-商业”闭环。关键发现来源:沙利文整理AI伦理安全问题数据质量不佳算力需求大算法可解释性差训练成本高昂大模型面临挑战企业关键成功因素AI基础设施建设与运营业务场景落地经验AI安全治理举措生态开放性构筑竞争优势…大模型厂商需在技术、生态、AI治理等方面应对AI大模型发展的多重挑战全栈大模型训练与研发能力模型系统和算法设计数据管理经验22“算力刚需+成本高企”拔高行业进入门槛。大模型的训练成本包括GPU等算力芯片成本、服务器成本、标准机柜成本、训练时长内的电力消耗费用、人力投入费用等。以ChatGPT为例,ChatGPT每日处理1300万独立访问量,需要3万+片NVIDIAA100GPU以庞大的计算和存储资源支持,初期投入高达8亿美元。而据估算,1750亿参数的GPT-3的总训练成本高达1200万美元。“优数据+强算法”为大模型开发训练的两大关键点。FromBigDatatoGoodData,以数据为中心的AI对数据质量、数据隐私和安全提出更高的要求。大模型的输入数据通常有重复、文本格式多样化、非文本内容多等噪声问题,容易对大模型的训练及模型质量造成不良影响。而除公开训练文本数据集外,其他输入侧的数据需要数据主体的授权,且大模型过度依赖训练数据,在数据输入层面可能会存在舆论操控、虚假信息、隐私泄露等风险。此外,算法能力的持续优化、算法的可解释性都将对厂商的技术能力和AI治理能力产生更大的考验。高稳定性需求考验厂商实操经验及系统工程能力。训练过程中易出现不稳定现象,如训练不收敛、调试困难等。训练时大模型还常遇到“梯度爆炸”或者硬件故障造成机器过载迭机,以前迭机频率是10分钟一次,会牵连整个系统受到影响,成为厂商技术经验的挑战之一。AI大模型发展面临多重挑战来源:《Computetrendsacrossthreeerasofmachinelearning》,智源社区,中国金融,张俊林,GoogleT5,沙利文整理数据质量对大模型的训练效果影响较大DatasetSizeGLUECNNDMSQuADSGLUEEnDeEnFrEnRoC4745GB83.2819.2480.8871.3626.9839.8227.65C4,unfiltered6.1TB81.4619.1478.7868.0426.5539.3427.21RealNews-like35GB83.8319.2380.3972.3826.7539.9027.48WebText-like17GB84.0319.3181.4271.4026.8039.7427.59Wikipedia16GB81.8519.3181.2968.0126.9439.6927.67Wikipedia+TBC20GB83.6519.2882.0873.2426.7739.6327.57数据质量高的前提下,尽管数据规模不大,效果也比较好数据量最大,但噪音多对效果产生负面影响里程碑式机器学习系统的训练计算需求(FLOPs)训练算力(FLOPS)发布日期23超大规模模型全栈大模型训练与研发能力,如数据管理经验、AI基础设施建设与运营、大模型系统和算法设计等,而厂商过往技术积累的know-how能够成为关键优势。厂商过往大量的实验研究和经验积累,能够在大模型数据的标注、评测、调优,数据训练时的先后顺序以及选择性上起到重要作用,并基于此训练出优秀的大模型。厂商的充足基础计算资源储备将成为大模型的强力底层支柱。大模型的基础条件是算力资源,模型训练往往需要几千甚至上万张卡来完成,而A100等海外芯片的储备、国产芯片供应把控、自研算力基础建设等,能够有效支撑厂商训练开发大模型。厂商在大规模分布式训练的运行和调度的工程经验,能够帮助提升模型训练的速度和精度。AI计算能力不仅仅依赖于算力堆叠,随着数据量的不断增加,超大模型训练需要提升训练速度,减少训练时间,因此需要将数据和计算负载切分到不同设备上,降低设备间通信所需的代价,在多张卡上实现超大规模并行计算。在模型并行、流水并行、数据并行等分布式训练的基础上,还需要考虑计算、存储、网络以及上层的框架等各个环节全面协调配合,考验的是厂商全栈全流程的综合能力。厂商过往的技术以及工程经验积累能够能够在通讯、计算、调优等方面起到关键作用。厂商优秀的系统架构和高性能网络架构设计能够高效连接GPU,保证多卡并联的计算效率,而硬件集群管理和软件框架设计能够提高硬件的可靠性和软件的容错度。例如,商汤在底层训练系统优化、模型设计、模型训练、模型优化、模型服务等方面均储备了技术能力和经验知识,目前在千卡级能够达到90%以上的线性度,并且可以做到七天以上的不间断稳定训练;腾讯新一代HCC高性能计算集群基于自研的星脉高性能计算网络、存储架构、TACO训练加速引擎等,能够带来3.2T超高互联带宽TB级吞吐能力和千万级IOPS。全栈大模型训练与研发能力成为厂商关键优势之一来源:ZOMI酱,沙利文整理大模型训练的目标公式数据并行DP模型并行MP流水线并行PP服务器架构通讯拓扑优化精度训练算子融合梯度累加单卡速度:由单块AI加速芯片的运算速度、数据IO决定加速芯片数量:数量越多,模型训练越快,但随着训练数据集规模的进一步增长,加速比的增长不明显多卡加速比:由计算、通讯效率决定总训练速度∝单卡速度加速芯片数量多卡加速比24AI大模型厂商积极探索大模型的商业化应用,在实践中积累业务场景落地经验和海量多元数据,能够帮助大模型加速走向产业。在ChatGPT掀起大模型浪潮前,国内AI大模型厂商已有各自的预训练模型,基于深耕的业务场景探索大模型的商业化落地应用。百度2019年发布自研的中文预训练语言大模型ERINE1.0以及ERINE2.0,能够直接在度小满的风控识别等性能不敏感的场景中直接使用,也可以应用于其搜索引擎业务,在搜索问答Query识别和QP匹配场景中,赋予召回系统强大的语义匹配能力,提升召回率约7%。而阿里达摩院在2021年发布超大规模多模态预训练模型M6,结合自身电商背景,通过M6大模型优异的文生图能力,将其落地于天猫虚拟主播、服饰设计等40多个创造相关场景,应用于支付宝、淘宝、犀牛等平台,参与跨模态搜索、文案撰写、图片设计等工作。厂商前期的业务实践能够积累多元化的海量数据,不断训练迭代大模型,推进大模型的商业化落地。数据一方面来源于公开训练集,另一方面则源于原有业务沉淀的私有数据,如百度的搜索引擎数据、百度智能云的行业数据,商汤的自动驾驶图像数据等。厂商的业务积累能够储备业务场景相关的数据,在数据量和丰富度上掌握优势,实现对大模型更进一步的专业训练,满足特定领域对准确度等方面的要求,推动大模型在行业级、产业级中的应用赋能。业务场景落地经验为大模型应用打下商业基础来源:百度云智教育,21世纪经济报道,沙利文整理百度ERNIE模型蒸馏案例——搜索问答Query识别和QP匹配①Fine-tune①Fine-tune小规模人工标注数据海量挖掘数据小规模人工标注数据海量点展日志QP样本SoftmaxFullconnectBOWEmbeddingQueryCosFullconnectBOWEmbeddingQueryFullconnectBOWPara②Labelpropagation②Labelpropagation③Train③Train准确率不变,影响面相对提升10%准确率90%,召回率绝对提升6%ERNIE召回率:7%25大模型厂商构建AI安全治理举措,有助于AI技术的可靠、可信以及可持续发展。厂商在推出大模型前充分的AI安全治理的思考和持续性的洞察输出,能够保证在大模型推向市场时,即将其纳入原有的规范流程中,以实际行动践行并不断更新理念,进而构筑治理闭环。企业在人工智能领域具备覆盖全生命周期的数据安全能力是应对数据风险的基础。大模型厂商在数据采集、数据分析、数据处理、数据资产管理等环节建立相应的责任和评估机制,防止数据滥用、恶意入侵等风险,进一步实现数据的高质量利用,促进大模型的准确度以及可信性。厂商AI伦理研究和敏捷治理工作能够促进AI大模型健康发展。由于AI技术发展迅速,而法律制度的建立需要更加谨慎的考量,往往政策出台落地需要较长的时间,因此企业需要自我规制,承担更大的社会责任感,通过加强制度建设、伦理联合研究、伦理风险审查及风险控制机制设立等措施,统筹推进伦理治理工作体系建设,并与政府、学术研究院等多方合作建立治理框架,系统性应对数据、算法及应用等不同层面的人工智能伦理风险,推动AI大模型及AI行业可持续发展。AI安全治理举措规范大模型商业化落地阿里数据安全成熟度模型来源:未来科学论坛,阿里巴巴,商汤,沙利文整理5级:持续优化4级:量化控制3级:充分定义2级:计划跟踪1级:非正式执行数据采集安全数据传输安全数据存储安全数据处理安全数据交换安全数据销毁安全能力成熟度等级维度安全能力维度商汤AI治理理念以人为本追求不同文化之间的道德共识,尊重、包容、平衡全球不同国家地区的历史、文化、社会、经济等方面的发展差异,确保人权和个人信息保护,以及无偏见地应用技术可持续发展促进社会、经济、文化及环境的可持续发展,崇尚开放及包容合作,积极探索创新及可持续的人工智能治理模式的应用技术可控确保人工智能由人类开发、为人类服务、受人类控制,相应地,其人工智能应用导致的伦理责任也应由其控制者(人类)承担26大模型的生态开放性高低程度决定了大模型厂商能否成功打造“技术-商业”闭环。所谓的开放性能够体现在大模型的开源、生态圈的打造等方面。一方面,大模型的全面开源和基础设施能力的开放能够孵化更强的技术产品,加速商业化落地。大模型厂商通过投入自有研发资源,主动拥抱开源体系,接受监督,升级为开源社区的引领者,而庞大的开发者群体能够以贡献源代码的方式为大模型注入创新动力,完善大模型底层架构的同时,提高大模型架构的拓展性,满足多生态的互相调用。如智源研究院建立FlagOpen大模型技术开源体系、已在通用视觉开源平台OpenGVLab开源的商汤的“书生2.5”多模态通用大模型、阿里巴巴达摩院推出的中文模型开源社区“魔搭”(ModelScope)等,均致力于以开源的形式加速大模型的发展迭代,推动通用AI技术的规模化应用。另一方面,大模型生态圈的建立能够提高产品兼容性,并以数据反哺模型加强迭代。从产业链来看,大模型和上游合作能够提高大模型的对软硬件适配性,大模型和下游的生态合作能够拓展C端和B/G端的应用,以更多的用户需求反馈规划基础模型和行业模型的迭代方向,增强用户和客户持续使用的信心,帮助大模型厂商构筑竞争壁垒。长期广泛地适配各种类型的场景,开发者、高校、国家实验室、算力联盟机构等生态的汇聚,能够改善模型能力,提升AI大模型的价值和意义。生态开放性帮助大模型厂商打造“技术-商业”闭环来源:智源研究院,沙利文整理非营利研究机构北京智源人工智能研究院FlagOpen飞智大模型技术开源体系FlagStudio基于大模型技术的生成式AI应用FlagBootAI应用微服务框架开源项目FlagAI大模型算法开源项目FlagData数据工具开源项目覆盖多种数据筛选、数据生成、数据分析、数据评估的工具集合基础大模型算法(语言、视觉、多模态)FlagEval大模型评测开源系统覆盖多种模态、多种评测维度FlagPerfAI系统性能评测开源项目与多个厂商共同开源,支持多种框架多领域下游任务(对话、分类、检索等)大模型的各种优化工具训练并行推理加速大模型加速技术模型小型化技术微调技术模型仓库数据仓库27关键发现章节四中国AI大模型主要厂商竞争力评价厂商总览来源:沙利文整理国外玩家本土玩家互联网公司科技公司创业公司高校硬件公司浪潮信息:源1.0大模型于2021年9月28日发布,具有2457亿参数,是中文语料AI模型最新进展:于2023年4月正式推出通义千问大模型华为:盘古大模型于2021年4月正式对外发布盘古预训练大模型腾讯:混元大模型于2022年4月首次对外披露混元AI大模型研发进展百度:文心大模型最新进展:于2023年3月正式发布文心一言大模型商汤:日日新SenseNova大模型体系提供自然语言、内容生成、自动化数据标注、自定义模型训练等大模型及能力,及一系列生成式AI应用昆仑万维:昆仑天工大模型于2023年4月17日正式发布千亿级大语言模型“天工”澜起科技:孟子大模型于2023年3月14日正式发布了“类ChatGPT”的语言生成模型——孟子Mchat可控大模型科大讯飞:1+N认知智能大模型OpenAI:GPT-4GPT-4于2023年3月14日发布,是千亿级参数的多模态预训练模型,能够支持图像和文本的输入Anthropic:ClaudeClaude于2023年3月14日发布,是Anthropic开发的类似ChatGPT的聊天机器人,使用的是constitutionalAI的偏好模型Google:PaLM-EPaLM-E于2023年3月10日发布,是一种多模态视觉语言模型(VLM),具有5620亿个参数,集成了可控制机器人的视觉和语言能力Naver:HyperCLOVA与三星电子合作,于2021年5月发布,超过2000亿个参数的超大规模模型;97%使用的是韩文语料,计划23H1基于大模型推出SearchGPTKakao:KoGPT于2021年发布,专注于开发基于AI的图像创建技术和医疗保健技术LG:Exaone于2022年12月发布,拥有3000亿参数,使用图像和文本数据的多模态模型,是目前韩国参数规模最大的模型,用于生物医药和智能制造行业Meta:SAM、LLaMA视觉模型SAM:于2023年4月发布,通过精细标注,识别分割画面上的指定物体。大型语言模型LLaMA:于2023年2月发布,包括4种参数规模快手:K7大模型百亿级多模态内容理解大模型Pluto,高效视频相似度计算王慧文创立光年之外前商汤员工创立MiniMax创业黑马子公司数智云科与达摩院签订战略合作协议,致力于打造对标ChatGPT的中国本土化大模型实验室阿里巴巴:通义大模型将于2023年5月6日正式发布杨植麟创立循环智能周伯文创立衔远科技唐杰创立智谱AI,现为CTO蓝振忠创立西湖心辰28本次评估模型设立“中国市场落地”、“全栈能力”“商业基础”、“产品市场”、“沙利文研究视野”五项基线,同时满足这五项基线要求的大模型厂商,将入围竞争力评估。中国市场落地:截止目前,海外大模型厂商尚未在中国落地,其产品服务和生态圈打造等关键能力在中国市场均有缺失,而非官方渠道使用相关服务的企业将面临高风险。例如,OpenAI尚未向中国用户开放ChatGPT及GPT-4服务,类似的情况同样出现在谷歌、Meta等大模型厂商提供的相应服务上。相较而言,接入国产及自主研发的大模型更加现实、稳定且具有可控性。全栈能力:大模型服务考核厂商从算力基础设施、深度学习框架到算法设计优化的全栈大模型解决方案能力,以及相应的工程化和运营经验与水平。因此,入围的厂商应具备相关全栈能力,如应有自建且自运营的算力基础设施、领先的算法设计等能力。商业基础:大模型厂商在技术层保持投入的同时,还应拥有大模型商业输出能力的积累,将大模型技术赋能现有业务之中,积累行业know-how和应用认知,应对大模型市场的爆发性增长和颠覆式创新时具备稳定性。产品市场:在行业赛道日趋拥挤的情况下,厂商目前需已有成形的大模型和商业化产品,入场竞争博弈,保持先发优势,后续以获取的用户和行业数据不断迭代优化大模型。沙利文研究视野:本篇报告将集中于沙利文认为重要的,并且有大量企业客户关注和向沙利文问询的大模型厂商,其市场影响力较大,且发展方向符合沙利文洞察的大模型行业未来趋势。评价门槛来源:沙利文整理综合竞争力评价的五大基线1中国市场落地大模型厂商产品的全部功能需要在本土范围内可用2全栈能力大模型厂商需要有能力打造AI基础设施,提供“算力-框架-模型-应用”全栈的AI大模型解决方案3商业基础大模型厂商需要具备一定量的商业业务基础,能够依托行业know-how和数据资源推动大模型在各类商业场景中的落地4产品市场厂商目前需已有成形的大模型和推向C端或B/G端市场的商业化产品,基于此能够进一步扩大使用用户数量,并打造真实的数据循环帮助训练迭代大模型,保持竞争优势5沙利文研究视野大模型厂商市场影响力较大,受关注程度高,且发展方向符合沙利文洞察的大模型行业未来趋势29评价模型及指标体系维度一级指标二级指标权重产品技术能力训练数据针对大模型训练的数据管理经验;训练数据集的多样性及规模情况;数据采集、标注、清洗能力;数据标注团队及规模15%算力支撑自主运营智算中心情况;算力基础设施稳定性表现;训练任务调度与分布式训练、并行计算能力;计算、网络与存储针对大模型的优化举措20%模型开发自研深度学习框架;大模型工具链完整性;模型即服务能力;模型部署优化策略;提升AI开发者效率的工具等20%算法设计榜单评测成绩(如ImageNet、COCO);大模型的设计、训练、以及相应的优化措施;大模型底层训练系统优化措施,如混合精度优化、模型并行优化等;多模态基模型、领域大模型(如CV、NLP)、行业大模型的布局情况20%应用实践大模型支持的服务形式,是否开放API接口;大模型Serving布局与效果表现;在生成式AI、自动驾驶、AIforScience等新兴领域赋能表现和应用布局;在智慧城市等传统领域的赋能与效果10%使用测评针对内容生成大模型测试其归纳总结、内容创作、逻辑推理、分析解答;代码生成、中文理解、以及多模态等能力;针对图片生成大模型测试其图片生成时间、文本理解、风格广度、图片质量等表现5%专业服务大模型训练各个环节的支持、专家服务;大模型训练相关的运维保障能力;客户体验及客户满意度等10%•产品技术能力:训练数据、算力支撑、模型开发等多个维度决定了AI大模型的性能效果和应用表现。产品能力越强,则证明该厂商大模型的底层技术越坚实可靠、应用服务表现越好。•战略愿景能力:主要从风险缓解措施、市场认知与理解等多个评价指标衡量大模型厂商的战略愿景。此维度得分越高,代表厂商战略愿景完整性越高。•生态开放能力:主要从生态开放性、生态体系建设、联合创新这三个维度来评价大模型厂商的生态能力。生态能力越强,则证明该厂商大模型的开放性程度越高、产业协作能力越强。三方维度诠释主要厂商综合竞争力30评价模型及指标体系维度一级指标二级指标权重战略愿景能力风险和缓解措施针对性的风险和缓解组织保障;安全可解释的研究投入和洞察;安全认证、等保测评;前沿安全技术的应用,如鲁棒性检测等;全生命周期的安全措施保障,从数据采集到模型退役25%市场认知与理解对市场买家需求的理解情况,并将其转化为产品和服务的能力;大模型相关产品研发与发布的时间节点;大模型市场叙事逻辑与战略定位的完整性25%市场营销表现营销洞察及产品定位;市场动态变化的应对能力;市场营销执行力;市场关键信息的清晰度与差异化情况等20%销售战略与执行大模型的产品化输出与销售策略制定;相应的销售组织建设与资源投入;大模型商业化策略的设计与创新;垂直行业的认知与布局;大模型出海能力10%创新积累与发展公司研发投入;大模型技术沉淀与创新性;人工智能论文、专利数量与表现等10%人才储备与发展大模型人才规模和储备情况、大模型人才的梯队建设;销售和交付人才布局等10%生态开放能力生态开放性大模型开源策略及产品;自身业务生态链接;算法模型开源布局及发展情况;高校、实验室的合作布局情况;国产供应链的整合布局,如国产化AI芯片的适配50%生态体系建设咨询及交付生态伙伴发展策略;产品和解决方案伙伴数量及特征;其它合作伙伴和联盟等合作形式的发展情况等30%联合创新与客户合作,打造业界标杆案例和应用最佳实践;联合目标客户,共创专用的行业大模型;与领先的科研机构合作,打造行业通用大模型等20%三方维度诠释主要厂商综合竞争力31评价模型及指标体系部分指标中的厂商基本情况商汤人工智能计算中心(AIDC)提供超5.0EFLOPS算力,2.7万多块GPU,二期额外5.0EFLOPS建设中百度阳泉智算中心算力规模可达4EFLOPS(每秒400亿亿次浮点计算)阿里张北智算中心和乌兰察布智算中心,算力规模合计15EFLOPS(每秒1,500亿亿次浮点运算)来源:商汤,百度,阿里,华为,腾讯,澎湃新闻,封面新闻,沙利文整理华为智算中心,2022年提供2,300P普惠AI算力腾讯大模型训练算力投入近万张卡,腾讯云发布新一代HCC高性能计算集群,算力性能较前代提升3倍自研ModelArts2.0AI开发平台、昇腾910等算力芯片、兆瀚RA5900-A系列等AI训练服务器盘古视觉大模型已经在工业质检、缺陷检测、电力巡检等100多个行业场景完成验证昇腾AI产业生态已发展20+家硬件合作伙伴,1000+家软件伙伴腾讯大模型可接入微信、游戏、短视频、广告、TOB端等优势业务,腾讯在SaaS加速器、微信等业务均有大量合作伙伴腾讯混元AI大模型团队推出NLP万亿大模型,该模型已成功落地于腾讯广告、搜索、对话等内部产品并通过腾讯云服务外部客户腾讯研发支持万亿级MOE预训练模型应用的分布式推理和模型压缩套件“太极-HCFToolKit”智算IaaS服务可支持最大十万卡GPU单集群规模、承载多个万亿参数大模型同时在线训练的智算集群,千卡并行效率达90%阿里魔搭社区汇聚800+个开源模型,总用户量100万+,模型累计下载次数1600万+;阿里巴巴所有产品未来将接入大模型,同时将与OPPO、吉利、智己等企业展开合作训练数据包括万亿级网页数据、数十亿的搜索数据和图片数据、百亿级的语音日均调用数据,以及5,500亿事实的知识图谱百度AI大底座可提升千卡并行加速比90%以上目前已发布36个大模型以及11个行业大模型,生态已凝聚535万开发者打造大模型基础设施—SenseCore商汤AI大装置,包括AI原生基础设施、大模型生产平台、模型算法服务、以及辐射的行业应用,面向大模型预训练,千卡并行效率达91.5%,当前算力可支持20个千亿参数超大模型同时训练发布“日日新SenseNova”大模型体系,推出自然语言处理、内容生成、自动化数据标注、自定义模型训练等大模型及能力,包括语言大模型“商量SenseChat”和一系列生成式AI应用32商汤:◼产品技术能力:4.79◼战略愿景能力:4.59◼生态开放能力:4.574.65◼产品技术能力:AI大模型产品发展能力、预训练数据、算力资源等情况——色块区域越多代表产品表现和基础设施配套情况越好◼战略愿景能力:AI大模型市场规划能力、认知发展、创新能力等情况——色块区域越多代表企业市场规划和战略展望能力越强◼生态开放能力:AI大模型生态开放性、生态圈打造及服务情况——色块区域越多代表生态合作、产业协作能力越强产品技术能力战略愿景能力生态开放能力◼产品技术能力:4.67◼战略愿景能力:4.41◼生态开放能力:4.63◼产品技术能力:4.54◼战略愿景能力:4.35◼生态开放能力:4.60◼产品技术能力:4.52◼战略愿景能力:4.33◼生态开放能力:4.32◼产品技术能力:3.83◼战略愿景能力:3.93◼生态开放能力:4.29•本报告将根据最终评价的AI大模型在产品技术能力、战略愿景能力、生态开放能力三个维度的综合表现对比相关厂商在AI大模型领域的综合竞争力综合竞争力表现华为:4.39腾讯:3.99百度:4.56阿里巴巴:4.4833◼从基础设施到模型研发的全栈能力基于“大模型+大装置”的技术路径,商汤推进AGI为核心的发展战略。商汤领先发布“日日新SenseNova”大模型体系,提供自然语言、内容生成、自动化数据标注、自定义模型训练等多种大模型以及能力,结合决策智能大模型,为AGI实现提供重要起点。除语言大模型“商量SenseChat”外,“如影SenseAvatar”、“琼宇SenseSpace”、“格物SenseThings”、“秒画SenseMirage”一系列生成式AI模型,能够在文生图创作、2D/3D数字人生成、大场景/小物体生成实现应用。历时五年,商汤建设了AI大装置,成为国内稀缺大模型建设基础设施,并以此作为打造AGI时代的底座。基于大装置,商汤拥有了大模型生产的核心平台,不仅对内支持打造了日日新大模型体系,同时具备对外提供大模型训练赋能的服务,包括从工程开发到生产部署,截止目前,已经服务8家大型客户。◼具有前瞻性的开放生态商汤开源多模态多任务大模型“书生2.5”,具有30亿参数,全球开源模型中ImageNet中国主要AI大模型厂商介绍商汤:SenseCore商汤AI大装置+商汤日日新SenseNova大模型体系商汤日日新自研大模型体系来源:商汤官网,商汤技术交流日,沙利文整理商汤自研大模型体系自动化数据标注智能标注效率提升百倍商汤人工智能计算中心(AIDC)大算力5,000+P国产化算力5,00+P当前算力可支持20个千亿参数超大模型同时训练(以千卡并行训练)大模型即服务(Model-as-a-Service)大模型推理部署大模型推理效率提升100%模型并行训练单集群4,000-5,000亿稠密参数模型大模型增量训练增量微调成本降低90%开发者效率开放模型及AI开发工具链7,000+张GPU算力对外服务8家大型客户进行大模型训练科研机构头部商业银行头部游戏公司头部互联网公司明星创业公司商汤大模型发展关键事件时间点•创新自研10亿参数的视觉大模型•商汤人工智能计算中心AIDC启动建设•商汤人工智能计算中心AIDC启动运营•推出基于AIaaS服务的SenseCore商汤大装置AI云•创新自研320亿参数的视觉大模型•多模态多任务通用大模型“书生(INTERN)2.5”发布•明确“大模型+大装置”的战略发展路径,构建通用人工智能(AGI)核心能力•商汤“日日新SenseNova”大模型体系正式问世,包括1800亿参数的语言大模型及生成式AI应用•介绍新一代人工智能基础设施——SenseCore商汤大装置•联合上海AI实验室及高校,开源视觉大模型“书生”(INTERN)•开源发布OpenDILab决策模型,GitHub星数破万•公司自主研发深度学习框架SenseParrots•在ImageNet大赛中获得第一名20152019202120222023准确度最高、规模最大,同时也是物体检测标杆数据集COCO中唯一超过65.0mAP大模型。商汤构建了包括OpenMMLab、OpenDILab、OpenXRLab、OpenPPL在内的开源算法框架体系,与业界共享创新成果。商汤积极助力国产芯片厂商,提高GPU的训练能力,并合作上线大模型推理服务,攻关千卡国产训练集群,大装置已完成58款国产芯片的适配与应用。34中国主要AI大模型厂商介绍商汤:SenseCore商汤AI大装置+商汤日日新SenseNova大模型体系◼体系化研发能力下产业应用积累商汤构建了从底层训练系统到算法设计优化的体系化大模型研发能力,如兼容解码建模Uni-Perceiver,将不同模态数据编码到统一表示空间,统一不同任务范式,从而以相同架构和共享的模型参数同时处理各种模态和任务;采用更先进的大模型结构设计与大batch训练优化算法,使得“秒画SenseMirage”模型参数量为StableDiffusion数倍,且具备更优的文本理解泛化性、图像生成风格广度以及图像高质量生成细节。商汤通过API对外提供大模型服务,同时也将其作为自身业务创景创新提效的发动机。“商量SenseChat”具备多轮对话和超长文本的理解能力,并支持编程助手,可帮助开发者更高效地编写和调试代码等一系列创新应用。另外,商汤将大模型的能力全面赋能自身的业务体系,围绕智慧商业、智慧城市、智慧生活和智能汽车四大关键领域,构建AGI核心能力。目前商汤超大模型已经覆盖公司核心业务,有20+落地场景大模型交付,5+个项目生产Serving交付。商汤大模型产业布局与应用场景积累大数据大模型训练大模型部署大模型训练优化推理服务优化训练优化数据标签标准化测速系统优化大模型Serving效率优化Serving算法优化上游合作下游合作业务开源开放智能汽车智慧城市智慧生活智慧商业产业落地超大模型技术优化底层训练系统优化分布式训练优化数据并行/模型并行优化动态重计算显存优化大模型检查点异步存储混合精度优化自动驾驶感知城市结构化感知工业质检医疗影像数字人模型设计•工业级大规模神经网络搜索系统•混合系数专家模型设计•双路模型架构设计•…模型训练•基于人类反馈的强化学习•大批次数据训练优化算法•大规模噪声数据优化•…来源:商汤技术交流日,沙利文整理商汤大模型的体系化研发能力模型优化•混合专家模型调度优化•基于专家优先的低通信线性路由模块设计•…模型服务•自动化标注系统•基于超大模型的小模型生产系统•…35百度文心大模型全景图百度:AI大底座+文心大模型来源:百度云官网,沙利文整理中国主要AI大模型厂商介绍产品与社区文心一格AI艺术和创意辅助平台文心百中大模型驱动的产业级搜索系列旸谷社区大模型创意与探索社区工具与平台EasyDL–大模型零门槛AI开发平台BML–大模型全功能AI开发平台大模型API大模型套件数据标注与处理大模型精调大模型压缩高性能部署场景化工具文心大模型行业大模型国网-百度文心浦发-百度文心航天-百度文心辞海-百度文心深燃-百度文心吉利-百度文心泰康-百度文心TCL-百度文心冰城-百度文心人民网-百度文心电影频道-百度文心NLP大模型CV大模型跨模态大模型生物计算大模型医疗金融对话搜索信息抽取跨语言代码图网络语言理解与生成ERNIE3.0TinyERNIE3.0鹏城-百度文心ERNIE3.0Zeus商品图文搜索表征学习ORC图像表征学习ORC图像表征学习视觉处理多任务学习自监督视觉表征学习文图生成文档智能视觉-语言语言-语言地理-语言化合物表征学习蛋白质结构预测单序列蛋白质结构预测◼产业级知识增强大模型,夫嫩行业大模型发展百度文心大模型源于产业、服务于产业,是产业级知识增强大模型。百度通过大模型与国产深度学习框架融合发展,打造了自主创新的AI底座,大幅降低了AI开发和应用门槛。文心大模型一大特色是“知识增强”,百度自研的多源异构知识图谱拥有超过5,500亿条知识,被融入到文心大模型的预训练中。文心大模型凭借海量数据和大规模知识的融合学习,能实现更高的效率、更好的效果、更强的可解释性。◼大模型架构分三层体系百度文心构建了文心大模型层、工具与平台层、产品与社区三层体系:建设更适配场景需求的基础、任务、行业三层大模型体系,提供全流程支持应用落地的工具和方法,孵化基于大模型的任务系统与创新产品。目前文心大模型已经建设了36个大模型。文心API和提供全流程开箱即用大模型能力的EasyDL和BML开发平台,全方位降低应用门槛;新增产品与社区层,包括“文心一格”、“文心百中”和旸谷社区,让更多人零距离感受到先进的AI大模型技术带来的新体验。36◼飞桨平台助力大模型落地预训练大模型市场正处于高速发展阶段,需要解决差异化水平下开发者和企业的应用需求。百度飞桨深度学习平台向下适配各种硬件,支持文心大模型的开发、高性能训练、模型压缩、服务部署的各种能力,贯通AI全产业链,串联起全栈化的产业生态体系。文心大模型+飞桨深度学习平台生态共享,在市场生态方面持续发力以百度飞桨为代表的国产开发框架已经逐步与产业融合,在社区生态建设上持续发力。文心大模型是飞桨模型库的重要组成部分,与飞桨共享生态,包含产业级知识增强大模型体系,以及工具平台、API和创意社区助力大模型的高效应用。飞桨深度学习平台能助力解决大模型研发和部署的各类问题,大模型使得AI模型的研发门槛更低、效果更好、流程更加标准化,硬件厂商、开发者以及模型应用企业在文心+飞桨生态中,紧密链接、相互促进,形成共聚、共研、共创的健康生态。◼拓展产业链生态,赋能大模型百度聚焦生态的打造,积极拓展生态伙伴,协力推动行业发展。百度文心联合深圳燃气、吉利、泰康保险、TCL、上海辞书出版社等各领域的企业发布了行业大模型,覆盖电力、燃气、金融、航天、传媒、城市、影视、制造、社科等领域,加速推动行业的智能化转型升级。目前生态已凝聚535万开发者,服务20万家企事业单位,与12家硬件伙伴联合发布飞桨生态发行版,推动深度学习平台与更多硬件适配;还与国内科研院所、实验室以及高校强强联手,一同攻克AI技术难关,目前已赋能389所高校,服务747名教师,学分课培养10万余名AI学子。百度大模型发展历史百度:AI大底座+文心大模型来源:百度云官网,沙利文整理中国主要AI大模型厂商介绍中文效果超越BERT2019/32021/7知识增强百亿参数大模型,同时解决语义理解与生成问题2021/12发布知识增强千亿大模型至今2022/5基于行业特有的大数据和知识,提升大模型对行业应用的适配性2019/7中英文16个公开数据集全面领先竞品ERNIE1.0ERNIE3.0鹏程百度·文心VIMER-StrucTex2.0VIMER-UMSVIMER-UFO2.0ERNIE2.0文心行业大模型文心大模型与飞桨深度学习平台的关系EasyDL零门槛AI开发平台PaddleHub预训练模型应用工具PaddleDetection目标检测Paddle飞桨训练框架AIStudio学习与实训社区PaddleX全流程开发工具PaddleHelix螺旋桨生物计算平台PaddleCV视觉模型库PaddleLite轻量化推理引擎EasyEdge端计算模型生成平台PaddleFL联邦学习PaddleOCR文本识别PaddleSlim模型压缩工具服务平台工具组件开发套件基础模型库核心框架WenxinBigModels文心大模型PaddleNLP自然语言处理模型库37◼统一底座为基础,构建层次化的模型体系阿里巴巴通义大模型以统一底座为基础,构建了层次化的模型体系,其中通用模型层覆盖自然语言处理、多模态、计算机视觉,专业模型层深入电商、医疗、法律、金融、娱乐等行业。通用与专业领域大小模型协同,让通义大模型系列可兼顾性能最优化与低成本落地。自2020年起阿里先后发布多个版本的多模态及语言大模型,在超大模型、低碳训练技术、平台化服务、落地应用等方面实现突破。通义大模型系列已在超200个场景中提供服务,实现了2%~10%的应用效果提升。为加快大模型规模化应用,达摩院还研发了超大模型落地关键技术S4框架,百亿参数大模型在压缩率达99%的情况下多任务精度可接近无损。◼关键技术开源,丰富合作生态通义大模型系列中语言大模型AliceMind-PLUG、多模态理解与生成统一模型AliceMind-mPLUG、多模态统一底座模型M6-OFA、超大模型落地关键技术S4框架等核心模型及能力已面向全球开发者开源。阿里通义大模型架构阿里:M6-OFA+“通义”大模型系列来源:阿里巴巴官网,沙利文整理中国主要AI大模型厂商介绍行业模型电子商务数字人基础科学智能设计城市大脑智慧法律智能交互智能海关智慧医疗智能物流自动驾驶智能农业工业视觉智能能源通用模型通义–M6通义–AliceMind通义–视觉图文生成图文理解多模态对话运动预测运动生成语音理解多模态检测和分割语音生成多语言模型文本理解多模态对话表格模型运动生成语音理解图像表征视频表征图像生成视频生成物理检测语义分割开放域对话视觉文档模型图像分类图像编辑因果推断模型底座不同模态统一包括语言、图像、语音、视频、时序信号等层次化结构模块化设计易于迭代部署语言和视觉的模态关联特征到语言生成语言编码器特征到视觉生成视觉编码器语言生成器视觉生成器通义-M6发展历程正式启动2020/01基础模型(3亿)2020/06通用的统一大模型M6-OFA2022/01发布百亿参数多模态预训练模型2021/01千亿参数模型,KDD2021•与10B模型相比,训练损失减少37%,在许多下游任务实现SOTA结果•混合精度提高90%的效率•仅需32卡v100GPU即可完成千亿参数训练2021/03万亿参数模型,绿色低碳训练/文本到图生成/商业化一流结果2021/05十万亿参数模型,预训练模型•10万亿参数模型仅需要512卡v100GPU•Pseudo-to-Real机制将训练速度提高了7倍以上•粒度级控制的CPUOffload模块2021/10阿里版ChatGPT“通义千问”上线2023/0438◼全栈式AI解决方案助力AIforIndustry&AIforScience华为云于2020年内部立项AI大模型,并于2021年4月正式对外发布盘古预训练大模型,强调模型数据、网络结构、泛化能力三大核心设计。华为云规划“L0基础大模型-L1行业大模型-L2细分场景大模型”的发展路径。L0阶段的盘古大模型由NLP大模型,CV大模型、语音大模型、多模态大模型、科学计算大模型等组成,其中CV大模型超30亿参数,预训练时输入10亿级图像数据,兼顾图像判别与生成能力;NLP大模型具备领先的中文语言理解和模型生成能力。L1阶段,基于已有的行业基础,华为云推出盘古气象大模型、盘古矿山大模型、盘古OCR大模型等行业大模型,能够在L2阶段的煤矿场景下的瓦斯浓度的超前预警、气象领域的天气预报等多个细分场景实现落地。华为云聚焦全栈式AI解决方案,大模型与昇腾(Ascend)/鲲鹏芯片、昇思(MindSpore)语言、ModelArts平台深度结合,以算力底座、服务器、全场景深度学习框架及开发平台共同助力大模型发展。◼拓展产业链生态,赋能大模型华为云积极拓展产业链上下游生态,通过鲲鹏凌云等合作伙伴计划,在算力、软硬件等方面建立生态伙伴网络,为AI大模型持续赋能,同时华为云与下游厂商联合发布行业解决方案,推动AI大模型商业化落地。中国主要AI大模型厂商介绍华为:ModelArts+盘古大模型华为云盘古预训练大模型架构来源:华为云官网,华为全球分析师大会,沙利文整理皮带质检PCBA缺陷识别电力缺陷识别案件关键词抽取电商情感分析多轮对话企业财务异常检测空气质量检测工业参数检测时尚版权保护时尚辅助设计图文搜索短临气象预报近海养殖台风预测智慧育种L2细分场景模型L1行业大模型L0基础大模型盘古行业大模型(行业know-how:行业数据预训练,无监督训练)盘古工作流(快速交付:工作流,增量学习,小样本标注)大企业或政府方案(混合云或公有云)中型企业方案(云边协同)工作流订阅及基于下游任务微调L0→L1行业大模型定制费L0基础大模型使用授权费煤矿生产线质检电力巡检小语种/英语数字人大脑司法金融风控销量预测工业耗能/参数预测时尚电商搜索图文搜索气象海浪智慧育种CV大模型分类分割检测NLP大模型内容生成内容理解多模态大模型跨模态检索跨模态生成看图说话科学计算大模型分子大模型金融大模型气象大模型盘古大模型(根技术:架构、泛化性、精度、训练成本)进退边界Workflow2.0PRO工作流并行推理框架预处理算法大模型底座AI开发平台ModelArts3.0合作伙伴交付Offering2(百万级)Offering1(千万级)语音大模型语音识别语音分类任务语音回归任务39◼新一代HCC高性能计算集群为大模型提供底层支持2022年4月,腾讯首次对外披露混元AI大模型,协同了腾讯预训练研发力量,以统一的平台实现技术复用和业务降本,支持更多的场景和应用。当前,混元AI大模型完整覆盖NLP大模型、CV大模型、多模态大模型、文生图大模型及众多行业与领域任务模型,先后在MSR-VTT、MSVD等五大权威数据集榜单中登顶,实现跨模态领域的大满贯。目前,HunYuan-NLP1T大模型已在腾讯多个核心业务场景落地,并带来了显著的效果提升。近日腾讯正式发布全新的AI智能创作助手“腾讯智影”,推出了智影数字人、文本配音、文章转视频等AI创作工具。2023年4月,腾讯云发布的新一代HCC高性能计算集群将为混元大模型提供底层支撑。新一代集群基于自研星脉高性能计算网络及存储架构,集成了腾讯云自研的TACO训练加速引擎,大幅缩短训练时间,节约训练调优和算力成本。腾讯太极机器学习平台自研的训练框架AngelPTM,也已通过腾讯云TACO提供服务,帮助企业加速大模型落地。◼用户生态繁荣,促进模型迭代腾讯在社交、阅读、游戏等领域拥有庞大用户群体与强大生态,具有丰富的语料资源、数据积累和场景优势。腾讯高级执行副总裁汤道生表示,腾讯正在研发类ChatGPT聊天机器人,将集成到QQ、微信上。目前在智能写作、AI绘图、游戏场景生成等方面都有新产品发布或迭代升级,有望助力其大模型在自有生态中快速迭代成长。中国主要AI大模型厂商介绍腾讯:HCC高性能计算集群+混元大模型来源:腾讯云官网,量子位公众号,沙利文整理腾讯HunYuan大模型全景图算力平台计算集群(CPU/GPU)网络通信(RSMA)高性能网络平台太极机器学习平台模型训练AngelPTM(GPU训练加速/4D并行)模型推理及压缩HCFToolkit(轻量化/蒸馏/推理服务)产品套件(研发管线/数据&模型管理)数据层多源训练数据脱敏/清洗/平台化评测数据和标准共建模型层NLP大模型(HunYuan-NLP)CV大模型(HunYuan-VCR)多模态大模型(HunYuan_tvr,文生图大模型)行业/领域/任务模型应用层广告搜索推荐游戏翻译对话40附录名词解释人工智能人工智能:ArtificialIntelligence,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。AGIAGI:ArtificialGeneralIntelligence,专指通用人工智能。这一领域主要专注于研制像人一样思考、像人一样从事多种用途的机器。这一单词源于AI,但是由于主流AI研究逐渐走向某一领域的智能化(如机器视觉、语音输入等),因此为了与它们相区分,增加了general。生成式AI生成式AI:AI-GeneratedContent,人工智能生成内容,是指基于人工智能技术,通过已有数据寻找规律,并通过适当的泛化能力生成相关内容的技术,可以生成常见的如图像、文本、音频、视频等内容。LLMLLM:LargeLanguageModel,大型语言模型,用深度学习算法处理和理解自然语言的基础机器学习模型,可以根据从海量数据集中获得的知识来识别、总结、翻译、预测和生成文本和其他内容。NLPNLP:NaturalLanguageProcessing,自然语言处理,是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,主要应用于机器翻译、舆情监测、自动摘要、观点提取、文本分类、问题回答、文本语义对比、语音识别、中文OCR等方面RLHFRLHF:ReinforcementLearningfromHumanFeedback,是一项涉及多个模型和不同训练阶段的复杂概念,是强化学习方式依据人类反馈优化语言模型。ImageNetImageNet:ImageNet项目是一个大型视觉数据库,用于视觉目标识别软件研究。41附录方法论弗若斯特沙利文咨询有限公司(以下简称“沙利文”)依托中国活跃的经济环境,研究内容覆盖整个行业发展周期,伴随着行业内企业的创立、发展、扩张到企业上市及上市后的成熟期,沙利文各分析师积极探索和评估行业中多变的产业模式,企业的商业模式和运营模式,以专业视野解读行业的沿革。沙利文融合传统与新型的研究方法论,采用自主研发算法,结合行业交叉大数据,通过多元化调研方法,挖掘定量数据背后根因,剖析定性内容背后的逻辑,客观真实地阐述行业现状,前瞻性地预测行业未来发展趋势,完整地呈现行业的过去、现在和未来。在本次《AI大模型市场研究报告(2023)——迈向通用人工智能,大模型拉开新时代序幕》报告撰写期间,沙利文对大模型市场进行了深入的研究和分析,基于对整个产业的深入理解,总结并撰写本次关于大模型的市场研究报告,并对各个大模型厂商进行了深入的评估,力求及时向用户呈现中国大模型市场的全面解读。其中,来自AI大模型相关厂商的众多专家及诸多国内外学者分享了大模型技术发展分析、前瞻性洞察、行业趋势、关键成功因素等方面深入、权威的信息。从行业内的角度,专家提供了详尽的技术发展脉络,帮助沙利文更全面地了解大模型的产品、战略、生态等维度的发展情况,使得报告的观点更加深刻透彻。沙利文秉承匠心研究,砥砺前行的宗旨,以战略发展的视角分析AI大模型行业,从执行落地的层面阐述观点,为每一位读者提供有深度有价值的研究报告。弗若斯特沙利文咨询有限公司42