人工智能 · 2024年4月4日 0

AI大模型改变博鳌发展:融合端云技术,推动新型生产力

在“博鳌时刻”,vivo蓝心大模型等被明确定调为,是打造“新质生产力”的孕育沃土。 作者|杨 铭 编辑|刘珊珊 海阔风清,椰林葱郁中,风口上的AI大模型,站上博鳌亚洲论坛2024年年会多个主题分论坛的C位。 “未来是属于AI大模型的,千行百业将被重塑或被革新挑战。”众多嘉宾、参会人士在博鳌的激昂热情,再次明确一个趋势:尽管AI大模型发展并非坦途,却注定成为推动新一轮技术变革和产业变革的核心驱动力。 类似“惊呼”,时有耳闻。所不同的是,在“博鳌时刻”,AI大模型被明确为,是打造“新质生产力”孕育沃土的定调。 博鳌亚洲论坛年会期间,人民网正式发布《2024年中国AI大模型产业发展报告》,多维度探讨中国AI大模型发展现状和典型案例时,表达了AI大模型是加快发展新质生产力的关键要素,将对中国经济产生深远影响。 不止人民网,工信部新闻发言人赵志国在谈及新质生产力时,同样明确表态,将加快推动大模型为代表的人工智能赋能制造业发展。 作为2024年以来大众最关注热点,“新质生产力”是以科技创新为主,摆脱传统增长路径、符合高质量发展要求的新型生产力。 从蒸汽机、电力到互联网,生产力迭代一直是人类文明发展内生引擎—其特点都是创新,关键在质优,本质是先进生产力的内生创新逻辑。 “历史不会简单重复,它会押着同样的韵脚。”对AI大模型而言,应如何去抓住新质生产力转型升级契机?如何加速推动AI大模型,走入千家万户甚至我们每个人? 01 进入下半场,AI大模型痛点犹在 截至2024年3月,国内大模型数量超243家,以通用大模型为主,发展到行业大模型、端侧、端云结合等多种模式并行的“百花齐放”阶段。 其中,通用AI大模型以百度文心一言、阿里通义千问、科大讯飞星火为代表;行业大模型涵盖容联云赤兔、用友YonGPT等;端侧AI大模型以蔚来NOMI GPT为代表。既是通用大模型,也是“端云结合”的AI大模型,以vivo蓝心大模型为代表。 落地应用看,语音识别、人脸识别、机器翻译、内容生成等应用领域以外,大模型逐步在制造、教育、医疗、金融、化工等垂直领域得到广泛应用。比如,AI大模型已在部分医院影像AI、智能导诊、辅助诊断等场景发挥作用,农村用户“足不出户”也可以完成诊断。 这就是在打造新质生产力。工信部赛迪研究院数据显示,2023年,我国生成式人工智能企业采用率达15%,市场规模约14.4万亿元。 这仅仅是AI大模型与千行百业结合,助力实体经济突围的开始。 “新质生产力代表着新技术、创造新价值、适应新产业、重塑新动能的新型高质量生产力。”博鳌“实体经济的突围”论坛上,vivo执行副总裁、首席运营官、vivo中央研究院院长胡柏山就认为,在实体经济如何突围商,制造行业没有选择,只有顺应新技术革命和产业变革趋势,跑出加速度,才能满足新时代下的用户需求。 但从大趋势而言,AI起起落落、沉沉浮浮数十年,中国AI大模型想真正成为孕育“新质生产力”的沃土,依然面临诸多艰巨挑战。 “当前大模型产业挑战包括算力分散不足、TRansfoRMeR 结构是否为最优的疑问、领域数据稀缺、缺少现象级应用等问题。”vivo副总裁、vivo AI 全球研究院院长周围认为。 算力局限是首要挑战。算法是大模型训练速度与产出质量的基础,其能力取决于高性能、高成本的AI芯片。 比如,H100 GPU是英伟达专为AI大模型设计的芯片,售价高达每块3万美元。去年仅Meta、微软就分别购买了15万块 H100 GPU,花费高达45亿美元。 算力采购成本高昂外,目前中国企业还受进出口限制影响,获取的只是性能弱于H100的替代品英伟达A800,且依然供不应求情况—尽管国产自研AI芯片进展快速,性能仍与国际顶尖水平存在一定差距。 而东西部算力供需失衡、跨数据中心算力调度难、算力基础设施能耗大、企业利用算力成本高等等,都是国内企业算力技术痛点。 高质量数据匮乏,是不可忽视的第二大挑战。数据对大模型训练重要性不言而喻,当前国内AI大模型数据主要来自电商、社交、搜索等渠道,高质量数据成为稀缺品。 中国工程院院士高文曾在演讲中提到,全球大模型产业普遍面临训练数据瓶颈,其中中文数据尤为匮乏,全球通用50亿大模型数据训练集里,中文语料仅占1.3%。这一痛点,在要求更高专业垂类数据领域更加凸显。 大模型架构的局限性,也亟须破局。当前主流大模型无一例外都建立在TRansfoRMeR架构堆叠的基础上—该架构源自谷歌大脑团队2017年发表的《Attention is all you need》论文,推动整个AI领域重大突破。 最大问题是,这种架构对计算资源消耗特别大,存储设备要求非常高、应用群体也有局限性。 比如,面向C端大模型的应用产品都是通用大模型,专业性不足,存在成本高昂、安全性问题;垂直行业大模型,针对C端应用又不足。更严重问题是,架构一样下,很多大模型能改动的是训练方法、数据配比,出现大模型同质化趋势。 相比国外,国内AI大模型至今没有出现爆款级应用,是产业化落地一大难题。原因在于,因为算力稀缺,缺乏满足客户需求的个性化应用—很难将大模型像微信、抖音那样,包装成大范围使用的C端产品。 加上AI大模型诞生以来,就伴随的道德、安全风险争议,如何让每位用户可以充分享受大模型真正便利,推动各行各业数字化进程落地,是当下AI大模型的共同考验。 02 破局有道,“端云结合”为核心 理想照进现实。从根本上转变AI大模型的技术路线—“把大模型和终端结合”,成为业界心照不宣的破局共识。 最近半年来,从高通、英伟达、AMD、英特尔等上游芯片厂商,微软、Meta、亚马逊等科技巨头,再到vivo、华为、OPPO等手机头部厂商,联想等PC厂商,甚至是SOTA这样的闭源大模型,都在集体向终端挺进,开辟AI大模型新战场。 集体抉择背后是,相比单一通用、专用大模型的局限性,手机、PC、可穿戴等智能设备,才是AI大模型普惠终点:一方面,在底层就可以和AI芯片适配;另一方面,终端产品形态个人化、小型化,就意味着普及和便携,更容易走向大众。 如同当年瓦特改良的“蒸汽机”一样,智能手机无疑是行业和场景结合最深,连接万物最好的“AI入口”。2023年7月以来,国内主要手机厂商纷纷将生成式AI带入终端—包括苹果,最新消息称将和百度AI合作。 事实上,受体积、性能、耗电等诸多限制,相比其他应用领域,手机是大模型最难落地场景之一。 比如,直接在端侧(手机)轻量化、本地部署大模型—尽管这是当前部分主流手机厂商所选择技术路线,就失去云端联网大规模计算优势,处理速度不及预期,且终端耗电加快。如果直接将大模型上传到云端,又存在失去个性化定制、隐私安全难以保障、成本高昂等难题。 “vivo有3亿中国用户,如果每天用10次,一天运算成本大概是3000万元,一年需要花费约90亿-100亿元。”vivo副总裁周围就曾如此简单计算。 因此,基于对AI大模型不同理解,各家手机厂商目前形成了端侧为主,以及端云结合的两种部署方案。 “极点商业”综合业内诸多人士观察,目前vivo、华为、OPPO选择的“端云结合”路线,被普遍视为推动大模型走向大众的主流思路。 所谓“端云结合”,是在架构设计上云、端协同,即在云端部署百亿、千亿级别的通用大模型训练模型,在手机端侧部署十亿级别的大模型,推出大模型矩阵。简单来说,它既有通用大模型的C端普惠功能,又在矩阵大模型下,拥有个性化、定制化能力。 其好处是,复杂内容和任务,可以交给云端大规模算力;部分任务也可转移给终端,大幅降低算力成本,个性化服务,端侧断网情况下稳定运行,并有效保护用户隐私。 其中最重要的,就是矩阵化布局。人民网发布的《报告》中,就以vivo自研“蓝心大模型”(BlueLM)为例,观察这种“端侧化大模型+大模型矩阵化”另辟蹊径的方式,如何成功破解行业痛点。 vivo“蓝心大模型”中,其打造10亿、70亿、700亿、1300亿、1750亿模型参数5个矩阵,涵盖从亿级到千亿级不同规模的模型,使其适配不同应用需求和算力条件。 03 既要又要,打造生产力的“超级智慧体” 在《报告》看来,类似vivo将大模型装进手机的“端云结合”,有望打开对AI大模型更广泛的应用想象,成为发展新质生产力的关键驱动力。 从vivo官方数据来看,已有很多用户体验到AI大模型带来的便利:蓝心大模型目前覆盖超过2000万用户,实现2761万次高质量问答、生成1757万张画,写了649万份报告,“AI 修图”功能消除了85万个路人。 不同参数量级的大模型矩阵下,这背后既有用户在本地化端侧个性化AI修图、AI写报告,也有用户云端在线回答,AI作画。 一切技术、产品规划出发点都是用户需求。从用户角度来看,当前对手机AI大模型的期望,是为用户提供个性定制、智能交互、专属陪伴、安全可信等产品体验,打造个性化专属私人助理。 这正是所有AI手机厂商竞争核心所在。而在用户体验方面,“端云结合”也体现出自己的独特优势。 比如,搭载蓝心大模型的vivo X Fold 3,支持超过700种手机相关功能,提供超能问答、超能创作、超能搜索、超能管理、超能交互等五大AI超能服务。 值得一提的是,实现上述超能服务,是在vivo“蓝科技”品牌生态中,依托蓝