美国AI大模型

现在的人工智能,已不是「可以用」,而是「非常好用」了。

上个星期,谷歌与李世石一次久违的对话,唤起了人们的回忆:

仔细想来,自2016年 AlphaGo 在围棋上打败人类起已过去八年。如今人工智能技术的发展却丝毫没有减速,正在给我们创造更大的震撼。

生成式 AI 技术从引领技术爆发的 GPT-4开始,已经席卷了各个领域。不论是自动写文章,还是生成图片和视频,大模型等技术正随着 *、AI 手机等产品逐步落地。在可见的未来,向我们招手的还有具身智能 —— 通过软硬件结合,机器人正在变得更聪明,即将代替我们的部分劳动。

最近,「新质生产力」理论正成为科技领域的热门话题。新质生产力是以新产业为主导的生产力,它相对传统生产力呈现出颠覆性创新驱动,具有产业链条新、发展质量高等特征,对新旧动能转换发挥着引领性作用。

而 AI 大模型技术的突破,正是驱动科技创新,构建未来产业的强大动力。人工智能带来的科技革命可能会像工业革命、信息革命一样,给每个人的生活带来巨大的改变。

3月26日,博鳌亚洲论坛上,人民网正式发布了《2024年中国 AI 大模型产业发展报告》,阐述了中国 AI 大模型的发展现状和典型案例,深入探讨国内 AI 大模型产业发展所面临的挑战,同时也对未来趋势进行了展望。

报告下载链接:https://download.people.com.cn/jiankang/nineteen17114578641.pdf

其中有关「下半场」竞争态势、端侧应用爆发等判断,尤为值得关注。

AI 大模型技术落地,将是大浪淘沙

人工智能在持续发展的过程中,已在很多地方实现了落地,包括但不限于语音识别、人脸识别、机器翻译、目标检测、图像生成、辅助驾驶等等方面。很大程度上,新技术已经在帮助千行百业提高生产力了。

随着生成式 AI 技术的发展,智能化升级的范围还将扩大,程度还会更高。作为拥有 AI 完整产业体系的国家,新一代 AI 方案正在中国深入各行各业。

不过,要实现真正的技术变革,我们还面临着一系列挑战。

第一个挑战是算力短缺。随着大模型规模呈现指数级增长,算法越来越依赖高性能 AI 芯片。有市场研究公司报告称,去年仅 Meta 和微软两家公司就从英伟达处分别购买了15万块 H100GPU,各花去约45亿美元,但这还远远不够:基于 H100的服务器的交付周期已经长达52周。

在国内,高性能 AI 芯片市场还因为进出口限制和技术瓶颈的双重影响,大模型产业发展正在受到算力层面的制约。

第二个挑战是大模型架构的局限性。如今的 AI 预训练大模型均采用自注意力机制的 Transformer 神经网络结构,它在自然语言处理等领域具有诸多优势,包括可实现完全并行计算、捕捉长距离依赖关系、模块化设计、处理不定长序列、结构扩展以及预训练效果好等等。

但随着人们的不断开发与扩展,transformer 固有的算力消耗资源大、内存占用多、泛化能力有局限性等问题也逐渐显现。

就连 Transformer 论文《Attention Is All You Need》的七位原作者在最近 GTC 大会的圆桌讨论上也表示,这个世界需要比 Transformer 更好的东西,才能将我们带到新的性能高原。

对数据的运用,是制约大模型落地的另一个重要因素。对于从头开始训练的大模型,语料数据的质量很大程度上会影响模型能力。大模型对数据供给的要求极高,比如 OpenAI 在训练 GPT-4时,就在大约13T token 的数据上进行了训练,其中包括基于文本和基于代码的数据,以及来自 ScaleAI 和内部的一些微调数据。

相对而言,国内的 AI 大模型数据面临着数据类型不全面、信息可信度不高等问题。整体来看,可用于大模型训练的中文数据库相比英文数据,体量严重不足。

最后,我们还在期待更多爆款应用。ChatGPT 自发布以来迅速成为史上增速最快消费级应用,提供支持的微软也将大模型技术引入到了 Office、Teams 甚至 Windows 操作系统中。而在国内科技公司的生态中,至今仍没有出现类似的爆款级应用,原因可能在于尚未找到商业化思路,技术、个性化程度仍未满足用户需求。

可以说,在生成式 AI「百模大战」后,算法创新优化、生态构建和应用落地等任务,为正在构建 AI 技术体系的公司提出了更高的要求。只有少数脱颖而出者,才会进入未来的大规模应用阶段。

新方向已出现:走向端侧,端云结合

毫无疑问,在 AI 新技术上,国内科技公司一直在坚持投入,已经收获了不小的成果。

通过大规模数据训练,数百亿甚至千亿参数量级的通用大模型能够学习捕捉复杂规律和特征,对前所未见的数据做出预测。通用大模型能理解学习多种任务,得益于大规模预训练和微调范式,可完成多领域任务,并具备多模态的理解和生成能力。

以百度文心一言、阿里通义千问、科大讯飞星火、腾讯混元大模型等为代表,一批高参数体量的云端大语言模型充分利用了算力和海量训练数据,已经能提供语言理解、知识问答、数学推理、代码生成等能力。

它们一边面向 C 端个人用户提供智能问答、文本摘要与生成、图片生成、视频生成等功能。另一方面面向 B 端企业用户,正在改变企业的传统业务模式,正在提供智能化营销、客服、自动会议记录、文本翻译、预算管理等前所未有的能力。

基于通用大模型基础,我们看到了面向特定行业和领域的专用大模型,已开始进入金融、政务、医疗等领域。

而在端侧方向上,接连出现了 AI 手机和 AI PC 两个新概念,大模型展现了广泛的应用前景。

基于端侧深度优化的「小体量」预训练模型能力,个人设备的使用方式和习惯正在被重塑。AI 已经能提供文档搜索、智能识屏、图像创作、生活助手、出行助手等个性化服务。随着大模型的极致优化,人们甚至在展望智能穿戴设备上的大模型应用。

端侧大模型一方面可以为人们带来更加个性化的 AI 能力,对用户意图进行更深度、精准、细腻的理解,提供更加个性化的复杂场景服务。同时也能够保证数据位于端侧,保护了人们的隐私信息。

另一方面,一部分云端计算任务转移给终端处理,还会大幅降低算力成本;一些复杂的工作和在端侧处理后的内容,也可以通过网络交由云端千亿级,甚至万亿级的 AI 大模型来进行处理,这就是「端云协同的 AI」。

端云协同进化的大模型体系有望解决当前大模型范式面临的一些问题与挑战:

  • 在计算资源方面,端云协同能够充分利用云端、终端的碎片化计算资源,并与通信以及存储资源进行联合优化;

  • 在模型架构方面,端云大小体量不同的模型以及聚合的新模式,同时获得了大模型的涌现能力与小模型的功耗优势;

  • 在数据方面,快速发展的大、小模型和各类应用正在催生规范化、行业细分的数据治理体系;

  • 在应用方面,端侧大模型在理解用户意图后,可以高效调用其他大模型、服务和硬件能力,实现极高的可用性。

这或许会是新一轮人工智能的变革方向所在。

AI 手机落地引领趋势

正是因为端侧 AI 大模型和「端云协同」的前景,率先把大模型落地到消费级领域的,是各大手机厂商。

去年末到今年初,国内众多厂商陆续推出了新一代旗舰手机,生成式 AI 能力不约而同地成为了发布的重点。

这些手机厂商提出的「AI 手机」有的发力意图理解,通过端侧 AI 技术,以人为中心,利用个性化信息、传感器能力大幅提升手机的情境感知水平,带来各种高效的智慧服务。

有的通过平台化 AI,以端侧 + 云侧模型连接各类服务,实现了高效的推理决策。而利用大模型「智能体」将复杂任务分解,并在每个子步骤实现自主决策,手机不仅对人发出的指令和需求实现了深度理解,还可以进一步简化操作,自主实现多种复杂目标。

在这其中,vivo 在大模型端侧化、矩阵化的表现尤为突出,在新发布的报告中作为企业案例获得了详细介绍。

去年11月,vivo 正式发布了自研 AI 大模型「蓝心 BlueLM」,并搭载于新一代旗舰手机 vivo X100系列上率先落地。

这是行业内首个在手机端运行的开源自研大模型,其覆盖十亿、百亿、千亿三个参数量级,共计五款模型。基于蓝心大模型能力,vivo 在端侧提供了蓝心小 V 和蓝心千询两款应用,并为手机提供了全局智能辅助功能。

vivo 的技术创新,已经让很多人享受到大模型带来的便利。官方给到我们一组数字:蓝心大模型目前已经覆盖了超过2000万用户,实现了2761万次高质量问答、生成了1757万张画,写了649万份报告,「AI 修图」功能还消除了85万个路人。

在这背后既有端侧大模型能力和优化带来的优势,还有 vivo 大模型矩阵化的功劳:不同参数量级的大模型可以通过多种部署方式应用于不同场景,在满足用户手机端侧体验的同时,优化了推理性能以及端侧部署时占用的内存和功耗。


发布于 2024-03-28 02:26:51
分享
海报
1385
上一篇:标题a 下一篇:官网还说的话飞机上的好结果是

「小礼物走一走?雪碧可乐来一罐!」

还没有人赞赏,支持一下吧

哇~真是太棒了

可乐雪碧奶茶加多宝矿泉水
支付宝
目录

    0 条评论

    本站已关闭游客评论,请登录或者注册后再评论吧~

    忘记密码?

    图形验证码