【布客技术评论】大模型开源与闭源,原因、现状与前景,布客技术评论,大模型开源与闭源的现状与前景探讨

马肤

温馨提示:这篇文章已超过439天没有更新,请注意相关的内容是否还可用!

摘要:本文讨论了关于大模型的开源与闭源问题,包括其背后的原因、现状以及未来前景。随着人工智能技术的不断发展,大模型成为了技术领域的热点。开源和闭源模式的选择背后涉及到技术、商业等多方面的因素。本文对此进行了深入探讨,并展望了大模型未来的发展趋势。

在人工智能领域,大模型的开源与闭源一直是一个备受争议的话题。近期,某大厂厂长说了“开源模型永远超不过闭源模型”,结果,脸书就发布了开源模型Llama3,超过了OpenAI 的闭源模型 GPT4。本文将探讨大模型开源与闭源的原因、当前状况以及未来前景,以期为读者提供深入的理解和分析。

【布客技术评论】大模型开源与闭源,原因、现状与前景,布客技术评论,大模型开源与闭源的现状与前景探讨 第1张
(图片来源网络,侵删)

算力稀缺性的考量

算力,作为人工智能领域的核心资源,对于大模型的训练和应用至关重要。当算力稀缺时,开发者往往倾向于选择闭源模式以赚取利润。这是因为算力稀缺时,训练模型的门槛较高,入局的玩家就少,产品就具有盈利的可能。

然而,当算力不再稀缺,开发者就无法通过闭源模型提供服务获得足够的利润,他们可能会倾向于选择开源模式。开源不仅可以帮助开发者赚取名声,提升个人或团队的知名度,还能够促进技术的创新和进步。通过开源,开发者可以吸引更多的社区参与和贡献,共同推动人工智能技术的不断完善和发展。

【布客技术评论】大模型开源与闭源,原因、现状与前景,布客技术评论,大模型开源与闭源的现状与前景探讨 第2张
(图片来源网络,侵删)

文生图模型就是个很好的例子,此类模型中,StableDiffusion 和 NovelAI 是开源的,MidJourney 和 DALLE3 是闭源的(其前身DALLE2也是开源的)。然而模型不仅仅指代架构,还包含模型参数。如果我们按照不同参数统计模型个数,开源社区中的 StableDiffusion 模型数量远远多于其它架构的模型,并且远远多于大语言模型的个数总和。

究其原因,StableDiffusion 模型在一张 4GB 的家用显卡就能训练或者微调这类模型,因此每个文生图用户都有条件来训练新的模型。正所谓“没有人一直开源,但总有开源的人”,假设在模型训练者中,有1%~10%能够将其模型开源,开源生态也能欣欣向荣。

开源模型才是终极答案

开源模型在服务B端和C端用户方面都具有显著的优势。对于B端用户而言,他们通常有天然的保密需求,内部资料不能外传。因此,开源模型能够为他们提供一个安全、可靠的私有化部署平台,让他们在保护内部资料的同时,充分利用大模型技术的优势。此外,B端用户还可以根据自己的业务需求对开源模型进行定制和优化,以满足特定的应用场景。

对于C端用户来说,他们的需求千人千面,需要微调大语言模型来实现个性化服务。例如,很多C端用户都有强烈的角色扮演和对话需求,而模型是否能够胜任取决于是否在海量的角色扮演对话数据集上进行微调。这类短对话数据集比起互联网上大量长文本来说,简直是沧海一粟,需要特地由人工撰写或者补全。

目前来看,只有ChatGPT4和ChatGLM4这两个闭源模型能够胜任这类任务。但如果采用开源模型加微调,那就不一样了,这使得开源模型在C端市场中具有更大的应用潜力。通过微调开源模型,C端用户可以获得更加精准、个性化的服务体验,极大满足用户各方面的需求。

闭源模型并不是稳赚不赔

尽管闭源模型在一定程度上能够保护开发者的利益,但是投资做大语言模型并不是稳赚不赔的。我们都知道芯片流片一次要几百万,但是做一个大语言模型,至少要乘个几百到几千倍。就算有了充足的资金,所需的算力也并不能马上部署到位。

可见训练大模型的成本已经与定制硬件相差无几,而硬件作为模型的上游产业,其技术进步和成本变化对大模型的影响不可忽视。随着未来更先进的硬件技术的出现,人人都有可能训练出当前规模,也就是几B到几十B的大语言模型,这使得当前闭源模型的投入可能面临打水漂的风险。

假如有两个老板,一个人投资大语言模型,而另一个人投资硬件。投资硬件的人得到了单位面积算力提升几十到几百倍的芯片,使得更多的人能训练大语言模型。那么显而易见,投资大语言模型的人就玩完了。

这就好比,卖铲子的人往往比挖矿的人赚钱,因为铲子作为工具,其需求相对稳定且广泛,而挖矿则存在较大的不确定性和风险。同样地,在人工智能领域,提供大模型训练算力的公司可能会比直接训练和应用大模型的公司更具经济效益。这些公司还可以通过提供算力、数据、算法等支持服务,从多个维度获取收益,降低单一业务的风险。

未来展望

综上,大语言模型也好,文生图模型也好,无论什么模型要想更好服务人类,解放生产力,就必须能够开源并且端侧部署。这是毋庸置疑的。

随着大语言模型数量增长,越来越多的人会加入它的上游,也就是硬件领域,带来硬件的突破进展。而随着硬件的进展,越来越多的开发者将倾向于选择开源模式以共享模型、促进技人工智能进步。

可能这就是新的指数爆炸,AI 发现新的物理规律,新的物理规律能够设计更强的硬件,更强的硬件能欧训练更强的AI。比起软件领域自己的指数爆炸,新的指数爆炸贯穿了理学、硬件和软件,将我们的世界连成一个闭环。


0
收藏0
文章版权声明:除非注明,否则均为VPS857原创文章,转载或复制请以超链接形式并注明出处。

相关阅读

  • 【研发日记】Matlab/Simulink自动生成代码(二)——五种选择结构实现方法,Matlab/Simulink自动生成代码的五种选择结构实现方法(二),Matlab/Simulink自动生成代码的五种选择结构实现方法详解(二)
  • 超级好用的C++实用库之跨平台实用方法,跨平台实用方法的C++实用库超好用指南,C++跨平台实用库使用指南,超好用实用方法集合,C++跨平台实用库超好用指南,方法与技巧集合
  • 【动态规划】斐波那契数列模型(C++),斐波那契数列模型(C++实现与动态规划解析),斐波那契数列模型解析与C++实现(动态规划)
  • 【C++】,string类底层的模拟实现,C++中string类的模拟底层实现探究
  • uniapp 小程序实现微信授权登录(前端和后端),Uniapp小程序实现微信授权登录全流程(前端后端全攻略),Uniapp小程序微信授权登录全流程攻略,前端后端全指南
  • Vue脚手架的安装(保姆级教程),Vue脚手架保姆级安装教程,Vue脚手架保姆级安装指南,Vue脚手架保姆级安装指南,从零开始教你如何安装Vue脚手架
  • 如何在树莓派 Raspberry Pi中本地部署一个web站点并实现无公网IP远程访问,树莓派上本地部署Web站点及无公网IP远程访问指南,树莓派部署Web站点及无公网IP远程访问指南,本地部署与远程访问实践,树莓派部署Web站点及无公网IP远程访问实践指南,树莓派部署Web站点及无公网IP远程访问实践指南,本地部署与远程访问详解,树莓派部署Web站点及无公网IP远程访问实践详解,本地部署与远程访问指南,树莓派部署Web站点及无公网IP远程访问实践详解,本地部署与远程访问指南。
  • vue2技术栈实现AI问答机器人功能(流式与非流式两种接口方法),Vue2技术栈实现AI问答机器人功能,流式与非流式接口方法探究,Vue2技术栈实现AI问答机器人功能,流式与非流式接口方法详解
  • 发表评论

    快捷回复:表情:
    评论列表 (暂无评论,0人围观)

    还没有评论,来说两句吧...

    目录[+]

    取消
    微信二维码
    微信二维码
    支付宝二维码