첫 페이지 美股新闻 본문
  在推出开源大模型LLaMA 2近一年之后,Meta的新一代大模型LLaMA 3即将面世。

  在4月9日伦敦举行的一次活动中,Meta确认计划在下个月内首次发布LLaMA 3。据称,该模型将有多个具有不同功能的版本。
  但Meta并没有披露LLaMA 3的参数规模。“随着时间的推移,我们的目标是让由LLaMA驱动的Meta AI成为世界上最有用的助手。”Meta人工智能研究副总裁Joelle Pineau说。“要达到这个目标,还有相当多的工作要做。”
  而据科技外媒The Information 4月8日发布的报道,作为对标GPT-4的大模型,LLaMA 3的大规模版本参数量可能超过1400亿,而最大的LLaMA 2版本的参数量为700亿。LLaMA 3将支持多模态处理,即同时理解和生成文本及图片。
  值得注意的是,LLaMA 3将延续Meta一直以来的开源路线。目前,开源模型界的竞争正在变得愈发激烈,开源大模型亦进化得越来越强大。截至目前,包括谷歌、马斯克旗下的xAI、Mistral AI、StabilityAI等在内的许多公司都发布了开源的大模型。
  作为开源模型界的“扛把子”,Meta在AI基础设施上的投入亦不可小觑,目前只有微软拥有与之相当的计算能力储备。Meta发布的一篇技术博客称,到2024年底,该公司将再购350000个英伟达H100 GPU,算上其他GPU,其算力相当于近600000个H100。
  就在下个月!LLaMA 3即将登场
  参数量或达1400亿
  在4月9日伦敦举行的一次活动中,Meta确认计划在下个月内首次发布LLaMA 3。Meta全球事务总裁Nick Clegg表示:“在下个月内,甚至是在很短的时间内,我们希望推出新的下一代基础模型套件LLaMA 3。”
  从Clegg的表述上看,LLaMA 3将有多个不同功能的版本。“今年内,我们将发布一系列具有不同功能、不同通用性的模型,很快就会开始发布。”
  同时,Meta首席产品官Chris Cox补充称,Meta计划用LLaMA 3为Meta的多个产品提供支持。
  值得注意的是,LLaMA 3将延续Meta一直以来的开源路线。
  与OpenAI坚持的闭源路线和大参数LLM不同,Meta从一开始就选择了开源策略和小型化LLM。
  2023年2月,Meta在其官网公开发布了LLaMA大模型,与 GPT系列模型类似,LLaMA也是一个建立在Transformer基础架构上的自回归语言模型。
  LLaMA包括70亿、130亿、330亿、650亿这四种参数规模,旨在推动LLM的小型化和平民化研究。相比之下,GPT-3最高则达到了1750亿的参数规模。Meta在当时的论文中总结称,尽管体积小了10倍以上,但LLaMA(130亿参数)的性能优于GPT-3。
  一般来说,较小的模型成本更低,运行更快,且更容易微调。正如Meta首席执行官扎克伯格在此前的财报电话会议中称,开源模型通常更安全、更高效,而且运行起来更具成本效益,它们不断受到社区的审查和开发。
  谈及开源问题,扎克伯格在接受外媒The Verge采访时还曾表示:“我倾向于认为,最大的挑战之一是,如果你打造的东西真的很有价值,那么它最终会变得非常集中和狭隘。如果你让它更加开放,那么就能解决机会和价值不平等可能带来的大量问题。因此,这是整个开源愿景的重要组成部分。”
  除此之外,小型模型还便于开发者在移动设备上开发AI软件,这也是LLaMA系列模型自开源来就获得开发者广泛关注的原因。当前,Github上许多模型都是基于LLaMA系列模型而开发。
  到去年7月,Meta又发布了LLaMA 2。当时,Meta也采用了先发小模型的策略。在发布700亿参数的LLaMA 2大规模版本之前,Meta先行推出了130亿和70亿参数的小型版本。
  不过,根据相关的测试,LLaMA 2拒绝回答一些争议性较小的问题,例如如何对朋友恶作剧或怎样“杀死”汽车发动机等。近几个月来,Meta一直在努力使LLaMA 3在回答有争议的问题上更开放,也更准确。
  尽管Meta没有透露LLaMA 3的参数规模,但从The Information 的报道看,作为对标GPT-4的大模型,LLaMA 3的大规模版本参数量据悉可能超过1400亿,这与最大版本的LLaMA 2相比提升了一倍。
  在整个开源模型界,竞争正在变得愈发激烈,开源大模型亦进化得越来越强大。
  今年2月,谷歌罕见地改变了去年坚持的大模型闭源策略,推出了开源大模型Gemma;3月,马斯克也开源了旗下xAI公司的Grok-1模型。根据Gemma和Grok-1的性能测试文档,它们在数学、推理、代码等多项基准测试方面的性能均超过了同规模的LLaMA 2模型。
  截至目前,包括谷歌、xAI、Mistral AI、DataBricks和StabilityAI等在内的多家科技公司发布了开源的大模型。有业内人士此前在接受《每日经济新闻》记者采访时说道:“开源是大势所趋,我认为Meta正在引领这一趋势,其次是Mistral AI、HuggingFace等规模较小的公司。”
  狂卷AGI:豪掷100亿美元囤芯片
  年底算力将相当于约60万个H100
  作为开源模型界的“扛把子”,Meta在AI基础设施上的投入亦不可小觑。
  实际上,Meta上个月曾发布一篇技术博客,展示了自己拥有的算力资源,以及布局AI基础设施的细节和路线图。该公司称,其长期愿景是构建开放且负责任的通用人工智能 (AGI),以便让每个人都能广泛使用并从中受益。
  Meta在博客中写道,“到2024年底,我们的目标是继续扩大(AI)基础设施建设,其中包括350000个英伟达H100 GPU,这是其产品组合的一部分,算上其他,其算力相当于近600000个H100。”据悉,目前只有微软拥有与之相当的计算能力储备。按照亚马逊上给出的价格来算,一块H100芯片大约3万美金,350000个H100的价格就是105亿美元(约合760亿人民币)。
  在这份文档中,Meta也透露了一些用于训练LLaMA 3的集群细节,该集群由24576个英伟达H100 GPU构成。
  据市场跟踪公司Omdia去年发布的一份报告,Meta和微软是英伟达H100 GPU的最大买家。据其估算,上述两家公司在2023年各自采购了多达150000个H100 GPU,是谷歌、亚马逊、甲骨文等科技公司所购的H100 GPU数量的三倍以上。
  在前述文档中,Meta也重申了将坚持一贯以来的开源路线,“Meta始终致力于人工智能软件和硬件的开放创新。我们相信开源硬件和软件将永远是帮助行业大规模解决问题的宝贵工具。”
  值得一提的是,凭借AI上的投入,扎克伯格在福布斯最新发布的2024(第38届)全球亿万富豪榜上占据第四名,资产净值为1770亿美元,这也是扎克伯格有记录以来的最高排名。以美元计算,扎克伯格的资产净值在过去一年增长最多,共增加1126亿美元,增幅为174.8%。
您需要登录后才可以回帖 登录 | Sign Up

本版积分规则

  • 11월 14일, 세계예선 아시아지역 제3단계 C조 제5라운드, 중국남자축구는 바레인남자축구와 원정경기를 가졌다.축구 국가대표팀은 바레인을 1-0으로 꺾고 예선 2연승을 거두었다. 특히 이번 경기 국내 유일한 중계 ...
    我是来围观的逊
    4 시간전
    Up
    Down
    Reply
    Favorite
  • 계면신문기자 장우발 4분기의 영업수입이 하락한후 텐센트음악은 다시 성장으로 돌아왔다. 11월 12일, 텐센트음악은 최신 재보를 발표했다.2024년 9월 30일까지 이 회사의 3분기 총수입은 70억 2천만 위안으로 전년 ...
    勇敢的树袋熊1
    그저께 15:27
    Up
    Down
    Reply
    Favorite
  • 본사소식 (기자 원전새): 11월 14일, 다다그룹 (나스닥코드: DADA) 은 2024년 3분기 실적보고를 발표했다. 수치가 보여준데 따르면 고품질발전전략에 지속적으로 전념하고 사용자체험을 끊임없이 최적화하며 공급을 ...
    家养宠物繁殖
    어제 15:21
    Up
    Down
    Reply
    Favorite
  • 11월 12일 소식에 따르면 소식통에 따르면 아마존은 무료스트리밍서비스 Freevee를 페쇄하고 일부 종업원과 프로를 구독서비스 Prime Video로 이전할 계획이다. 올해 초 아마존이 내놓은 몇 편의 대형 드라마의 효 ...
    度素告
    그저께 13:58
    Up
    Down
    Reply
    Favorite
长安不良帅 注册会员
  • Follow

    0

  • Following

    0

  • Articles

    37