MetaがオープンソースのビッグモデルLlama 3.1を強力にリリースしてアシストした
就放荡不羁就h
发表于 2024-7-24 13:05:32
198
0
0
「科創板日報」は7月24日、ザッカーバーグ氏が大模型のオープンソースを最後まで行ったと報じた。
Metaは今日未明、8 B、70 B、405 Bの3つのバージョンを含む次世代オープンソース大モデルLlama 3.1シリーズを正式に発表し、最大コンテキストは128 kに向上した。
Meta創業者のザッカーバーグ氏は同時にホームページで自社モデルの強力な代弁者として投稿した。同氏によると、現在リードしている科学技術会社の多くと科学研究はオープンソースソフトウェアの上に構築されており、オープンソースはAIの前進方向であり、MetaはオープンソースAI業界の標準となる目標に向かっているという。
科学技術界では、開源と閉源の紛争は長い間続いてきたことを強調しなければならない。批判者は、オープンソースは技術の独創性の欠如を覆い隠し、オープンソースモデルを簡単に調整するだけで、実質的な革新ではないと考えている。百度の創始者である李彦宏氏は、開源大モデルは学術研究、教育分野などの特定の場面で存在する価値があるが、ほとんどの応用シーンには適用されないと述べた。支持者は、成熟したオープンソースアーキテクチャに基づくカスタマイズ改善は技術発展の常態であり、技術の急速な革新と進歩を推進することができると考えている。
大モデル分野では、開源と閉源の大モデルの優劣比較も時々発生する。これまで、オープンソースモデルは機能と性能の面で閉鎖モデルに遅れていることが多かった。しかし、Llama 3.1の発表に伴い、大モデルの開源と閉源は新たな激闘を迎えるかもしれない。
Metaが提供する基準テストデータによると、Llama 3.1は4050億のパラメータを持ち、近年最大規模の大言語モデルの1つである。このモデルは15兆個のTokens、1.6万個を超えるH 100 GPU上で訓練を行ったことに基づいており、これもMeta史上初めてこのモデルで訓練を行ったLlamaモデルである。Metaによると、常識、操作性、数学、ツール使用、多言語翻訳などの先進的な機能の面で、Llama 3.1はGPT-4 oやClaude 3.5 Sonnetなどのトップレベルの閉源大モデルを対標するのに十分である。
Llama 3.1は現在、Meta公式サイトとHugging Faceでダウンロードをオープンしている。最新データによると、すべてのLlamaバージョンの総ダウンロード数は3億回を超えている。
同日同じ時間に、英偉達也はグループトレーニングサービスを提供し、Llama 3.1の強力なアシストをした。
「科創板日報」の記者は、英偉達側から、英偉達は正式に新しいNVIDIA AI FoundryサービスとNVIDIA NIM推理マイクロサービスを発売したことを明らかにした。NVIDIA AI FoundryはNVIDIA DGX Cloud AIプラットフォームによって駆動され、このプラットフォームはNVIDIAと共有クラウドによって共同で設計され、企業に大量のコンピューティングリソースを提供することができる。
NVIDIA AI Foundry、NVIDIA NIMを組み合わせたLlama 3.1シリーズのオープンソースモデルを使用して、企業はその特定分野の業界ユースケースのためにカスタム「スーパーモデル」を作成することができます。企業はまた、これらのスーパーモデルを訓練するために、Llama 3.1 405 BおよびNVIDIA Nemotron Rewardモデルによって生成された合成データとともに、自己所有データを使用することができる。
英偉達の創始者兼最高経営責任者の黄仁勲氏は、MetaのLlama 3.1オープンソースモデルは、グローバル企業が生成型AIを採用する正念場が到来したことを示していると述べた。Llama 3.1は各企業と業界が先進的な生成式AI応用を創出する波を巻き起こすだろう。NVIDIA AI Foundryは、Llama 3.1をプロセス全体に統合しており、カスタムLlamaスーパーモデルの構築と導入を支援することができます。
CandyLake.com is an information publishing platform and only provides information storage space services.
Disclaimer: The views expressed in this article are those of the author only, this article does not represent the position of CandyLake.com, and does not constitute advice, please treat with caution.
Disclaimer: The views expressed in this article are those of the author only, this article does not represent the position of CandyLake.com, and does not constitute advice, please treat with caution.
You may like
- 米株の出来高上位20位:英偉達下落2%超英偉達は米東時間水曜日に2025年度第2財季財報を発表する
- 総説|多重利空刺激による英偉達株価の顕著な回復
- 8%急騰!黄仁勲氏が市場をなだめる:AIチップの買い占めブームはまだ続いており、すべての人が私たちを当てにしている
- 12月に法廷で会おう!Arm、クアルコムはライセンス許可のために強気に空を隔てて相手を叫ぶ
- 米国の重量ポンドデータ発表!納指下落超512点科学技術「七姉妹」全線下落アップル下落超1.8%英偉達市価一夜蒸発1兆1500億元
- 世界の為替相場が大揺れ!強いドルが襲来非米通貨切り下げ圧力倍増
- 英偉達雲ゲームサービスはゲーム時間を制限する
- 偉達氏とソフトバンク、日本でAIインフラ整備で協力
- 世界初!英偉達とソフトバンクが「AI+5 G」を試運転通信業界は重大な突破を迎えた
- 阿里通義千問コードモデルQwen 2.5-Coder全シリーズ正式オープンソース
-
"영비릉: 2024회계연도 영업수입 동기대비 8% 감소"영비릉은 2024회계연도 재무제보를 발표했다.2024 회계연도 매출은 149억5500만 유로로 전년 동기 대비 8% 감소했습니다.이익은 31억 500만 유로입니다.이익률은 ...
- 勇敢的树袋熊1
- 3 일전
- Up
- Down
- Reply
- Favorite
-
계면신문기자 장우발 4분기의 영업수입이 하락한후 텐센트음악은 다시 성장으로 돌아왔다. 11월 12일, 텐센트음악은 최신 재보를 발표했다.2024년 9월 30일까지 이 회사의 3분기 총수입은 70억 2천만 위안으로 전년 ...
- 勇敢的树袋熊1
- 그저께 15:27
- Up
- Down
- Reply
- Favorite
-
본사소식 (기자 원전새): 11월 14일, 다다그룹 (나스닥코드: DADA) 은 2024년 3분기 실적보고를 발표했다. 수치가 보여준데 따르면 고품질발전전략에 지속적으로 전념하고 사용자체험을 끊임없이 최적화하며 공급을 ...
- 家养宠物繁殖
- 어제 15:21
- Up
- Down
- Reply
- Favorite
-
11월 12일 소식에 따르면 소식통에 따르면 아마존은 무료스트리밍서비스 Freevee를 페쇄하고 일부 종업원과 프로를 구독서비스 Prime Video로 이전할 계획이다. 올해 초 아마존이 내놓은 몇 편의 대형 드라마의 효 ...
- 度素告
- 그저께 13:58
- Up
- Down
- Reply
- Favorite