現在の話題
2025 Buffett shareholders' meeting: What's the new buzz in value investing?
🎙️Discussion 1. In the face of market changes, do you prefer to stick with growth stocks or switch to value stocks? 2. Based on the current もっと見る
Moomoo News Global
04/28 18:10
ウォーレン・バフェットはアメリカの株式が暴落する中で堂々と立っています: 'オラクル'が関税の影響にどのように取り組んでいるか
Moriarty mcG スレ主 : シャオミは最近、2025年4月30日に発表された、推論タスク用に設計された最初のオープンソースの大規模言語モデル(LLM)であるMiMoを発表しました。以下は入手可能な情報に基づく詳細な内訳です:
MiMoとは何か?
MiMo(おそらく「マインドフルモデル」と同様の用語の略称ですが、明示的には定義されていません)は、数学、コーディング、一般的な推論タスク用にシャオミのLLMコアチームによってゼロからトレーニングされた70億パラメーターのLLMシリーズです。推論能力を向上させるために、プレトレーニングとポストトレーニング(強化学習またはRL)を通じて最適化されています。
MiMo-70億シリーズには以下が含まれます:
- MiMo-70億Base:パフォーマンスと推論速度を向上させるために、~25兆トークンでマルチトークン予測目的でプレトレーニングされています。
- MiMo-70億SFT:監視付きファインチューニングバージョンです。
- MiMo-70億RL:基本モデルからRLチューニングされており、数学とコードに優れています。
- MiMo-70億RL-Zero:冷スタートの監視付きファインチューニングモデルからRLトレーニングされており、特定のベンチマークで93.6%を達成しています。
パフォーマンス
そのコンパクトなサイズ(70億パラメーター)にもかかわらず、MiMoはOpenAIのクローズドソースのo1-miniやアリババのQwen-320億Previewなどの大規模モデルを、主要なベンチマーク(例えば、AIME24、AIME25、LiveCodeBench、MATH500、GPQA-Diamond)で上回っています。例えば、MiMo-70億RLは数学とコーディングタスクにおいてo1-miniのパフォーマンスに匹敵します。
MiMoは、13万のキュレーションされた数学/コーディング問題による三段階のプレトレーニングデータミクスチャとRLを使用しており、ルールベースのシステムによって検証された質の高いデータを保証します。テスト難易度駆動の報酬システムとデータの再サンプリングが最適化を向上させます。
利用可能性
MiMoはオープンソースであり、モデルはHugging Face(https://huggingface.co/XiaomiMiMo)で利用可能です。シャオミはvLLMのフォーク版を介した推論をサポートしていますが、他のエンジンとの互換性は確認されていません。チームはmimo@xiaomi.comで貢献とフィードバックを歓迎しています。
リリースには全モデルのチェックポイントが含まれ、推論に特化したLLMの構築に関する洞察を提供することで、より広範な人工知能コミュニティに利益をもたらすことを目指しています。
重要性
MiMoはシャオミの競争の激しい人工知能の領域への参入を示しており、ハードウェアを超えた野心を示しています。Xでの投稿では、そのコンパクトな効率と優れたパフォーマンスが強調され、シャオミのオープンソース人工知能における革新が称賛されています。
プロプライエタリモデルとは異なり、MiMoのオープンソースの性質は開発者や研究者がそれを適応して構築できることを可能にし、推論に特化した人工知能アプリケーションの進展を加速させる可能性があります。
Saywallahcuzzy : もっとお金をプットする必要があると思う
モーニングスターが何と言おうと、気にしない