暫無內容
暫無數據
或受小米衝擊影響 保時捷或撤離中國電動車市場
中關村在線17:07 (美東)
小米汽車5月計劃新增29家門店
格隆匯4月30日|小米汽車公佈開店新進展:4月新增34家門店,全國74城已有269家門店;5月計劃新增29家門店,預計新增覆蓋宜昌、蕪湖等8座城市;截止4月30日,全國已有132家服務網點,覆蓋全國79城。
格隆匯04/30 06:25 (美東)
港股通美團淨流入5.54億港元
AASTOCKS04/30 06:25 (美東)
小米集團-W小米系列深度報告之二:汽車篇-新消費定義高端豪華,方法論支撐車攀巔峯
長江證券04/30 05:14 (美東)
《大行》建銀國際料恒指短期於22,000點上下波動 籲採區間交易策略
AASTOCKS04/30 04:09 (美東)
機構:Q1全球智能手機市場出貨量達2.969億台 小米排名第三
愛集微04/30 03:31 (美東)
Moriarty mcG 樓主 : 小米最近發佈了MiMo,這是其首個開源大型語言模型(LLM),旨在解決推理任務,發佈於2025年4月30日。以下是基於可用信息的詳細介紹:MiMo是什麼?MiMo(可能代表「Mindful Model」或類似術語,儘管沒有明確定義)是一個由小米的LLM-Core團隊從零開始訓練的-70亿參數LLM系列,專門用於數學、編碼和一般推理任務。它通過預訓練和後訓練(強化學習,或RL)進行優化,以增強推理能力。MiMo-70億系列包括:MiMo-70億.Base:在大約25万亿個標記上進行預訓練,目標是通過多標記預測來提升性能和推理速度。MiMo-70億.SFT:一個經過監督微調的版本。MiMo-70億.RL:從基礎模型進行RL調優,在數學和代碼方面表現優越。MiMo-70億.RL-Zero:從冷啓動的監督微調模型進行RL訓練,在特定基準測試中達到93.6%。性能儘管其體積小(70億參數),MiMo的表現超越了更大的模型,如OpenAI的閉源o1-mini和阿里巴巴的Qwen-320亿。在關鍵基準測試中的預覽(例如,AIME24,AIME25,LiveCodeBench,MATH500,GPQA-金剛石)。例如,MiMo-70億.RL在數學和編碼任務中與o1-mini的表現相當。它使用三階段預訓練數據混合和RL,包含13万道經過規則系統驗證的數學/編碼問題,以確保質量。一個基於測試難度的獎勵系統和數據重採樣加強了其優化。可用性MiMo是開源的,模型可在Hugging Face(https://huggingface.co/XiaomiMiMo)上獲得。小米通過一個分叉版本的vLLM支持推理,儘管與其他引擎的兼容性尚未驗證。團隊歡迎對mimo@xiaomi.com的貢獻和反饋。發佈包括所有模型變體的檢查點,旨在通過提供構建以推理爲重點的LLM的見解來惠及更廣泛的人工智能社區。重要性MiMo標誌着小米進入競爭激烈的人工智能領域,展示了其超越硬件的雄心。在X上發帖強調其緊湊的高效性和卓越的表現,讚美小米在開源人工智能方面的創新。與專有模型不同,MiMo的開源特性允許開發者和研究人員進行適應和構建,可能加速推理爲重點的人工智能應用的進步。
Saywallahcuzzy : 我覺得我需要看跌更多的錢 我不在乎晨星怎麼說。
sschong : 已過期?
路小溪 樓主 : 28年過期
Titania : 如果停牌前賣出,你就有獲利,如果沒有賣出就全部沒有了
路小溪 樓主 Titania : 完咯
琳达… : 沒有停牌,午間休息呀
105402406 : 爆倉了
WHHK : 回收49
招财猫1688 樓主 : 第一次買這玩意
Titania : 跌到0.01分再就停牌了,然後就是清算。我剛玩時也交了很多學費
查看更多評論...
TheAugustBull八月牛 : 很猛呀!
M55 : 還需要等待關稅結束去進騰訊嗎
包包的粉粉 : 強 謝謝包包推薦 愛你
旋风小子 : 一如即往(的嗎)
cswong9696 : Call嗎?姐
Moriarty mcG 樓主 : 小米最近發佈了MiMo,這是其首個開源大型語言模型(LLM),旨在解決推理任務,發佈於2025年4月30日。以下是基於可用信息的詳細介紹:
MiMo是什麼?
MiMo(可能代表「Mindful Model」或類似術語,儘管沒有明確定義)是一個由小米的LLM-Core團隊從零開始訓練的-70亿參數LLM系列,專門用於數學、編碼和一般推理任務。它通過預訓練和後訓練(強化學習,或RL)進行優化,以增強推理能力。
MiMo-70億系列包括:
MiMo-70億.Base:在大約25万亿個標記上進行預訓練,目標是通過多標記預測來提升性能和推理速度。
MiMo-70億.SFT:一個經過監督微調的版本。
MiMo-70億.RL:從基礎模型進行RL調優,在數學和代碼方面表現優越。
MiMo-70億.RL-Zero:從冷啓動的監督微調模型進行RL訓練,在特定基準測試中達到93.6%。
性能
儘管其體積小(70億參數),MiMo的表現超越了更大的模型,如OpenAI的閉源o1-mini和阿里巴巴的Qwen-320亿。
在關鍵基準測試中的預覽(例如,AIME24,AIME25,LiveCodeBench,MATH500,GPQA-金剛石)。例如,MiMo-70億.RL在數學和編碼任務中與o1-mini的表現相當。
它使用三階段預訓練數據混合和RL,包含13万道經過規則系統驗證的數學/編碼問題,以確保質量。一個基於測試難度的獎勵系統和數據重採樣加強了其優化。
可用性
MiMo是開源的,模型可在Hugging Face(https://huggingface.co/XiaomiMiMo)上獲得。小米通過一個分叉版本的vLLM支持推理,儘管與其他引擎的兼容性尚未驗證。團隊歡迎對mimo@xiaomi.com的貢獻和反饋。
發佈包括所有模型變體的檢查點,旨在通過提供構建以推理爲重點的LLM的見解來惠及更廣泛的人工智能社區。
重要性
MiMo標誌着小米進入競爭激烈的人工智能領域,展示了其超越硬件的雄心。在X上發帖強調其緊湊的高效性和卓越的表現,讚美小米在開源人工智能方面的創新。
與專有模型不同,MiMo的開源特性允許開發者和研究人員進行適應和構建,可能加速推理爲重點的人工智能應用的進步。
Saywallahcuzzy : 我覺得我需要看跌更多的錢
我不在乎晨星怎麼說。