Xiaomi MiMo AI Modelle Gestartet mit Effizientes Denken, Kleine Gre

Werbung
Written by aktualisiert: 5 Mai 2025 11:46 IST
Höhepunkte
  • Optimierte Pipelines, Textextraktion und Filterung erhhen Effizienz
  • MiMo-7B-Base erreicht 75,2 Punkte im BIG-Bench Hard (BBH)-Benchmark
  • MiMo-7B-RL-Zero erreicht 55,4 Punkte im AIME-Benchmark, 4,7 mehr als das

Xiaomis MiMo-7B-Base ist auf 25 Billionen Token vortrainiert

Photo Credit: Unsplash/Markus Winkler

Xiaomi MiMo AI Modelle Gestartet mit Effizientes Denken, Kleine Größe .Xiaomi hat am Dienstag ein Open-Source-Modell für künstliche Intelligenz (KI) mit Schwerpunkt auf logischem Denken veröffentlicht. Dies ist erste Open-Source-Modell des Technologie und konkurriert mit chinesisch Modellen wie DeepSeek R1 und Alibabas Qwen QwQ-32B sowie globalen Modellen wie OpenAIs o1 und Googles Gemini 2.0 Flash Thinking. Die MiMo-Familie hat vier Modelle mit einzigartigen Anwendungs fällen. Xiaomis MiMo Reasoning-KI-Modell soll mit DeepSeek R1 konkurrieren.Mit der MiMo-Reihe von KI-Modellen wollten die Forscher von Xiaomi das problem lösen Sie die Berechnung von KI-Modellen. Computermodelle verfügen über etwa 24 Milliarden oder mehr Parameter.

Die große Größe wird gepflegt, um gleichmäßige und gleichzeitige Verbesserungen sowohl der Codierungs- als auch der mathematischen Fähigkeiten großer Sprachmodelle zu erreichen, was bei kleineren Modellen als schwierig ist . Im Vergleich dazu hat MiMo über sieben Milliarden Parameter, und Xiaomi behauptet, dass seine Leistung mit der von OpenAIs o1-mini mithalten und mehrere Reasoning-Modelle mit 32 Milliarden Parametern übertreffen würde. Die Forscher gaben an, dass das grundlegende KI-Modell mit 25 Billionen Token vortrainiert wurde.

Die Forscher sagt, dass die Effizienz durch die Optimierung der Daten vor verarbeitungs pipelines erreicht wurde,Verbesserung der Text extraktions Toolkits und Anwendung multi dimensionaler Daten filterung. Das Vortraining von MiMo umfasste eine dreistufige Daten mischungs strategie.Die Xiaomi-Forscher sagt, dass die MiMo-7B-Base im BIG-Bench Hard (BBH)-Benchmark für Denkfähigkeiten 75,2 Punkte erreicht. Der auf Zero-Shot-Reinforcement-Learning (RL) basierende MiMo-7B-RL-Zero soll bei Mathematik- und Codierungs aufgaben herausragend sein und erreicht im AIME-Benchmark 55,4 Punkte, welches das o1-mini um 4,7 Punkte übertrifft.

 MiMo ein Open-Source-KI-Modell ist , kann es von Xiaomis GitHub- und Hugging Face-Liste heruntergeladen werden. Das technische Dokument beschreibt die Architektur des Modells und die Vor und Nach trainings prozesse. Es handelt sich um ein textbasiertes Modell ohne multimodale Funktionen. Wie bei den meisten Open-Source-Versionen sind die Details des Datensatzes des Modells unbekannt.
 
Weiterführende Literatur: Xiaomi, MiMo, AI, Artificial Intelligence, AI Model, LLM
Advertisement
Popular Brands
#Neueste Geschichten
  1. Silent Hill 2 Remake erscheint angeblich im Oktober im PS Plus Spielekatalog
  2. Realme gibt Partnerschaft mit Ricoh Imaging des Realme GT 8 Pro näher.
  3. Googles AI Shopping Funktion Schuhanproben. Google erweitert AI Einkaufs erlebnis.
  4. Apples faltbares iPhone soll mit Rahmen aus Titan und Aluminium ausgestattet sein
  5. Oktober 2025 Pixel Updates werden veröffentlicht, einschließlich der Behebung von Pixel 10 Anzeigefehlern
  6. Google ignoriert bekannte Sicherheitslücke im Gemini KI System
  7. Google Home Chef nächsten Generation mit Gemini Technologie an
  8. NotebookLM kann Google Drive sofort nach Quellen
  9. Vivo X300 Serie mit Sony LYT828 Sensor und benutzerdefiniertem HPB Objektiv: Siehe erwartete Kameraspezifikationen
  10. Oppo Find X9 Ultra könnte das einzige Flaggschiff mit Dual Periskop Teleobjektiv sein
Download Our Apps
Available in Hindi
© Copyright Red Pixels Ventures Limited 2025. All rights reserved.