Xiaomi MiMo AI Modelle Gestartet mit Effizientes Denken, Kleine Gre

Werbung
Written by aktualisiert: 5 Mai 2025 11:46 IST
Höhepunkte
  • Optimierte Pipelines, Textextraktion und Filterung erhhen Effizienz
  • MiMo-7B-Base erreicht 75,2 Punkte im BIG-Bench Hard (BBH)-Benchmark
  • MiMo-7B-RL-Zero erreicht 55,4 Punkte im AIME-Benchmark, 4,7 mehr als das

Xiaomis MiMo-7B-Base ist auf 25 Billionen Token vortrainiert

Photo Credit: Unsplash/Markus Winkler

Xiaomi MiMo AI Modelle Gestartet mit Effizientes Denken, Kleine Größe .Xiaomi hat am Dienstag ein Open-Source-Modell für künstliche Intelligenz (KI) mit Schwerpunkt auf logischem Denken veröffentlicht. Dies ist erste Open-Source-Modell des Technologie und konkurriert mit chinesisch Modellen wie DeepSeek R1 und Alibabas Qwen QwQ-32B sowie globalen Modellen wie OpenAIs o1 und Googles Gemini 2.0 Flash Thinking. Die MiMo-Familie hat vier Modelle mit einzigartigen Anwendungs fällen. Xiaomis MiMo Reasoning-KI-Modell soll mit DeepSeek R1 konkurrieren.Mit der MiMo-Reihe von KI-Modellen wollten die Forscher von Xiaomi das problem lösen Sie die Berechnung von KI-Modellen. Computermodelle verfügen über etwa 24 Milliarden oder mehr Parameter.

Die große Größe wird gepflegt, um gleichmäßige und gleichzeitige Verbesserungen sowohl der Codierungs- als auch der mathematischen Fähigkeiten großer Sprachmodelle zu erreichen, was bei kleineren Modellen als schwierig ist . Im Vergleich dazu hat MiMo über sieben Milliarden Parameter, und Xiaomi behauptet, dass seine Leistung mit der von OpenAIs o1-mini mithalten und mehrere Reasoning-Modelle mit 32 Milliarden Parametern übertreffen würde. Die Forscher gaben an, dass das grundlegende KI-Modell mit 25 Billionen Token vortrainiert wurde.

Die Forscher sagt, dass die Effizienz durch die Optimierung der Daten vor verarbeitungs pipelines erreicht wurde,Verbesserung der Text extraktions Toolkits und Anwendung multi dimensionaler Daten filterung. Das Vortraining von MiMo umfasste eine dreistufige Daten mischungs strategie.Die Xiaomi-Forscher sagt, dass die MiMo-7B-Base im BIG-Bench Hard (BBH)-Benchmark für Denkfähigkeiten 75,2 Punkte erreicht. Der auf Zero-Shot-Reinforcement-Learning (RL) basierende MiMo-7B-RL-Zero soll bei Mathematik- und Codierungs aufgaben herausragend sein und erreicht im AIME-Benchmark 55,4 Punkte, welches das o1-mini um 4,7 Punkte übertrifft.

 MiMo ein Open-Source-KI-Modell ist , kann es von Xiaomis GitHub- und Hugging Face-Liste heruntergeladen werden. Das technische Dokument beschreibt die Architektur des Modells und die Vor und Nach trainings prozesse. Es handelt sich um ein textbasiertes Modell ohne multimodale Funktionen. Wie bei den meisten Open-Source-Versionen sind die Details des Datensatzes des Modells unbekannt.
 
Weiterführende Literatur: Xiaomi, MiMo, AI, Artificial Intelligence, AI Model, LLM
Advertisement
Popular Brands
#Neueste Geschichten
  1. Oppo F31, F31 Pro und F31 Pro+ kommen, wichtige Spezifikationen
  2. Samsung Galaxy A17 5G ist jetzt in Großbritannien
  3. Honor X7d mit 6,77 Zoll Display und Snapdragon 685 angekündigt
  4. Google Pixel 10-Serie unterstützt Sprach und Videoanrufe auf WhatsApp über Satellitennetzwerk: alles, was wir wissen
  5. Xiaomi Mix Flip 2 Diamond Edition mit eingebettetem, im Labor gezüchtetem Diamanten aufgefrischt
  6. Rogue Prince of Persia auf PC und Konsolen Game Pass und im PS Plus
  7. Meta stoppt Einstellungs welle in der AI im Zuge der Umstrukturierung von Super intelligence
  8. Apple TV+ wird für Abonnenten in den USA und ausgewählten anderen Märkten 30 Prozent teurer
  9. Samsung Galaxy S26 Pro und Galaxy S26 Edge könnten angeblich mit einem Exynos 2600 Chip ausgestattet sein
  10. Honor Magic V Flip 2 mit 5.500mAh Akku und 200 Megapixel Hauptkamera auf den Markt gebracht: Preis, Spezifikationen
Download Our Apps
Available in Hindi
© Copyright Red Pixels Ventures Limited 2025. All rights reserved.