Ein Team von Forschern der UC Berkeley hat das scheinbar Unmögliche geschafft: Sie haben die Kernfähigkeiten von DeepSeek R1-Zero für nur 30 Dollar nachgebaut – und damit bewiesen, dass fortschrittliche KI nicht Milliarden kosten muss. Ihr Projekt TinyZero zeigt, dass hochentwickelte KI-Reasoning-Modelle für jedermann zugänglich werden könnten.
🧠 Wie haben sie das gemacht?
Anstatt teure Cloud-Dienste oder massive Rechenpower zu nutzen, setzte das Team auf einen einfachen Sprachmodell-Ansatz mit Reinforcement Learning (RL). Sie trainierten TinyZero mit einem schlichten Prompt und einem Belohnungssystem – und das mit erstaunlichem Erfolg.
📊 Die Zahlen sprechen für sich:
💰 OpenAI API: 15 $ pro Million Tokens
💰 DeepSeek-R1: 0,55 $ pro Million Tokens
💰 TinyZero: Einmalige Trainingskosten von nur 30 $
🔎 Wie wurde TinyZero getestet?
Die Forscher nutzten das Mathe-Spiel Countdown, bei dem Spieler ein Ziel mit grundlegenden Rechenoperationen erreichen müssen. Anfangs riet TinyZero zufällig, aber mit der Zeit lernte es, seine eigenen Antworten zu verifizieren und zu verbessern. Modelle mit 500M Parametern blieben beim Raten, während größere Modelle ab 1.5B Parametern begannen, sich selbst zu korrigieren.
🛠 Verfügbarkeit:
📂 Open Source auf GitHub – jeder kann TinyZero ausprobieren und weiterentwickeln.
🎯 Noch in der Testphase, aber das Potenzial für breitere Anwendungen ist enorm.
🔥 Bedeutung:
Dieses Experiment könnte den KI-Markt revolutionieren. Wenn High-End-KI für fast jeden zugänglich wird, könnte es das Monopol großer Tech-Konzerne herausfordern und eine neue Ära offener, günstiger KI einläuten. 🚀