Listen to the article
xAI pumpt Milliarden in die Entwicklung seiner künstlicher Intelligenz. Kernstück des Ganzen ist die Anlage „Colossus“. Was dahintersteckt.
Innerhalb der letzten Wochen erregte Grok, die künstliche Intelligenz des von Elon Musk gegründeten Tech-Konzerns xAI, in mehrfacher Hinsicht Aufmerksamkeit. Erstens ging es dabei um die Erstellung sexualisierter Bilder von Personen ohne deren Zustimmung. Zweitens aber tauchten mehrere Posts auf der Kurznachrichtenplattform X auf, die einige Details zu „Colossus 3“ nannten. Was steckt dahinter?
Elon Musk pumpt Milliarden in den Grok-„Colossus“
Die „Colossus“-Gebäude sind quasi das Herz der künstlichen Intelligenz Grok. „Wir betreiben den weltweit größten Supercomputer, Colossus“, schreibt xAI dazu auf der hauseigenen Homepage. Die Anlage sei innerhalb von 122 Tagen gebaut worden und soll das stärkste Trainingssystem für KI sein. Ein Post auf X gibt dazu an, dass Colossus 1, 2 und 3 zusammen eine Fläche von über 232.000 Quadratmeter besäßen (umgerechnet von square feet). Colossus soll gemeinsam einen Supercomputer mit einer Leistung von zwei Gigawatt und mit über einer Million Grafikkarten bilden. Der Komplex soll womöglich 35 Milliarden US-Dollar gekostet haben.
Die Meldung der über eine Million Grafikkarten dürfte aus der aktuellsten Unternehmensmeldung stammen. xAI sei auf gutem Wege, seine Rechenzentren auszubauen, und hätte das Jahr 2025 mit über einer Million H100 GPU-Äquivalente beendet, berichtete das Unternehmen. Nvidia preist die H100 als eine Grafikkarte an, die „marktführende konversationelle KI“ liefern und LLMs (Large Language Models) um das Dreißigfache beschleunigen könne.
Tausende Grafikkarten für Elon Musks Grok-KI
Gleichzeitig besteht die Möglichkeit, dass xAI wesentlich mehr Grafikkarten verwendet als das, solange sie aber der einen Million H100-Grafikkarten entsprechen. Eine entsprechende Anfrage durch FOCUS online ließ xAI unbeantwortet; lediglich eine automatisierte Mail mit der Meldung „Legacy Media Lies“ (Mainstream-Medien-Lügen) kam zurück. Ebenso gab der Konzern keine Angaben zu den Kosten der Colossus-Bauten.
Auf der xAI-Homepage und einer speziell für Colossus aufgelegten Timeline ist jeweils von 200.000 und 15.000 Grafikkarten die Rede. Allerdings ist das letzte Update vom Februar 2025.
xAI sammelt Milliarden ein: Warnungen vor KI-Bubble
Anfang Januar 2026 gab xAI bekannt, eine jüngste Finanzierungsrunde beendet und rund 20 Milliarden US-Dollar eingefahren zu haben. Frühere Finanzierungsrunden hatten zweimal 6,0 Milliarden Dollar (jeweils Mai 2024 und Dezember 2024) eingebracht. Das US-Nachrichtenportal CNBC berichtete im November 2025, xAI sei nach einer Finanzierungsrunde von 15 Milliarden US-Dollar über 200 Milliarden US-Dollar wert. Elon Musk hatte diesen Bericht selbst auf X dementiert.
Angeblich braucht xAI die eingesammelten Summen schnell auf. Der Bau von Rechenzentren, das Recruiting von neuen Mitarbeitern und die Entwicklung von Software frisst erhebliche Summen. Im September berichtete das von Musk gegründete Unternehmen einen Nettoverlust von 1,46 Milliarden US-Dollar, was gegenüber dem Verlust des ersten Quartals (1,0 Milliarden US-Dollar) einen deutlichen Anstieg der Verluste bedeutet. Das teilte unter anderem Bloomberg unter Berufung auf vorliegende Dokumente mit. In den ersten neun Monaten 2025 soll xAI rund 7,8 Milliarden US-Dollar ausgegeben haben.
Zu den Investoren von xAI gehören unter anderem die Stepstone-Gruppe, Fidelty Management & Research Company, Cisco Investments und Nvidia selbst. Die KI-Branche ist solche Deals derzeit gewöhnt: KI-Unternehmen holen sich Finanzierungsgelder von exakt den Tech-Firmen, von denen sie ihre Hardware kaufen. Für einige Köpfe der Branche ist das ein Anzeichen für eine Bubble. Unter anderem hatten Amazon-Chef Jeff Bezos und der Big-Short-Investor Michael Burry davor gewarnt.
Den vollständigen Artikel hier lesen


26 Kommentare
Die Diskrepanz in den Grafikkartenangaben könnte darauf hindeuten, dass xAI verschiedene Konfigurationen verwendet oder dass die Zahlen sich auf unterschiedliche Phasen des Aufbaus beziehen.
Die automatische Antwort von xAI mit dem Hinweis auf „Mainstream-Medien-Lügen“ wirkt wenig professionell und befeuert die Spekulationen über die tatsächlichen Zahlen.
Die Tatsache, dass xAI auf 1 Million H100 GPU-Äquivalente bis 2025 abzielt, zeigt, wie aggressiv sie in den KI-Wettlauf einsteigen. Das ist eine massive Investition in Hardware.
Die schnelle Bauzeit von 122 Tagen für Colossus wirft die Frage auf, ob dabei alle notwendigen Umweltverträglichkeitsprüfungen durchgeführt wurden.
Die Erstellung sexualisierter Bilder ohne Zustimmung, die im Zusammenhang mit Grok auftauchte, ist ein sehr ernstes Problem und wirft ethische Fragen auf.
Ich bin etwas skeptisch, dass xAI die Kosten von 35 Milliarden Dollar für Colossus bestätigen würde, wenn die Summe so hoch ist. Die fehlende Antwort auf die Anfrage von FOCUS online verstärkt diesen Eindruck.
Die Fokussierung auf die H100-Grafikkarten ist verständlich, da sie als besonders leistungsfähig gelten, aber wie sieht es mit Alternativen aus, um die Abhängigkeit von Nvidia zu verringern?
Die Investition von insgesamt über 57 Milliarden Dollar (20 + 6 + 6 + 15) in xAI innerhalb eines kurzen Zeitraums ist ein klares Signal, dass Elon Musk hier etwas Großes aufbauen will.
Zwei Gigawatt Leistung für einen Supercomputer – das ist mehr als der Energieverbrauch einer kleinen Stadt! Wie nachhaltig ist das?
Eine sehr wichtige Frage. Die Energieeffizienz von KI-Rechenzentren wird immer kritischer.
Die Größe der Colossus-Anlagen in Quadratmetern ist beeindruckend, aber wie sieht es mit der Kühlung aus? So viele Grafikkarten erzeugen enorme Wärme.
Die Behauptung von CNBC, xAI sei über 200 Milliarden Dollar wert, und Elon Musks anschließende Dementierung zeigen, wie volatil die Bewertung von KI-Unternehmen sein kann.
Elon Musks Dementi der CNBC-Bewertung ist ein interessanter Schachzug. Möchte er die Erwartungen dämpfen oder die Verhandlungen über weitere Finanzierungen beeinflussen?
Das ist gut möglich. Eine überhöhte Bewertung kann auch Druck erzeugen.
Die Diskrepanz zwischen den Angaben von 200.000 und 15.000 Grafikkarten auf der xAI-Homepage ist verwirrend. Welcher Wert stimmt denn nun?
Das Update vom Februar 2025 deutet darauf hin, dass die Zahlen veraltet sein könnten. Vielleicht hat sich die Konfiguration geändert.
Die Finanzierungsrunden im Januar und Dezember 2025 scheinen darauf hindeuten, dass xAI weiterhin auf externes Kapital angewiesen ist, trotz der hohen Investitionen.
Es ist bemerkenswert, dass Colossus innerhalb von nur 122 Tagen gebaut wurde. Das deutet auf eine sehr effiziente Bauplanung und -ausführung hin.
Die Entwicklung von Grok und Colossus zeigt, dass der KI-Wettlauf in vollem Gange ist und dass Unternehmen bereit sind, enorme Summen zu investieren, um die Führung zu übernehmen.
Es ist interessant zu sehen, wie xAI versucht, die Kontrolle über die Narrative zu behalten, indem sie kritische Berichte als „Lügen“ abtun.
Die Aussage, dass die H100 Grafikkarten LLMs um das Dreißigfache beschleunigen können, klingt fast zu gut, um wahr zu sein. Gibt es unabhängige Bestätigungen dafür?
Die Tatsache, dass xAI so viel Geld für Rechenzentren und Mitarbeiter ausgibt, zeigt, dass sie nicht nur an der Hardware, sondern auch an der Software und dem Know-how arbeiten.
Die Angabe von über 232.000 Quadratmetern für die Colossus-Anlagen ist enorm! Das ist fast das Dreifache der Fläche des Berliner Hauptbahnhofs, oder?
Stimmt, eine unglaubliche Größe. Man fragt sich, wie viel Energie diese Anlage verbrauchen wird.
Ich frage mich, wie sich die Entwicklung von Grok und Colossus auf andere KI-Projekte und Unternehmen auswirken wird. Wird es einen neuen Wettbewerbsdruck geben?
Die rasante Entwicklung im Bereich der künstlichen Intelligenz und die damit verbundenen Investitionen lassen mich an eine mögliche KI-Blase denken. Ist das Risiko gegeben?