Cerebras Systems kündigte ein neues Tool für KI-Entwickler an, das Zugang zu den übergroßen Chips des Start-ups bietet und eine erheblich kostengünstigere Alternative zu den branchenüblichen Nvidia-Prozessoren darstellt. Die Nutzung von Nvidia-Grafikprozessoren (GPUs) – oft über Cloud-Computing-Anbieter – zur Schulung und Bereitstellung großer KI-Modelle, wie sie beispielsweise bei OpenAIs ChatGPT zum Einsatz kommen, kann sowohl schwer zugänglich als auch teuer sein. Dieser Prozess wird von Entwicklern als Inferenz bezeichnet. „Wir bieten eine Leistung, die mit einer GPU nicht erreicht werden kann“, sagte Cerebras-CEO Andrew Feldman in einem Interview. „Wir tun dies mit höchster Genauigkeit und zum niedrigsten Preis.“ Der Markt für Inferenzprozesse in der KI wird als schnell wachsend und attraktiv angesehen – er könnte letztlich Milliarden von Dollar wert sein, wenn Verbraucher und Unternehmen KI-Tools in großem Maßstab übernehmen. Das in Sunnyvale, Kalifornien ansässige Unternehmen plant, mehrere Typen des Inferenzprodukts über einen Entwicklerschlüssel und seine Cloud anzubieten. Zudem wird das Unternehmen seine KI-Systeme an Kunden verkaufen, die ihre eigenen Rechenzentren betreiben möchten. Die Chips von Cerebras – jeder so groß wie ein Essteller und Wafer Scale Engines genannt – umgehen eines der Probleme bei der Verarbeitung von KI-Daten: Die Daten großer Modelle, die KI-Anwendungen antreiben, passen typischerweise nicht auf einen einzigen Chip und erfordern oft hunderte oder tausende zusammenhängende Chips. Das bedeutet, dass die Chips von Cerebras schnellere Leistungen erzielen können, so Feldman. Das Unternehmen plant, den Nutzern nur 10 Cent pro Million Token zu berechnen, eine der Methoden, mit der Unternehmen die Menge der Ausgabedaten aus großen Modellen messen können. Cerebras strebt einen Börsengang an und hat diesen Monat einen vertraulichen Prospekt bei der Securities and Exchange Commission eingereicht, teilte das Unternehmen mit.
KI
Cerebras Systems setzt neuen Maßstab in der KI-Entwicklung
