Google TimesFM: Foundation Model fuer Zeitreihen mit 16k Kontext
Google Research hat TimesFM veroeffentlicht -- ein Foundation Model fuer Zeitreihen mit 200 Millionen Parametern und einer Kontextlaenge von 16.000 Datenpunkten. Das Modell ist Open Source auf GitHub verfuegbar.
Die Idee: Ein Modell fuer alle Zeitreihen
Zeitreihen-Analyse war bisher eine Disziplin der Spezialmodelle. Fuer jede Domaene -- Finanzmaerkte, IoT-Sensoren, Servermetriken, Energieverbrauch -- trainiert man ein eigenes Modell mit domainspezifischen Features. TimesFM verfolgt den gleichen Ansatz, der bei LLMs funktioniert hat: ein generalistisches Modell, das auf grossen Mengen heterogener Zeitreihen-Daten vortrainiert wurde und sich auf verschiedene Aufgaben anwenden laesst -- Forecasting, Anomalie-Erkennung, Klassifikation.
Die 16k-Kontextlaenge ist dabei zentral. Viele Zeitreihen-Modelle arbeiten mit kurzen Fenstern und verlieren langfristige Muster. TimesFM kann laengere Sequenzen in einem Durchlauf verarbeiten, was saisonale Zyklen und langsame Trends besser erfasst.
Einordnung
Foundation Models fuer Zeitreihen sind ein aktives Forschungsfeld. Neben TimesFM gibt es Ansaetze wie Chronos (Amazon), TimeGPT (Nixtla) und Lag-Llama. Google positioniert sich mit 200 Millionen Parametern im Mittelfeld -- gross genug fuer Generalisierung, klein genug fuer praktischen Einsatz.
Die potenzielle Wirkung liegt in der Einstiegshuerde: Wer heute Zeitreihen-Forecasting braucht, muss Domain-Expertise, Feature-Engineering und Modelltraining mitbringen. Ein brauchbares Foundation Model koennte diesen Aufwand deutlich reduzieren -- aehnlich wie vortrainierte LLMs die NLP-Arbeit veraendert haben.
Ob TimesFM in der Praxis mit domainspezifischen Modellen mithalten kann, bleibt abzuwarten. Das hohe Interesse auf Hacker News (267 Punkte, 98 Kommentare) zeigt, dass die Community das Thema ernst nimmt.