Kontakt
Forschung

Forschung & Entwicklung

Maschinen die lernen. Rover die fahren.

Unsere Forschung verbindet Maschinelles Lernen, autonome Robotik und Energieoptimierung — vom Strompreis-Forecast bis zum selbstfahrenden Agrar-Rover.

Eigene GPU-Infrastruktur (NVIDIA GB10, 128 GB VRAM), 11.280 Autoresearch-Experimente, 3 Autopilot-Modi, 156 dokumentierte Rover-Experimente.

Forschungskooperation → Forschungsbereiche
0
Experimente
0
Rover Tests
128 GB
VRAM (GX10)
0
Autopiloten

Forschungsbereiche

Vier Frontlinien. Eine Vision.

Energie, Landwirtschaft, Video-KI und autonome Systeme — unsere Forschung ist anwendungsorientiert und produziert Ergebnisse die direkt in Produktion gehen.

ML & Forecasting

Strompreis-Vorhersage mit Prophet

Unsere ML-Pipeline trainiert 2x täglich Prophet-Modelle auf 61 Energiemärkten. Day-Ahead-Preise, Wetter, Last und Erzeugung fließen in multivariate Prognosen — MAE unter 5 EUR/MWh.

  • Prophet ML auf allen 61 Märkten (2x täglich)
  • Multivariate Features: Preis, Wetter, Last, Erzeugung
  • Oil ML Training: Brent + WTI Futures (alle 2 Std)
  • Gas Intelligence: TTF + Henry Hub Korrelationen
  • ClickHouse als Feature Store (50.000+ Datenpunkte/Tag)
MAE <5€
Prognose-Genauigkeit DE_LU
61 Märkte · 2x täglich
Autonome Robotik

Traxxas AgroBot Rover

Ein autonomer Rover auf Basis Traxxas VXL-8S mit LiDAR, 360°-Kamera, Gyro-Sensorik und drei Autopilot-Modi. 156 dokumentierte Experimente, 25 gelernte Regeln, 8 Crash-Logs — alles im RAG-Wissensspeicher.

  • 3 Autopilot-Modi: PilotNet CNN, LiDAR Geometrie, ML GBT
  • LD19 LiDAR + Insta360 X4 360° + Sense HAT Gyro
  • Hardware-PWM (GPIO 12/13, pigpio) auf Raspberry Pi 4
  • RAG: 156 Experimente, 25 Regeln (rover_knowledge.db)
  • InfluxDB Telemetrie zu Pi5 Leitstand
  • Agrar-Sensoren: Bodenfeuchte, CO2, Temp, Licht, Thermal
3 Autopiloten
PilotNet CNN · LiDAR · ML GBT
156 Experimente dokumentiert
Video-KI & Generative Modelle

LTX 2.3 auf eigener GPU

Video-Generierung mit LTX 2.3 (22B Parameter) auf unserem NVIDIA GB10 mit 128 GB VRAM. Text-zu-Video, Bild-zu-Video, Audio-Generierung — alles lokal, keine Cloud-Abhängigkeit.

  • LTX 2.3 22B: Two-Stage Pipeline mit LoRA (29 GB Checkpoint)
  • Flux 2 Klein 9B: Hero-Bilder in ~20s (1280x768, 8 Steps)
  • Qwen3-TTS: Voice Cloning (Holger-Stimme, self-hosted)
  • Dreamina/Seedance 2.0: Browser-Automation für Video
  • Remotion: React-basierte programmatische Video-Generierung
  • Premium Redub: Whisper STT → Translation → TTS → Szenen → Remotion
128 GB VRAM
NVIDIA GB10 Grace Blackwell
LTX 2.3 · Flux 2 · Qwen3-TTS
Autoresearch & Self-Improving Systems

Darwin-Gödel-Maschine

Unsere DGM (Darwin-Gödel-Machine) führt automatisch Verbesserungszyklen durch: Log → Analyse → Hypothese → Implementierung → Validierung. 300+ dokumentierte Zyklen, 11.280 Autoresearch-Experimente auf GX10.

  • DGM-Zyklen: Automatische Selbstoptimierung (300+)
  • Autoresearch auf GX10: Baseline val_bpb=1.816517
  • Dev-RAG: 400 Research Findings, 86 Video-Analysen
  • ChromaDB + ClickHouse als Knowledge Graph
  • Schmidhuber Künstliche Neugier (1990) als Grundprinzip
  • A/B-Testing Framework für empirische Validierung
300+ Zyklen
Darwin-Gödel-Machine
Selbstoptimierende KI-Systeme

Infrastruktur

Eigene Hardware. Keine Cloud-Abhängigkeit.

Unsere Forschung läuft auf eigener Infrastruktur — vom GPU-Server bis zum Raspberry Pi Cluster.

💻

GX10

NVIDIA GB10 Grace Blackwell
128 GB VRAM
LTX 2.3, Flux 2, Qwen3-TTS

🖥

Hauptserver

Hetzner Dedicated
34 Agenten, ClickHouse
PostgreSQL, Caddy

📡

Dev-RAG Server

IONOS 85.215.106.36
20 RAG-Services, 47 DBs
ChromaDB, Grafana

🤖

Rover Lab

Raspberry Pi 4 + Pi 5
Traxxas VXL-8S Chassis
LiDAR, 360° Cam, Sensoren

AgroBot Rover

Autonome Landwirtschaft. Im Feld getestet.

Kein Konzeptpapier — ein fahrender Prototyp mit drei Autopilot-Modi, der Sensordaten in Echtzeit verarbeitet und Entscheidungen autonom trifft.

🧠

PilotNet CNN

Neuronales Netz lernt Lenkwinkel aus Kamerabildern. Trainiert auf eigenen Fahrdaten. End-to-End vom Pixel zum Steuerbefehl.

📡

LiDAR Geometrie

LD19 LiDAR scannt Umgebung 10x/Sekunde. Geometrischer Algorithmus findet freie Fahrwege und vermeidet Hindernisse in Echtzeit.

📊

ML Gradient Boosted Trees

Feature-basiertes ML-Modell kombiniert LiDAR-Scans, IMU-Daten und Kamera-Features. Robuster als reines CNN bei wechselnden Bedingungen.

📖

RAG Wissensspeicher

156 Experimente, 25 Regeln, 8 Crash-Logs in rover_knowledge.db. Der Rover lernt aus Fehlern — automatisch und dokumentiert.

🌾

Agrar-Sensorik

Bodenfeuchte, CO2, Temperatur, Licht, Thermal-Kamera. Pi5 Leitstand sammelt Umweltdaten für präzise Landwirtschaft.

📱

Android Sensor-Modul

Samsung Galaxy S9 als zusätzliches Sensor-Modul: Front + Hauptkamera, GPS, Beschleunigung. Integration via MQTT/HTTP zum Rover.

Theoretische Grundlagen

Auf den Schultern von Riesen.

Unser Grundprinzip: Ein adversariales System aus Controller (Generator) und World Model (Critic). Der Controller versucht das World Model zu überraschen, das World Model versucht Vorhersagefehler zu minimieren. Ergebnis: Intrinsische Motivation für Neuartigkeit und Exploration. Jeder DGM-Zyklus folgt diesem Prinzip.
Die DGM kombiniert evolutionäre Optimierung (Darwin) mit formaler Selbstverbesserung (Gödel). Jeder Zyklus: Log Summarization → Potential Improvements → Improvement Proposal → Implementation → Validation → Cycle Documentation. 300+ Zyklen dokumentiert in JSON.
Der Wendepunkt: Statt Computer als Werkzeuge zu nutzen, werden Menschen zu Managern autonomer KI-Agenten. Keine UIs mehr nötig — Agenten operieren direkt auf APIs und Datenbanken. Skills ersetzen Prompts. Hive-Mind-Prinzip: Wenn ein Agent lernt, lernt der gesamte Schwarm.

Forschung die produziert.

Interessiert an einer Kooperation? ML-Forecasting, autonome Robotik oder generative Video-KI — wir forschen anwendungsorientiert.

Forschungskooperation anfragen