Forschung & Entwicklung
Unsere Forschung verbindet Maschinelles Lernen, autonome Robotik und Energieoptimierung — vom Strompreis-Forecast bis zum selbstfahrenden Agrar-Rover.
Eigene GPU-Infrastruktur (NVIDIA GB10, 128 GB VRAM), 11.280 Autoresearch-Experimente, 3 Autopilot-Modi, 156 dokumentierte Rover-Experimente.
Forschungsbereiche
Energie, Landwirtschaft, Video-KI und autonome Systeme — unsere Forschung ist anwendungsorientiert und produziert Ergebnisse die direkt in Produktion gehen.
Unsere ML-Pipeline trainiert 2x täglich Prophet-Modelle auf 61 Energiemärkten. Day-Ahead-Preise, Wetter, Last und Erzeugung fließen in multivariate Prognosen — MAE unter 5 EUR/MWh.
Ein autonomer Rover auf Basis Traxxas VXL-8S mit LiDAR, 360°-Kamera, Gyro-Sensorik und drei Autopilot-Modi. 156 dokumentierte Experimente, 25 gelernte Regeln, 8 Crash-Logs — alles im RAG-Wissensspeicher.
Video-Generierung mit LTX 2.3 (22B Parameter) auf unserem NVIDIA GB10 mit 128 GB VRAM. Text-zu-Video, Bild-zu-Video, Audio-Generierung — alles lokal, keine Cloud-Abhängigkeit.
Unsere DGM (Darwin-Gödel-Machine) führt automatisch Verbesserungszyklen durch: Log → Analyse → Hypothese → Implementierung → Validierung. 300+ dokumentierte Zyklen, 11.280 Autoresearch-Experimente auf GX10.
Infrastruktur
Unsere Forschung läuft auf eigener Infrastruktur — vom GPU-Server bis zum Raspberry Pi Cluster.
NVIDIA GB10 Grace Blackwell
128 GB VRAM
LTX 2.3, Flux 2, Qwen3-TTS
Hetzner Dedicated
34 Agenten, ClickHouse
PostgreSQL, Caddy
IONOS 85.215.106.36
20 RAG-Services, 47 DBs
ChromaDB, Grafana
Raspberry Pi 4 + Pi 5
Traxxas VXL-8S Chassis
LiDAR, 360° Cam, Sensoren
AgroBot Rover
Kein Konzeptpapier — ein fahrender Prototyp mit drei Autopilot-Modi, der Sensordaten in Echtzeit verarbeitet und Entscheidungen autonom trifft.
Neuronales Netz lernt Lenkwinkel aus Kamerabildern. Trainiert auf eigenen Fahrdaten. End-to-End vom Pixel zum Steuerbefehl.
LD19 LiDAR scannt Umgebung 10x/Sekunde. Geometrischer Algorithmus findet freie Fahrwege und vermeidet Hindernisse in Echtzeit.
Feature-basiertes ML-Modell kombiniert LiDAR-Scans, IMU-Daten und Kamera-Features. Robuster als reines CNN bei wechselnden Bedingungen.
156 Experimente, 25 Regeln, 8 Crash-Logs in rover_knowledge.db. Der Rover lernt aus Fehlern — automatisch und dokumentiert.
Bodenfeuchte, CO2, Temperatur, Licht, Thermal-Kamera. Pi5 Leitstand sammelt Umweltdaten für präzise Landwirtschaft.
Samsung Galaxy S9 als zusätzliches Sensor-Modul: Front + Hauptkamera, GPS, Beschleunigung. Integration via MQTT/HTTP zum Rover.
Theoretische Grundlagen
Interessiert an einer Kooperation? ML-Forecasting, autonome Robotik oder generative Video-KI — wir forschen anwendungsorientiert.
Forschungskooperation anfragen