Freiberuflicher Data Scientist & Software Engineer.
Ich bringe einen wissenschaftlichen Blickwinkel in die Welt industrieller Daten. Ich liefere Modelle, die nicht nur auf dem Papier "gut abschneiden", sondern validiert, reproduzierbar und plausibel sind.
Zuverlässige Software braucht ein solides Fundament. Ich setze auf moderne Technologien, professionelle Design Patterns und produktionsreifes Packaging in Python und R.
Daten sind nur wertvoll, wenn sie zu besseren Entscheidungen führen. Ich baue die interaktiven Brücken – Dashboards, APIs und Tools – die komplexe Rohdaten in klare, umsetzbare Geschäftslogik übersetzen.
Optimierung von Daten-Pipelines zur Verbesserung von Datenqualität und -verfügbarkeit. Implementierung von Algorithmen zur Anomalieerkennung. Datenvorhaltung- und -bereitstellung der mit PostgreSQL und Supabase.
Aufbau einer Analyse- und Visualisierungsplattform für die Pflanzenzüchtung mit FastAPI, Neo4j und Plotly Dash. Interaktive Netzwerk-Visualisierungen mit Cytoscape. Integration generativer KI-Modelle zur datengetriebenen Unterstützung von wissenschaftlichen und kommerziellen Entscheidungsprozessen.
Aufbau einer integrierten Datenplattform für heterogene ökologische Datentypen. Gestaltung einer DuckDB-basierten Speicherarchitektur für effiziente räumliche Operationen und Entwicklung automatisierter R-Package-Pipelines für Datenaufnahme. Implementierung fortgeschrittener Multi-Species-Modellierung mit Deep Learning und Ensemble-Vorhersagen.
Optimierung und Automatisierung lokalisierter Digital-Marketing-Workflows. Umstrukturierung komplexer MS Excel/PowerQuery-Datenarchitekturen zur Verbesserung der Wartbarkeit und Leistung. Implementierung automatisierter Datenvalidierung und -bereinigung mit direkter Integration externer Ressourcen über die Looker-API.
Migration der technischen Infrastruktur des Finanzberichtssystems der EZB. Entwicklung eines benutzerdefinierten R-Package-Ökosystems und einer kollaborativen R-Shiny-Anwendung für automatische Berichtsgenerierung. Integration mit Oracle DB, Camunda-Workflows und Enterprise-Dokumentenmanagementsystemen in einer agilen Scrum-Umgebung.
Entwicklung einer R-Shiny-Webanwendung für Forscher zum Standardisieren und Teilen von Vegetationsdaten. Implementierung robuster XML-Verarbeitungspipelines für Datenvalidierung und Schema-Konformität. Optimierung der Systemleistung und Verwaltung der Bereitstellung über Dockerisierte Server-Umgebungen.
Bereit, Ihre Daten in Wettbewerbsvorteile zu verwandeln? Lassen Sie uns sprechen!