Use Case
Automatisierte Finanzbericht-Erstellung
Ein Asset Manager reduzierte den monatlichen Berichtsaufwand um rund 70 %, indem er eine validierte LLM-Pipeline einsetzte, die Abweichungskommentare direkt aus ERP-Daten generiert.
Auf einen Blick
Ergebnisse
- ✓ Rund 70 % weniger Analysten-Zeit pro Berichtszyklus
- ✓ Keine Datenfehler in generierten Outputs über sechs Betriebsmonate protokolliert
- ✓ Konsistente Terminologie über alle Berichtsperioden
Stack
- — Python + SQLAlchemy (ERP-Extraktion)
- — Claude mit strukturiertem Output (Anthropic)
- — Pydantic (Input- und Output-Validierung)
- — Astro + Server Actions (Human-Review-Interface)
Typischer Zeitrahmen
3–4 Wochen
Kick-off bis Übergabe
Risiken & Guardrails
- Modell-Drift zwischen Perioden — Modell-Version pinnen und Updates mit Golden-Test-Set gaten
- Compliance-Freigabe verzögert — Compliance-Team in Sprint 1 einbeziehen, nicht Sprint 3
Ausgangslage
Ein mittelgroßer Asset Manager erstellte monatliche Investorenberichte manuell. Analysten verbrachten drei bis vier Tage im Monat damit, Kennzahlen aus dem ERP zu extrahieren, Abweichungskommentare zu schreiben und die Ausgabe für den Versand zu formatieren. Der Prozess hing an einem einzigen Analysten und schuf so ein Lieferrisiko.
Vorgehen
G|AI Works entwarf eine dreistufige Pipeline:
Datenextraktions-Schicht: Ein geplanter Job überführte Portfolio-Performance-Kennzahlen, Benchmark-Vergleiche und Attributionsdaten in ein validiertes JSON-Schema. Validierungsregeln erzwangen Vollständigkeit und Wertebereiche, bevor ein LLM-Aufruf stattfand.
Narrativ-Generierung: Ein versioniertes Prompt-Template – geprüft und freigegeben vom Compliance-Team des Kunden – injizierte die validierten Daten in eine strukturierte Generierungsanfrage. Der Output war auf spezifische Narrative-Abschnitte begrenzt: Performance-Zusammenfassung, Attributionskommentar und Risikoindikatoren.
Menschliche Review-Oberfläche: Eine schlanke Web-Oberfläche präsentierte Entwurfsberichte nebeneinander mit den Quelldaten. Der prüfende Analyst konnte einzelne Abschnitte vor der finalen Zusammenstellung genehmigen, bearbeiten oder ablehnen.
Ergebnisse
- Rund 70 % weniger Analysten-Zeit pro Berichtszykus (von 3,5 Tagen auf unter 1 Tag)
- Keine Datenfehler protokolliert in generierten Berichten in den ersten sechs Betriebsmonaten (Grounding-Validierung erkennt Abweichungen vor dem Output)
- Konsistente Terminologie über alle Berichtsperioden hinweg, was manuelle Stil-Reviews überflüssig macht
Technischer Stack
- Datenextraktion: Python + SQLAlchemy gegen bestehendes ERP
- LLM: claude-sonnet-4-6 mit strukturiertem Output
- Validierung: Pydantic-Schema-Durchsetzung auf Input und Output
- Review-Oberfläche: schlankes Astro + Server Actions
Verwandte Use Cases
Bereit, das Projekt zu starten?
Lass uns über dein Vorhaben sprechen.
Sag uns kurz, was du baust. Wir antworten mit einem klaren nächsten Schritt: Audit, Prototyp-Plan oder Delivery-Vorschlag.
Projekt starten →