G|AI Works G|AI Works

Use Case

Automatisierte Finanzbericht-Erstellung

Ein Asset Manager reduzierte den monatlichen Berichtsaufwand um rund 70 %, indem er eine validierte LLM-Pipeline einsetzte, die Abweichungskommentare direkt aus ERP-Daten generiert.

financial-services Finance Engineering

Projekt starten

Auf einen Blick

Ergebnisse

  • Rund 70 % weniger Analysten-Zeit pro Berichtszyklus
  • Keine Datenfehler in generierten Outputs über sechs Betriebsmonate protokolliert
  • Konsistente Terminologie über alle Berichtsperioden

Stack

  • Python + SQLAlchemy (ERP-Extraktion)
  • Claude mit strukturiertem Output (Anthropic)
  • Pydantic (Input- und Output-Validierung)
  • Astro + Server Actions (Human-Review-Interface)

Typischer Zeitrahmen

3–4 Wochen

Kick-off bis Übergabe

Risiken & Guardrails

  • Modell-Drift zwischen Perioden — Modell-Version pinnen und Updates mit Golden-Test-Set gaten
  • Compliance-Freigabe verzögert — Compliance-Team in Sprint 1 einbeziehen, nicht Sprint 3

Ausgangslage

Ein mittelgroßer Asset Manager erstellte monatliche Investorenberichte manuell. Analysten verbrachten drei bis vier Tage im Monat damit, Kennzahlen aus dem ERP zu extrahieren, Abweichungskommentare zu schreiben und die Ausgabe für den Versand zu formatieren. Der Prozess hing an einem einzigen Analysten und schuf so ein Lieferrisiko.

Vorgehen

G|AI Works entwarf eine dreistufige Pipeline:

  1. Datenextraktions-Schicht: Ein geplanter Job überführte Portfolio-Performance-Kennzahlen, Benchmark-Vergleiche und Attributionsdaten in ein validiertes JSON-Schema. Validierungsregeln erzwangen Vollständigkeit und Wertebereiche, bevor ein LLM-Aufruf stattfand.

  2. Narrativ-Generierung: Ein versioniertes Prompt-Template – geprüft und freigegeben vom Compliance-Team des Kunden – injizierte die validierten Daten in eine strukturierte Generierungsanfrage. Der Output war auf spezifische Narrative-Abschnitte begrenzt: Performance-Zusammenfassung, Attributionskommentar und Risikoindikatoren.

  3. Menschliche Review-Oberfläche: Eine schlanke Web-Oberfläche präsentierte Entwurfsberichte nebeneinander mit den Quelldaten. Der prüfende Analyst konnte einzelne Abschnitte vor der finalen Zusammenstellung genehmigen, bearbeiten oder ablehnen.

Ergebnisse

  • Rund 70 % weniger Analysten-Zeit pro Berichtszykus (von 3,5 Tagen auf unter 1 Tag)
  • Keine Datenfehler protokolliert in generierten Berichten in den ersten sechs Betriebsmonaten (Grounding-Validierung erkennt Abweichungen vor dem Output)
  • Konsistente Terminologie über alle Berichtsperioden hinweg, was manuelle Stil-Reviews überflüssig macht

Technischer Stack

  • Datenextraktion: Python + SQLAlchemy gegen bestehendes ERP
  • LLM: claude-sonnet-4-6 mit strukturiertem Output
  • Validierung: Pydantic-Schema-Durchsetzung auf Input und Output
  • Review-Oberfläche: schlankes Astro + Server Actions

Bereit, das Projekt zu starten?

Lass uns über dein Vorhaben sprechen.

Sag uns kurz, was du baust. Wir antworten mit einem klaren nächsten Schritt: Audit, Prototyp-Plan oder Delivery-Vorschlag.

Projekt starten →