KI-Governance, Assurance und Engineering

Ich unterstütze Organisationen dabei, KI-Systeme zu entwerfen, zu steuern und zu bauen.

Für Organisationen, die KI-Systeme in den Markt bringen und Standards, Governance und Umsetzung parallel denken müssen.

Wobei ich helfen kann

Governance

  • ISO/IEC 42001 und Fragen zum EU AI Act
  • Governance-Strukturen, Policy-Updates und Umsetzungspläne
  • KI-Literacy und internes Enablement

Assurance

  • Evaluation und Prüfkriterien
  • Audit-Readiness, Evidenz und Dokumentation
  • Strukturierte Bearbeitung offener Fragen zu Kontrollen und Nachweisen

Engineering

  • Architektur, Prototyping, Produktentwicklung und Deployment
  • Klassisches ML, Computer Vision, LLMs, RAG und agentische KI-Anwendungen
  • Brücke zwischen Governance, Produkt und Engineering

Wie Mandate
typischerweise starten

Typische Startpunkte

  • Einordnung eines Anwendungsfalls unter den EU AI Act
  • Engineering-Praktiken für Anforderungen an Hochrisiko-KI-Systeme
  • Praktische Umsetzung von ISO/IEC 42001
  • Blockierte Governance- oder Umsetzungsfragen

Typische Outputs

  • Risikoklassifizierung und Machbarkeitsarbeit
  • Policies, Inventare sowie Rollen und Verantwortlichkeiten
  • Evaluierungen, Architekturen und Prototypen
  • Produktionsnahe Systeme und konkrete nächste Schritte

Zusammenarbeitsformen

  • Strategische Advisory-Sessions
  • Kurze Sprints mit klarer Fragestellung
  • Eingebettete Unterstützung
  • Hands-on Zusammenarbeit mit internen Teams

FAQ

Fällt mein KI-System unter den EU AI Act?

Das hängt davon ab, was das System tut und in welchem Kontext es eingesetzt wird. Der EU AI Act klassifiziert Systeme nach Risikostufen: verboten, hochriskant, begrenzt riskant und minimal riskant. General-purpose AI Modelle bilden eine eigene Kategorie. Dasselbe zugrunde liegende Modell kann in einem Einsatz hochriskant sein und in einem anderen minimal riskant. Ein System, das in einer klinischen Umgebung Medikamentendosierungen empfiehlt, fällt unter die Hochrisiko-Kategorie. Ein System, das Krankenhauspersonal beim Buchen von Besprechungsräumen unterstützt, nicht, auch wenn beide im Gesundheitswesen eingesetzt werden. Wenn Sie unsicher sind, wo Ihr System einzuordnen ist, ist eine strukturierte Risikoklassifizierung der richtige Startpunkt.

Wie implementiere ich ISO/IEC 42001?

Der Standard folgt der gleichen übergeordneten Struktur wie andere ISO-Managementsystemnormen, mit KI-spezifischen Anforderungen rund um Risiko, Impact Assessment und den Systemlebenszyklus. In der Praxis bedeutet das: eine KI-Policy etablieren, Rollen und Verantwortlichkeiten definieren, einen Risiko- und Impact-Assessment-Prozess aufbauen und Kontrollen über Entwicklung und Deployment hinweg verankern. Die meisten Organisationen verstehen die Anforderungen gut genug. Ins Stocken gerät es beim Übersetzen in konkrete Entscheidungen für spezifische Systeme, Teams und bestehende Governance. Eine Gap-Analyse dauert typischerweise ein paar Wochen. Bis zur vollständigen Readiness dauert es länger, je nach Ausgangslage.

Was ist für EU-AI-Act-Compliance bei Hochrisiko-KI-Systemen erforderlich?

Hochrisiko-Systeme betreffen Bereiche wie Recruiting, Kreditvergabe, Medizinprodukte und kritische Infrastruktur. Sie müssen eine Konformitätsbewertung durchlaufen, technische Dokumentation vorhalten, ein Risikomanagementsystem umsetzen, Daten-Governance-Praktiken anwenden, menschliche Aufsicht sicherstellen und Post-Market-Monitoring etablieren. Anbieter müssen zudem in der EU-Datenbank registrieren. Auf dem Papier sind die Anforderungen klar. Die schwierige Arbeit ist, sie in Architekturentscheidungen, Evaluationskriterien und Engineering-Praktiken zu übersetzen; Fehler hier erzeugen später Audit-Risiko.

Wie bereite ich mich auf ein KI-Audit vor?

Meistens ist es ein Dokumentations- und Evidenzproblem. Auditoren wollen sehen, dass Ihre Organisation ihre KI-Systeme identifiziert hat, Risiken bewertet, Kontrollen umgesetzt hat und das strukturiert nachweisen kann. Die häufigsten Lücken sind unvollständige KI-Inventare, Risikoassessments, die von tatsächlichen Entwicklungsentscheidungen abgekoppelt sind, und fehlende Monitoring-Nachweise. Der beste Startpunkt ist eine ehrliche Gap-Analyse und dann die Priorisierung der Evidenz, die sich später am schwersten rekonstruieren lässt.

Was ist ein KI-Managementsystem (AIMS)?

Ein AIMS ist das Bündel aus Policies, Prozessen, Rollen und Kontrollen, mit dem eine Organisation steuert, wie sie KI verantwortungsvoll entwickelt, einsetzt und überwacht. ISO/IEC 42001 definiert die Anforderungen an ein AIMS, ähnlich wie ISO 27001 für Informationssicherheit. Denken Sie daran als organisatorische Fähigkeit, nicht als Software-Tool. Für Organisationen, die den EU AI Act oder andere Regulierung umsetzen müssen, macht ein funktionierendes AIMS Compliance handhabbar statt zu einem wiederkehrenden Feuerwehr-Einsatz.

Ein kurzes Gespräch reicht aus, um zu sehen, ob und wobei ich sinnvoll helfen kann.

Wir können kurz klären, woran Sie arbeiten, wo die Blocker liegen und ob Governance, Assurance, Engineering oder eine Kombination daraus gebraucht wird.

Lassen Sie uns besprechen, wie ich helfen kann