KI kann sich täuschen, daher: KI braucht Kontrolle
Beitragsbild zum WP KI-Seminar über die Möglichkeiten, Grenzen und die Kontrolle beim KI-Einsatz und der Digitalisierung in der mittelständischen Wirtschaftsprüfung. Wie funktioniert KI und was kann in der Wirtschaftsprüfung mit KI alles gemacht werden?
Kategorie: Aktuelles
Datum: 17.10.2025

Den Newsletter als Podcast anhören

Starten wir heute mit KI-Fehlern und wie diese vermieden werden können.

Ein aktueller Bericht des finance magazine trägt den vielsagenden Titel „KI-Halluzinationen“. Andere Medien griffen das Thema auf: Dort hieß es nüchterner, die Arbeit der KI sei wegen falscher Quellen und erfundener Inhalte teilweise unbrauchbar gewesen.

Konkret ging es um eine Studie, die Deloitte Australien im Auftrag des Sozialministeriums erstellt hatte. Ziel der Untersuchung war es, mithilfe automatisierter Systeme Arbeitssuchende bei Fehlverhalten künftig automatisch sanktionieren zu können. Doch die von der KI generierten Fußnoten und Quellenangaben erwiesen sich in Teilen als fehlerhaft – auch wenn die inhaltlichen Ergebnisse im Wesentlichen korrekt blieben. Im ersten Bericht fehlte zudem der Hinweis auf den Einsatz künstlicher Intelligenz vollständig.

Wir sind also mitten in der KI-Welt angekommen. Wie lassen sich Chancen und Risiken der KI bei uns in der Wirtschaftsprüfung einordnen? Antworten darauf und viele Antworten mehr gibt Ihnen unser Referent Dr. Korten heute und viel mehr noch im zweiteiligen KI-Bildungsseminar am 11. und 18. November 2025 (jeweils 9–13 Uhr).

Es grüßt Sie herzlich
Ihr Michael Gschrei
GF-Vorstand wp-net

wp.weekly

Deloitte reagierte inzwischen: In der überarbeiteten Fassung der Studie wurde im Anhang ausdrücklich auf den Einsatz generativer KI hingewiesen. Demnach sei „ein Teil des Berichts mithilfe einer vom Ministerium lizenzierten Toolchain auf Basis eines großen Sprachmodells (Azure OpenAI GPT-4.0)“ erstellt worden.“

Die Verantwortung für die Fehler wies Deloitte zurück – betroffen seien ausschließlich Zitate, Referenzen und die Zusammenfassung eines Gerichtsverfahrens.

Der von der Australian Financial Review hatte schon Ende August 2025 über den fehlerhaften „Deloitte-Bericht“ geschrieben. Zahlreiche Fehler standen im Bericht, „darunter Verweise und Zitate auf nichtexistierende Berichte von Akademikern der Universitäten Sydney und Lund in Schweden“.

 

Die Menschenzentriertheit ist eine der 7 Kernanforderungen an eine vertrauenswürdige KI, auf denen die KI-Verordnung basiert: KI soll den Menschen unterstützen, nicht ersetzen.

Diese Leitlinie wurde bereits 2019 von der High-Level Expert Group on AI der Europäischen Kommission formuliert. Sie legte damit die ethischen Grundlagen für den späteren Rechtsrahmen, der von 2025 bis 2027 stufenweise in Kraft tritt.

Das Beispiel Deloitte Australia zeigte uns aber auch, was passiert, wenn diese Kernanforderung nicht erfüllt wird: Fehlt menschliche Aufsicht, bleiben Fehler unentdeckt oder vervielfachen sich.

Ein wirksames Qualitätsmanagement in Betrieben mit KI-Einsatz muss daher klare Regelungen zum Einsatz von KI enthalten:

  • Wofür darf KI eingesetzt werden?
  • Wer trägt die Verantwortung?
  • Wie werden Ergebnisse kontrolliert?

Spätestens die abschließende Prüfung der KI-Arbeit muss durch einen fachkundigen Menschen erfolgen.

Gerade Sprachmodelle bieten sich für den Einsatz in WP-Praxen an – Texte lassen sich schnell und bequem erzeugen. Das ist sehr verlockend. Doch Sprachmodelle haben auch Schwachstellen: Halluzinationen – also erfundene Texte oder Quellen – sind nur eines der Risiken bei der Texterzeugung mit KI.

 

Die Financial Times berichtete am 5. Oktober 2025 auch über eine entsprechende Warnung der britischen Wirtschaftsprüferaufsicht (FRC): Die Aufseher mahnten, insbesondere die Big4 verlören beim Einsatz von KI den Blick dafür, „wie sich automatisierte Tools und KI auf die Qualität ihrer Prüfungen auswirken“, obwohl sie die Technologie schon zunehmend für Risikobewertungen und Beweissicherungen einsetzten. Ist also auch noch Fahrlässigkeit im Spiel? Oder war es am Ende doch wieder nur menschliches Versagen?

Mein Seminar:

wird Ihnen auch zu diesen Fragen die Lösungen vorstellen.

KI-Systeme können bei zahlreichen Aktivitäten sinnvoll eingesetzt werden. Und immer mehr Mandanten machen das auch.

Das hat Folgen, denn: Ganz gleich, ob WPG oder Einzel-WP, ganz gleich, ob gesetzliche oder freiwillige Abschlussprüfung: Planung, Strategie, Prüfungshandlungen und Urteile müssen an diese Veränderungen bei den Mandanten angepasst werden. Und auch in der Eigenorganisation bietet KI ganz neue Möglichkeiten.

In dem umsetzungsorientierten wp-net-Seminar „Grundlagen KI für mittelständische WPG“ erfahren Sie, wie Sie selbst KI sinnvoll einsetzen können, welche Prüfungsrisiken der KI-Einsatz Ihrer Mandanten mit sich bringt und wie Sie diesen Einsatz beurteilen können.

Das sind die Themen des ersten Teils:

  • Wie funktioniert KI tatsächlich?
  • Was kann mit KI alles gemacht werden?
  • Welche Risiken und Chancen bringt KI für den Berufsstand?
  • Beispiele, Beispiele, Beispiele …

 

Termine: Teil 1 am 11.11.25 und Teil 2 am 18.11.25, jeweils 9 bis 13 Uhr.

Referent: WP Dr. Achim Korten, zertifizierter AI Officer, langjährig mit Digitalisierung und KI befasst (akademisch wie praktisch)

Zielgruppe: Wirtschaftsprüferinnen und Wirtschaftsprüfer und solche, die es werden wollen, vereidigte Buchprüferinnen und Buchprüfer.

Fazit: Um KI einsetzen oder prüfen zu können, müssen Sie KI und ihre Möglichkeiten und Grenzen verstehen. Das ist das erklärte Hauptziel meines Seminars.

Anmeldung online hier.

Es grüßt Sie herzlich
und freut sich auf Ihre Teilnahme
Ihr WP Dr. Achim Korten


Hat Ihnen der Artikel gefallen?
Abonnieren Sie unseren Newsletter und erhalten Sie die neuesten Beiträge zuerst!

Besuchen Sie auch gerne unserem YouTube Wirtschaftsprüfer Infokanal WP-Verband.
Ihr kostenloses Abo & „Daumen-Hoch“ hilft dem WP-Mittelstand zu mehr Sichtbarkeit im YouTube Algorithmus.

Bildnachweis: Stock-Illustration: patpitchaya/Shutterstock

 

Achim Korten
Author: Achim Korten

MITGLIED
WERDEN