Skip to main content
Vertrieb kontaktieren: +49 7264 2080054
KI Im Audit 2023
KI im Audit

KI im Audit – was ist Stand der Technik 2023

Das Thema künstliche Intelligenz ist seit dem unglaublichen Erfolg von Large Language Models wie Chat GPT aktuell wie nie.

Unsere Kunden fragen darum immer wieder, wie künstliche Intelligenz im Audit verwendet werden kann und ob das Audit in Zukunft von der Maschine durchgeführt wird.

In diesem Artikel möchte ich zunächst das generelle Thema erklären, was LLM sind, welche Probleme diese haben und wie diese im Kontext des Audits eingesetzt werden können.

Im zweiten Teil gebe ich einen Ausblick, was aus meiner persönlichen Einschätzung, in Zukunft möglich sein wird und wie sich das Audit dadurch verändern wird.

Audit mit Mehrwert

Was sind LLM?

Ein Large Language Model (LLM) ist ein leistungsstarkes künstliches neuronales Netzwerk, das darauf trainiert wurde, natürliche Sprache zu verstehen und zu generieren. Es kann komplexe Texte lesen, verstehen und darauf basierend qualitativ hochwertige Antworten und Informationen erzeugen.

LLMs wie GPT oder Stanford Alpaca basieren auf umfangreichen Datensätzen und ermöglichen Anwendungen in verschiedenen Bereichen wie Chatbots, Übersetzungen, Textgenerierung und vielem mehr.

Wie funktioniert GPT?

GPT ist eine Instanz eines Large Language Models, es sagt ein Wort nach dem anderen voraus, wobei ein Modell verwendet wird, das mit allen Texten im Internet trainiert wurde.

Auf Grund der Komplexität des Algorithmus kann man nicht einfach erklären wie GPT die Texte erstellt und welche Quellen es hierzu benutzt.

Die Beste Erklärung ist, das Large Language Models (LLMs) wie GPT auf der Grundlage von künstlichen neuronalen Netzwerken funktionieren. Diese bestehen aus vielen Schichten von künstlichen Neuronen. Mit Hilfe von großen Mengen an Textdaten (wahrscheinlich das Internet bis im Jahr 2020) werden diese Modelle trainiert, um ein umfassendes Verständnis der natürlichen Sprache zu entwickeln.

Während des Trainings lernt das LLM, Muster und Zusammenhänge in den Textdaten zu erkennen. Es erfasst die Wahrscheinlichkeiten, mit denen bestimmte Wörter oder Sätze in einer gegebenen Kontextsituation auftreten. Diese Informationen werden in einer Gewichtung der Verbindungen zwischen den künstlichen Neuronen im Modell gespeichert.

Im Hintergrund des Models steht die Technologie des Natural Language Processing (NLP).

Natural Language Processing (NLP) ist ein Teilbereich der künstlichen Intelligenz (KI), der sich mit der Wechselwirkung zwischen Computern und menschlicher Sprache befasst. Es handelt sich um eine Sammlung von Techniken und Algorithmen, die es Computern ermöglichen, natürliche Sprache zu verstehen, zu analysieren, zu generieren und darauf zu reagieren.

NLP beinhaltet verschiedene Disziplinen wie die Spracherkennung, bei der gesprochenen Sprache in Text umgewandelt wird, die Textsegmentierung, bei der Text in sinnvolle Einheiten wie Sätze oder Wörter aufgeteilt wird, und die Part-of-Speech-Tagging, bei der Wörtern in Texten ihre grammatische Funktion zugeordnet wird.

Weitere NLP-Aufgaben umfassen das Erkennen von Entitäten und Relationen (Named Entity Recognition), die Sentiment-Analyse zur Bestimmung von Emotionen oder Meinungen in Texten, die maschinelle Übersetzung zwischen verschiedenen Sprachen und die automatische Zusammenfassung von Texten.

Diese Technik ist entscheidend für den Erfolg der LLM wie GPT oder Stanford Alpaca.

Grenzen des Systems

Welche Grenzen gib es bei der Verwendung von LLM’s?

Da die Technologie noch in den Kinderschuhen für eine breite industrielle Anwendung steckt, begrenze ich mich auf die Nennung von drei wichtigen Grenzen. Diese drei Grenzen solltest du kennen und dir bewusst vor Augen führen, wenn du LLM’s einsetzt.

  1. Datensicherheit

Der Einsatz wie GPT sind aus heutiger Sicht eine absolute Blackbox bezüglich der Frage, was mit den Daten passiert, die du in das Model gibst. Die Nutzung von Chat GPT ist Stand heute nicht im Einklang mit den Richtlinien der GDPR zu betreiben und erfordert besondere Vereinbarungen mit den Kunden. Der Fall von Samsung Ingenieuren, die Ihren Quellcode von GPT haben korrigieren lassen, ist ein besonders dramatischer. Unwissentlich haben sie GPT den Sourcecode von neuen Produkten zur Verfügung gestellt. Alle Daten, die du in das System gibst, werden für zukünftige Trainings verwendet.

  1. Halluzination

GPT erfindet in vielen Fällen einfach Texte und Fakten frei. Dies kann nicht nur deiner Reputation schaden, sondern macht deine Arbeit wertlos. Deine Kontrolle der erzeugten Fakten sowie Texte auf fachliche Korrektheit ist weiterhin deine Aufgabe (Stand 28.05.2023).

  1. Copyright

Wie Texte entstehen, ist nicht nachzuvollziehen und die Quellen, die zur Erstellung der Texte genutzt werden, sind ebenfalls nicht einsehbar. Dies führt dazu, dass du, ohne dass du es möchtest, eine Copyright Verletzung stattfindet. LLM’s kopieren teilweise existierenden Text aus den Trainingsdaten, um deinen Text zu erstellen.

KI und Owlytic

Wie setzen wir KI bei Owlytic ein?

Wir haben aktuell zwei verschiedene Anwendungsfälle wie wir dir schon heute, gegen Gebühr, die Nutzung der Vorteile von KI in deine tägliche Arbeit bringen können. Das Audit ist ein standardisierter Vorgang, welcher ausgedehntes Wissen in den Regelwerken erfordert.

Use Case1: Regeltext Assistent (BETA)

Mit Hilfe unseres speziell trainierten KI-Assistenten kannst du Fragen rund um die Iso Regelwerke stellen. Die KI erzeugt basierend auf NLP und LLM Antworten die deine Frage in Bezug auf die Regelwerke beantwortet. Durch kontinuierliches Training verbessern wir den Assistenten permanent, können aber ebenfalls die Erzeugung von Halluzinationen in den Texten nicht vollständig verhindern. Von besonderer Wichtigkeit ist darum dein „Prompting“, also deine Art der Fragestellung.

Ein Beispiel für einen Prompt, welcher zu einem hochwertigen Ergebnis führt, ist: „Wo finde ich in der ISO 9001 Anforderungen zur Mitarbeiterqualifikation?“

Das Ergebnis zu deiner Anfrage ist: „Die Anforderungen zur Mitarbeiterqualifikation finden sich im Abschnitt 6.2 der ISO 9001. Dort werden die Anforderungen an die Qualifikation und Kompetenz der Mitarbeiter beschrieben, die für die Erfüllung der Anforderungen der Organisation erforderlich sind.“

Die Antwort ist inhaltlich korrekt, das Model ausreichend genau.

Use Case2: Formulierungs-Assistent (BETA)

Die Kombination von verschiedenen Disziplinen der KI lässt es zu, dass der Auditor in der Formulierung seiner Feststellungen unterstützt wird. Der Auditor gibt der KI Stichworte, welche er durch Kommas trennt und erhält basierend auf den Stichworten einen Text zurück. Die Nutzung dieser fortschrittlichen Technologie erfordert eine Einarbeitung des Auditors, damit die Stichworte so gewählt werden, dass ein inhaltlich korrekter Text erstellt wird.

Zukunft

Die Zukunft der KI im Audit

Wie sich die Nutzung von KI in Summe auf das Audit auswirkt, ist auf Grund der enormen Geschwindigkeit der Weiterentwicklung der Methoden in der KI nicht wirklich zu beantworten. Jeder Vortrag und jeder Artikel hierzu kann im Moment, in dem man diesen vorträgt oder schreibt bereits nicht mehr korrekt sein. Ich beziehe mich darum auf den Stand zum 28.05.2023.

Die größte Herausforderung für die breite Nutzung von KI in Unternehmen ist die Verfügbarkeit und Qualität von Daten. Die Daten sind der Schlüssel zur breiten Anwendung von KI in der Industrie. Leider haben die wenigsten Unternehmen bereits in die Verfügbarkeit, semantische Beschreibung und somit Qualität ihrer Daten investiert.

Für das Audit sind für die Zukunft automatische Überprüfungen von internen Dokumenten denkbar. Die KI kann in der Lage sein, veraltete Dokumente zu identifizieren und Abweichungen in der Dokumentation selbst zu erkennen. Die Durchführung eines realen Audits wird die KI aus meiner Sicht nur unterstützen, dies in Form von Assistenten wie unseren.

Für die Identifikation von mit Risiken behafteten Prozessen oder Lieferanten kann die KI ebenfalls genutzt werden. Hier kann ein Vorteil entstehen, wenn die KI mit internen und externen Daten gefüttert wird. Dies kann im speziellen für die Themen wie Corporate Social Respsonsibility oder auch Lieferkettenresilienz zu einer Verbesserung führen.

Die Zukunft wird ohne Frage mit KI stattfinden. Finde jetzt heraus wie auch du schon heute die Zukunft bei dir im Unternehmen bei Audits nutzen kannst!

Was bleibt?

Fazit

KI im Audit wird immer relevanter, da Large Language Models wie Chat GPT große Erfolge verzeichnen. Es wird diskutiert, ob Maschinen in Zukunft Audits durchführen können. Large Language Models (LLMs) wie GPT und Stanford Alpaca sind leistungsstarke künstliche neuronale Netzwerke, die natürliche Sprache verstehen und generieren können. Sie werden in verschiedenen Bereichen eingesetzt, einschließlich Chatbots, Übersetzungen und Textgenerierung.

GPT funktioniert durch Vorhersage von Wörtern basierend auf einem trainierten Modell, das Texte aus dem Internet nutzt. LLMs basieren auf künstlichen neuronalen Netzwerken und werden durch Natural Language Processing (NLP) unterstützt, das verschiedene Techniken umfasst, um natürliche Sprache zu verstehen und zu generieren. Bei der Verwendung von LLMs gibt es Grenzen wie Datenschutz, Halluzination und Urheberrechtsverletzungen.

Bei Owlytic werden KI-Anwendungen im Audit in Form von Regeltextassistenten und Formulierungsassistenten eingesetzt. Die Zukunft der KI im Audit ist unsicher, aber es besteht das Potenzial für automatische Überprüfungen von Dokumenten und die Identifikation von Risikoprozessen und Lieferanten. Unternehmen müssen in die Qualität und Verfügbarkeit ihrer Daten investieren, um KI breit einzusetzen.

Lernen & Support
Mitglied bei

© Owlytic GmbH. All rights reserved.