Künstliche Intelligenz (KI) hat sich in den vergangenen Jahren zu einem wichtigen Werkzeug in vielen Bereichen entwickelt, von der Medizin über die Wirtschaft bis hin zur Industrie. KI-Systeme haben jedoch auch ihre Grenzen. Eine der größten Herausforderungen beim Einsatz ist die Erklärbarkeit der Entscheidungen, die diese Systeme treffen. So ist es beispielsweise gesetzlich vorgeschrieben, dass Finanzinstitute offenlegen müssen, wie KI-basierte Entscheidungen über Kreditvergaben zustande gekommen sind und nach welchen Kriterien Zusagen oder Absagen erteilt wurden. In diesem Beitrag werden wir daher etwas näher beleuchten, wie KI Entscheidungen treffen und wie diese ggf. beeinflusst oder gelenkt werden können.

Wie kommt KI zu einer Entscheidung?

KI-Systeme basieren auf Algorithmen, die auf einer großen Menge von Daten trainiert werden. Diese können strukturiert oder unstrukturiert vorliegen und aus verschiedenen Quellen stammen, z.B. Text, Bilder oder Sprache. Ziel des Trainings ist es, dem KI-System beizubringen, Muster in den Daten zu erkennen und auf der Grundlage dieser Muster Vorhersagen zu treffen.

Es gibt verschiedene Ansätze für das Training von KI-Systemen. Beim überwachten Lernen werden dem KI-System beispielsweise Trainingsdaten mit bereits bekannten Ergebnissen vorgelegt, um das System darauf zu trainieren, diese Ergebnisse für neue Daten vorherzusagen. Beim unüberwachten Lernen wiederum werden dem KI-System Daten ohne bekannte Ergebnisse zur Verfügung gestellt. Hier sollen Muster in den Daten erkannt und kategorisiert werden. Abschließend wird beim bestärkenden Lernen das KI-System trainiert, indem es eine Umgebung erkundet und Feedback für seine Aktionen erhält.

Unabhängig vom verwendeten Ansatz werden KI-Systeme durch mathematische Modelle repräsentiert. Diese Modelle sind oft sehr komplex und schwer verständlich. Das wiederum führt zu einer Situation, in der KI-Systeme Entscheidungen treffen können, die für Menschen schwer nachvollziehbar sind.

Wie können die Entscheidungen der KI beeinflusst werden?

Die Erklärbarkeit von KI-Systemen ist ein wichtiger Faktor, der ihren Einsatz begrenzt. Die Möglichkeit, die Entscheidungen zu verstehen und zu beeinflussen, kann jedoch die Akzeptanz dieser Systeme erhöhen und ihr Potenzial maximieren. Eine Möglichkeit besteht darin, Transparenz in den Trainingsprozess zu bringen. So kann nachvollzogen werden, welche Daten genutzt, welche Algorithmen angewendet und welche Entscheidungen getroffen wurden. Dadurch kann dann besser nachvollzogen werden, wie das KI-System zu seiner individuellen Entscheidung gekommen ist.

Ein anderer Ansatz besteht darin, KI-Systeme so zu gestalten, dass sie Entscheidungen mit einer höheren Erklärbarkeit treffen. Zu diesem Zweck können sie so konfiguriert werden, dass sie Entscheidungen auf der Grundlage bestimmter Faktoren treffen, die leichter zu verstehen sind. Beispielsweise könnte eine KI, die medizinische Diagnosen stellt, darauf trainiert werden, Entscheidungen auf der Grundlage bestimmter Symptome oder Risikofaktoren zu treffen, die leichter zu erklären sind. Auch die Verwendung sogenannter „Interpretierbarkeitswerkzeuge“ ist hilfreich. Diese können verwendet werden, um die Entscheidungen von KI-Systemen zu visualisieren und zu erläutern. Ein Beispiel für ein solches Werkzeug ist die so genannte „Feature-Importance-Analyse“. Sie zeigt, welche Merkmale der Daten am meisten zur Entscheidung beigetragen haben.

Auch die Kombination von KI-Systemen mit menschlicher Intelligenz sorgt für Transparenz. Das bedeutet, dass ein Mensch die Entscheidungen des KI-Systems überprüft und gegebenenfalls korrigiert. Dies wird auch als „Human-in-the-Loop“ bezeichnet und ist vor allem in kritischen Bereichen wie der Medizin oder der Luftfahrt von Bedeutung.

Abschließend ist es auch wichtig, dass KI-Systeme ethisch gestaltet werden. Das bedeutet, dass sie so aufgesetzt sind, dass sie keine diskriminierenden Entscheidungen treffen oder Daten missbrauchen. Ein Beispiel für eine ethische Herausforderung im Zusammenhang mit KI-Systemen ist die Verwendung von Daten, die auf Rasse oder Geschlecht basieren. KI-Systeme sollten daher so konfiguriert werden, dass sie solche Daten nicht in ihre Entscheidungsfindung einbeziehen.

Zusammenfassend lässt sich sagen, dass die Erklärbarkeit von KI-Systemen ein wichtiger Faktor ist, der ihren Einsatz einschränkt. Es gibt jedoch verschiedene Ansätze, um die Erklärbarkeit von Entscheidungen zu erhöhen. Diese können dazu beitragen, das Verständnis und die Akzeptanz zu verbessern und das Potenzial von KI in verschiedenen Bereichen zu maximieren.

Wenn Sie mehr über die Erklärbarkeit und die Anwendung von KI-Modellen erfahren möchten, dann kontaktieren Sie einfach unsere Expert:innen für Künstliche Intelligenz.

Über den Autor

Mathias Herrmann

CEO bei ALLEHERZEN

Mathias Herrmann ist Internetunternehmer der ersten Stunde mit einem tiefen Interesse für digitale und Zukunftstechnologien. Seit über 20 Jahren hilft er Unternehmen dabei, mit innovativen Lösungen das Beste aus Ihren Daten zu machen – ohne dabei die Menschen hinter den Daten zu vergessen.

Buchen Sie jetzt direkt einen kostenlosen VideoCall von 30 oder 60 Minuten: