Artificial Intelligence Partials

Wie transparent sollte Business Artificial Intelligence sein?

In unserem kürzlich veröffentlichten Blogbeitrag über Ethik in der künstlichen Intelligenz (KI) haben wir einige Beispiele angeführt, in denen KI-Systeme, die in Unternehmen eingesetzt werden, Entscheidungen treffen, die zu Diskriminierung und Rassismus führen. Die KI-Branche ist in der Tat angefüllt mit Beispielen dafür, wie KI einfach etwas falsch macht, manchmal mit katastrophalen Folgen, beispielsweise wenn ein selbstfahrendes Auto einen Fußgänger trifft und tötet.

Wenn negative Ereignisse als Folge eines KI-Systems auftreten oder wenn eine KI einfach etwas falsch macht, müssen Datenwissenschaftler die zugrunde liegenden Algorithmen und zugehörigen Daten des Systems sorgfältig untersuchen, um zu bestimmen, was behoben werden muss, um zukünftige Fehler zu vermeiden.

Wie jedoch einige argumentiert haben, sollten KI-Systeme zunächst „erklärbar“ und „transparent“ sein. Das Ziel hierbei ist, dass die Entscheidungen einer KI sofort klar und für den Menschen leicht verständlich sind, so dass das „Warum“ der Entscheidung kaum in Frage gestellt wird. Und je mehr KI-Systeme in das Geschäft und unseren Alltag integriert werden, desto größer ist der Bedarf an mehr Transparenz.

Die Frage dreht sich dann darum, wie wir eine „erklärbare KI“ erreichen und welche Kompromisse müssen wir eingehen, um sie zu erreichen?

Die Herausforderung, Transparenz zu erreichen

An der Oberfläche scheint es, dass eine erklärbare KI lediglich die Überprüfung ihrer Algorithmen erfordert. Es ist zwar wichtig, dass der zugrunde liegende Code einer KI von einem Experten eines Drittanbieters untersucht wird, aber Transparenz ist weitaus komplizierter. Dies gilt insbesondere für maschinelle Lernsysteme, bei denen der KI ein Datensatz zugeführt wird und eine eigene Methode zur Erreichung des Ziels auf der Grundlage dieser Daten entwickelt wird. In diesen Fällen könnte die KI jedoch leicht auf voreingenommene Weise zum Ziel gelangen, basierend auf den Daten, die sie eingespeist hat. Zum Beispiel konnte eine KI Wölfe nicht von Huskys unterscheiden, basierend darauf, ob Schnee im Hintergrund des analysierten Bildes vorhanden war oder nicht. Obwohl dies als harmloser Fehler erscheinen mag, handelt es sich tatsächlich um voreingenommene Themen, die auf irrelevanten oder ungenauen Informationen basieren, die im ursprünglichen Trainingsdatensatz enthalten sind.

Und in Fällen, die möglicherweise tödliche Szenarien zur Folge haben, z. B. bei selbstfahrenden Autos, kann uns diese nachträgliche Untersuchung helfen (oder auch nicht), zukünftige Fehler zu verhindern – den Betroffenen des ursprünglichen Fehlers jedoch nicht mehr.

Transparenz durch Design erreichen

Es gibt einen Weg, um sicherzustellen, dass eine KI erklärbar ist, bevor sie überhaupt Entscheidungen ausführt, und zwar durch „Dummstellen“. Das bedeutet, dass die KI nicht für komplexere Aufgaben ausgebildet ist, was den Zweck einer KI in erster Linie zunichte macht. Stattdessen ist es wichtig, Transparenz und Erklärbarkeit zunächst direkt in die KI zu integrieren.

Laut dem Institute for Ethical AI & Machine Learning bedeutet dies, dass KI-Entwickler sich zu folgenden Grundsätzen verpflichten sollten:

  1. Human Augmentation: Bewertung der möglichen Auswirkungen von falschem Lernen
  2. Bias-Evaluierung: Einführung von Prozessen zur Identifizierung von Bias in einer KI während der Entwicklung, aber auch in der Produktion
  3. Erklärbarkeit durch Rechtfertigung: Entwicklung von Instrumenten und Prozessen zur gezielten Verbesserung der Transparenz
  4. Reproduzierbare Operationen: Sicherstellung wiederholbarer Ergebnisse bei allen KI-Operationen
  5. Vertreibungsstrategie: Entwicklung eines Plans zur Ermittlung und Dokumentation von Informationen, die zur Minderung der Auswirkungen der KI auf menschliche Arbeitnehmer erforderlich sind
  6. Praktische Genauigkeit: Die Entwicklung von Prozessen zur Sicherstellung der Genauigkeit und der Kostenmetrikfunktionen richtet sich nach den Zielen der KI
  7. Vertrauen durch Datenschutz: Sicherstellen, dass Daten, insbesondere vertrauliche persönliche Informationen, geschützt und unter Berücksichtigung des Datenschutzes behandelt werden
  8. Sicherheitsrisiken: Entwicklung und Verbesserung von Prozessen zur Gewährleistung der Systemsicherheit, damit weder auf personenbezogene Daten zugegriffen werden kann noch die KI manipuliert wird

Das Fazit – für Unternehmen und Forscher gleichermaßen – ist, dass jede KI, die entwickelt wird, unseren Erwartungen an ethisches Verhalten entspricht. Dies lässt sich am besten erreichen, wenn wir von Anfang an auf die Entwicklung einer erklärbaren KI hinarbeiten und nicht als Add-On.

Wenn Ihr Unternehmen die Implementierung eines KI-Programms in Betracht zieht, können wir Ihnen von Anfang an dabei helfen, sicherzustellen, dass es mit angemessenen Kontrollen und Transparenz entwickelt wird. Kontaktieren Sie uns, um zu besprechen, wie Sie eine geeignete Strategie für die KI entwickeln können, die Ihrem Unternehmen zugute kommt und gleichzeitig Transparenz und Sicherheit gewährleistet.

Mit besten Grüßen,
Florian Horn

Ihre Daten werden gemäß unserer Datenschutzerklärung erhoben und verarbeitet.
0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.