
Ich bin keine Fachkraft für IT-Fragestellungen, aber seit vielen Jahren als Agile Coach und Organisationsentwicklerin im IT-Umfeld zu Hause. Das Buch mit dem oben genannten Titel kann ich vor allem „Nicht-ITlern“ wie mir empfehlen, die sich mit der kryptischen und nicht leicht zugänglichen Thematik der Künstlichen Intelligenz und den dazugehörigen Algorithmen näher beschäftigen möchten. In lockerer Sprache erklärt uns die Autorin, was Algorithmen sind, wie sie funktionieren, welche Schwierigkeiten die uneingeschränkte Nutzung von Algorithmen mit sich bringt und an welchem Punkt wir Einfluss auf die unkontrollierte Nutzung nehmen können (und müssen). Katharina Zweig ist Informatikprofessorin an der TU Kaiserslautern. Dort leitet sie das Algorithm Accountability Lab und hat den deutschlandweit einmaligen Studiengang „Sozioinformatik“ ins Leben gerufen.
Der geneigte Leser weiß, dass die meisten Entscheidungen „aus dem Bauch heraus“ getroffen werden und manchmal, meist später, mit Logik und Excel-Tabellen verifiziert werden. Da die menschliche Art der Entscheidungsfindung eine gewisse Fehleranfälligkeit beinhaltet (vor allem, wenn es sich um komplexe Entscheidungssysteme handelt), haben findige Ideenlieferanten für diverse Sachverhalte technische Lösungen entwickelt, um objektivere Entscheidungen zu treffen. Die Maschine ist ja schließlich unbestechlich.
Obwohl sie als IT-Professorin eine positive Grundhaltung dem Thema gegenüber mitbringt, beschreibt die Autorin eine Vielzahl an Problemen, die durch lernfähige Algorithmen entstehen: z. B. den undurchsichtigen Empfehlungsalgorithmus für Netflix-Filme, das „Entscheidungsdilemma“ autonom fahrender Autos, bei dem es auch um Leben und Tod von Menschen geht, und COMPAS, die Rückfälligkeitsvorhersagesoftware für Straftäter, die in manchen US-Staaten eingesetzt wird und nicht selten zu Fehlurteilen oder falschen Strafmaßen führt. Oder, wie Personaler gerne erzählen, die „richtige“ Entscheidung über die Besetzung einer Stelle wird einem Algorithmus überlassen, der allerdings die wirklich geeignete Bewerber:in gar nicht zum Gespräch eingeladen hatte, weil ein bestimmtes Kriterium bei ihrer Bewerbung nicht erfüllt wurde.
Im ersten Teil klärt uns Frau Zweig auf über „Werkzeuge“, mit denen wir die hinter Algorithmen liegenden, generellen Entscheidungprozesse besser beurteilen können. Wir Leser lernen anhand von nachvollziehbaren Beispielen jedes dieser Werkzeuge kennen.
Werkzeug 1: das Algoskop
Durch dieses Werkzeug wird deutlich, welche Systeme überprüft werden sollten. Frau Zweigs Meinung nach sind es nur die Systeme, die
- über Menschen entscheiden oder
- über Ressourcen, die Menschen betreffen, oder die
- solche Entscheidungen treffen, die die gesellschaftlichen Teilhabemöglichkeiten von Personen ändern.
Es handelt sich also um einen kleinen Teil aller möglichen Algorithmen (S.25), bei dem es direkt oder indirekt um das menschliche Wohlbefinden geht.
Werkzeug 2: Die Qualität der Entscheidungen einer Maschine
Sie ist abhängig von folgenden Erfolgsfaktoren:
- der Qualität und Quantität der eingehenden Daten,
- den grundlegenden Annahmen über die Natur der Fragestellung und
- davon, was die Gesellschaft eigentlich für eine „gute“ Entscheidung hält.
Gerade der letzte Punkt führt zum Thema „Moral“. Damit der Algorithmus eine Moral befolgen kann, muss für die Maschine messbar gemacht werden, wie sehr eine Entscheidung dieser Moral entspricht. Und: wer diese Entscheidung fällt.
Die große Gefahr – das betont Zweig – liegt darin, dass dem Anwender im Prozess das Gefühl dafür verloren geht, dass in seiner automatisierten Unterstützung keineswegs eine selbstverständliche Objektivierung vorgenommen wird, sondern lauter theoretisch fehlbare menschliche Entscheidungen und Prioritätensetzungen eingepflegt sind.
Werkzeug 3: die „lange Kette der Verantwortlichkeiten“
Wer trägt was zur Entstehung der Entscheidung bei, welche Probleme können auftreten, wenn es um die Vorhersage menschlichen Verhaltens geht und an welcher Stelle können wir Einfluss nehmen?
Werkzeug 4: die „Messung der Regulierungsnotwendigkeiten“
Sie ist mit verschiedenen Kotrollmaßnahmen verknüpft und gibt Auskunft darüber, wie stark eine Maschine überwacht werden muss.
Beispiel: Wenn ein Roboter aus der Produktion von Schrauben die fehlerhaften aussortiert, braucht der Algorithmus eine geringere Kontrolle als bei Systemen, die indirekt oder direkt Einfluss auf Menschen nehmen.
Im zweiten Teil beschreibt sie „Das kleine ABC der Informatik“. In ihm erklärt sie, was ein Algorithmus ist, was man unter Big Data und Data Mining versteht und wie aus Algorithmen „Computer-Intelligenz“ entsteht. Auch hier formuliert sie ausdrücklich positiv zur Sache, ohne Kritisches zu verschweigen.
Der dritte Teil, „Der Weg zur besseren Entscheidung“ schildert die Anwendung der in Teil 1 vorgestellten Werkzeuge auf Algorithmen. Sie zeigt auf, an welchen Stellen des Entscheidungsprozesses wir Einfluss auf die Algorithmenentwicklung nehmen können. Dabei geht sie sogar einen Schritt weiter und fordert, dass wir uns einmischen und Einfluss nehmen sollen, sogar müssen. Ein Beispiel hierfür ist, wie sich Richter durch die durch den Algorithmus ermittelte wahrscheinliche Rückfälligkeit eines zu verurteilenden Straftäters in ihrem Strafmaß beeinflussen lassen. In manchen US-Bundesstaaten hat der Widerstand dazu geführt, dass diese Software nicht mehr eingesetzt wird.
Die Autorin unterscheidet in ihrer Forschung z. B. Transparenzforderungen. Sie fordert Transparenz gegenüber der Gesellschaft, Betroffenen oder bestimmten Expertengruppen z. B. über das Qualitäts- und Fairnessmaß, die Art der verwendeten Input-Daten und die Methode des maschinellen Lernens, den Evaluationsprozess und seine Resultate. Darüber hinaus fordert sie Transparenz über die Nachvollziehbarkeit von Prozessen und Ergebnissen.
Und zum Schluss möchte ich noch ihre „Risikomatrix“ hervorheben, ein Modell, das fünf verschiedene Regulierungsstufen vorsieht. „Die Einteilung erfolgt anhand des Schadenspotenzials eines algorithmischen Entscheidungssystems und der Möglichkeiten, eine durch das System getroffene Entscheidung infrage zu stellen und zu ändern.“ (S. 234) Mit einer Vielzahl von Beispielen untermauert sie diese Matrix.
Für mich als IT-Affine, aber oft Technik-Überforderte, zeigt das Buch in leicht verständlicher Sprache und mit Cartoon- Humor (über die Zeichnungen lässt sich allerdings streiten…) die Schattenseiten von KI. Und: dass ich als „Analoge“ in Bezug auf die digitale Zukunft nicht ohne Einfluss bin. Ich fühle mich durch das Buch eingeladen, mich weiter zu informieren, mich einzumischen – und das auf verschiedenen von Frau Zweig aufgezeigten Wegen. In den meisten Fragen rund um KI geht es um ethisch-moralische Fragestellungen, die sie auf Seite 285 noch mal detailliert auflistet. Die Autorin ermutigt ihre Leser, einen differenzierten Blick auf KI zu werfen und zu ermitteln, welche Algorithmen von uns ein genaues und kritisches Hinsehen benötigen und welche so bleiben können, wie sie sind.
Ich kann dieses Buch vor allem denjenigen empfehlen, die mehr über Künstliche Intelligenz lernen wollen.
Bildquellen
- Titel Ein Algorithmus hat kein Taktgefühl: Copyright: Heyne-Verlag