Welche moralischen Aspekte für den Einsatz von KI existieren am Beispiel von autonomem Fahren und Bilderkennung?
Welche Haltungen gibt es in der Gesellschaft in Zusammenhang mit KI?
Einstiegsvideo:
Moral Machine & Teachable Machine
Moral Machine
Die „Moral Machine“ ist ein Projekt des MIT in den USA, das die Entscheidungsfindung autonomer Fahrzeuge simuliert. In 13 Szenarien muss entschieden werden, welche Personen gerettet werden sollen. Das Spiel wirft Fragen auf, was Maschinen im Vergleich zu Menschen entscheiden können oder dürfen. Was ist eine gute Entscheidung? Was kann oder darf eine Maschine entscheiden und was ein Mensch? Das sind große ethische und philosophische Fragen, auf die es keine eindeutige Antwort gibt.
Nehmt euch einen Moment, um darüber nachzudenken wie ihr die Simulation erlebt habt.
Wie hast du entschieden?
Was ist eine gute Entscheidung?
Gibt es eine richtige Entscheidung?
Welche (moralischen) Herausforderungen siehst du in Bezug auf autonomes Fahren?
„Teachable Machine“ ist ein von Google entwickeltes Tool, das dir die Möglichkeit bietet, ein eigenes überwachtes Lernmodell am Beispiel der Bilderkennung zu trainieren. Das Tool ermöglicht es dir zu verstehen, wie Klassifizierung funktioniert und welche Herausforderungen damit verbunden sind.
Klicke dich nun durch die Fragen. Warte immer einen Moment, bevor du die Antwort öffnest. Wie würdest du antworten?
Was Sieht eine KI und was sieht ein Mensch?
Das Bild mit den Chihuahuas und den Muffins soll als Beispiel zeigen, dass es manchmal auf den ersten Blick gar nicht so einfach ist, Bilder richtig zuzuordnen. Während ein Mensch hier bei genauer Betrachtung vielleicht Chihuahuas und Muffins wahrnimmt, erkennt ein Bilderkennungsmodell die hellen und dunklen Bereiche und ordnet sie den Kategorien {Essen, Gebäck, Muffin usw.} oder {Hund, Chihuahua, Tier, Welpe usw.} zu.
Verstehen KI-Systeme das Konzept von realen Erscheinungen?
Nein, denn lernfähige Algorithmen zerlegen die Bilder in kleine Bestandteile und suchen nach Mustern in den Daten. Sie lernen jedoch nicht, die zugrunde liegenden Konzepte zu erkennen. Ihr Verständnis basiert auf statistischer Mustererkennung und schließt ein tieferes Bewusstsein oder Verständnis des Konzepts aus.
Warum Brauchen Computer mehr Daten um Bilder zu verstehen?
Wissenschaftler:innen haben herausgefunden, dass Menschen etwas im Durchschnitt vier Mal sehen müssen, bis sie verstehen, was sie sehen (z.B. kann ein Kleinkind eine Katze erkennen, nachdem es vier Mal verschiedene Katzen gesehen hat).
Ein Computer hingegen benötigt für vergleichbare Aufgaben Tausende bis Hunderttausende von Bilddateien, manchmal sogar Millionen.
Vergleicht man diese Zahlen, könnte man zu dem Schluss kommen, dass Computer im Vergleich zum Menschen sehr ineffizient sind. Ihre Stärke liegt jedoch in der Verarbeitung großer Datenmengen in sehr hoher Geschwindigkeit. So können Computer sehr schnell Muster und Zusammenhänge erkennen, was wir Menschen nicht so gut können.
Wer ist verantwortlich dafür, was eine KI lernt oder sieht?
Die Verantwortung dafür, was eine KI-Anwendung sieht und lernt, liegt bei den Entwickler:innen, Datensammler:innen, Ingenieur:innen und Forscher:innen, Entscheidungsträger:innen in Unternehmen und Organisationen, die das System entwerfen, trainieren und implementieren. Denn die Basis sind immer die zugrundeliegenden Daten.
Welche Auswirkungen können unvollständige Trainingsdaten in KI-Systemen haben?
Es kann zu „algorithmischen Vorurteilen“ und damit zur Diskriminierung bestimmter gesellschaftlicher Gruppen kommen.
Bekannte Beispiele sind der Algorithmus der Suchmaschine Google, der dunkelhäutige Menschen als Gorillas erkannte. Oder das Unternehmen Amazon, das mit Hilfe einer KI Bewerbungen aussortierte, die die Wörter “Frauen” oder “Frauen College” enthielten.
Solche Fälle zeigen, dass unvollständige oder unausgewogene Trainingsdaten nicht nur zu Fehlern, sondern auch zu weitreichenden ethischen Problemen führen können, indem sie bestehende Vorurteile verstärken und diskriminierende Praktiken fördern. Dies unterstreicht die Notwendigkeit, bei der Entwicklung von KI-Systemen auf eine sorgfältige Auswahl und Überprüfung der Trainingsdaten zu achten, um die Entstehung algorithmischer Vorurteile zu minimieren und eine faire und ethische Nutzung zu gewährleisten.
Quizz
Beantworte die Fragen und finde heraus, wie gut du dich bereits auskennst.
a) Warum kann die Bilderkennung bei einem Bild mit Chihuahuas und Muffins für ein KI-Modell schwierig sein?
b) Warum benötigt ein Computer im Vergleich zum Menschen Tausende bis Hunderttausende von Bilddateien, um Aufgaben zu verstehen?
c) Wo liegt die Verantwortung dafür, was eine KI-Anwendung sieht und lernt?
d) Wie können algorithmische Vorurteile entstehen?