======KI & Gesellschaft ======
(([[https://creativecommons.org/licenses/by-sa/4.0/deed.de |ki-campus.org - KI-Macht Schule - CC BY-SA 4.0:]]))
Wir beschäftigen uns mit folgenden Fragen:
* Welche moralischen Aspekte für den Einsatz von KI existieren am Beispiel von autonomem Fahren und Bilderkennung?
* Welche Haltungen gibt es in der Gesellschaft in Zusammenhang mit KI?
**Einstiegsvideo:**
{{gdrive>17gtaIR0q9QH6PWzWOmHdDw9aEZlqdnf6}}
\\
\\
=====Moral Machine & Teachable Machine=====
====Moral Machine====
Die "Moral Machine" ist ein Projekt des MIT in den USA, das die Entscheidungsfindung autonomer Fahrzeuge simuliert. In 13 Szenarien muss entschieden werden, welche Personen gerettet werden sollen. Das Spiel wirft Fragen auf, was Maschinen im Vergleich zu Menschen entscheiden können oder dürfen. Was ist eine gute Entscheidung? Was kann oder darf eine Maschine entscheiden und was ein Mensch? Das sind große ethische und philosophische Fragen, auf die es keine eindeutige Antwort gibt.
Nehmt euch einen Moment, um darüber nachzudenken wie ihr die Simulation erlebt habt.
* Wie hast du entschieden?
* Was ist eine gute Entscheidung?
* Gibt es eine richtige Entscheidung?
* Welche (moralischen) Herausforderungen siehst du in Bezug auf autonomes Fahren?
{{ :profil:klasse10:02_smki_arbeitsvorlage_stationsarbeit-moralmachine.pdf |Arbeitsvorlage}}
**Zur Moral Machine:** https://www.moralmachine.net/hl/de
====Teachable Machine====
"Teachable Machine" ist ein von Google entwickeltes Tool, das dir die Möglichkeit bietet, ein eigenes überwachtes Lernmodell am Beispiel der Bilderkennung zu trainieren. Das Tool ermöglicht es dir zu verstehen, wie Klassifizierung funktioniert und welche Herausforderungen damit verbunden sind.
{{ :profil:klasse10:03_smki_arbeitsvorlage_stationsarbeit-teachablemachine.pdf | Arbeitsvorlage}}
**Zur Teachable Machine:** https://teachablemachine.withgoogle.com/train/image
alternativ
**GenAI Image Classifier:** https://tm.gen-ai.fi/image/general
Hier z.B. findet ihr Trainingsbilder: https://www.microsoft.com/en-us/download/details.aspx?id=54765
**Aufgabe**
Beantworte die folgenden Fragen zur Moral Machine und zur Teachable Maachine!
Aufgrund möglicher Datenschutzverletzungen und Überwachungsbedenken.| Weil die Sicherheitskontrollen dadurch länger dauern.| Weil der Aufwand zur Überprüfung der gesammelten Daten zu hoch ist.
Die Nachhaltigkeit und Effizienz von autonomen Fahrzeugen.| Die Verantwortlichkeit bei Unfällen und moralische Aspekte, bei Entscheidungen, die das Auto "treffen" muss.| Der Umfang der Trainingsdaten bei der Programmierung der KI.
Der Datenschutz und die Privatsphäre von Schüler:innen muss gewahrt werden.| Die Schüler:innen denken nicht mehr selber.|Die Kosten für Unterrichtsmaterialien steigen.
\\
\\
====Bilderkennung und Klassifizierung====
Was siehst du hier?
{{ https://cdn-media-1.freecodecamp.org/images/1*bt-E2YcPafjiPbZFDMMmNQ.jpeg}}
https://medium.freecodecamp.org/chihuahua-or-muffin-my-search-for-the-best-computer-vision-api-cbda4d6b425d
Klicke dich nun durch die Fragen. Warte immer einen Moment, bevor du die Antwort öffnest. Wie würdest du antworten?
* ++Was Sieht eine KI und was sieht ein Mensch?|\\ Das Bild mit den Chihuahuas und den Muffins soll als Beispiel zeigen, dass es manchmal auf den ersten Blick gar nicht so einfach ist, Bilder richtig zuzuordnen. Während ein Mensch hier bei genauer Betrachtung vielleicht Chihuahuas und Muffins wahrnimmt, erkennt ein Bilderkennungsmodell die hellen und dunklen Bereiche und ordnet sie den Kategorien {Essen, Gebäck, Muffin usw.} oder {Hund, Chihuahua, Tier, Welpe usw.} zu.++
* ++Verstehen KI-Systeme das Konzept von realen Erscheinungen?| \\ Nein, denn lernfähige Algorithmen zerlegen die Bilder in kleine Bestandteile und suchen nach Mustern in den Daten. Sie lernen jedoch nicht, die zugrunde liegenden Konzepte zu erkennen. Ihr Verständnis basiert auf statistischer Mustererkennung und schließt ein tieferes Bewusstsein oder Verständnis des Konzepts aus.++
* ++Was passiert, wenn wir in unserem Modell einer Kategorie nur wenige Daten (n=10) und der anderen Kategorie mehr Daten (n=100) zuordnen? |\\ Das Modell kann die Kategorie mit weniger Daten weniger gut erkennen, da die geringere Datenmenge weniger Mustererkennung zulässt. Die Kategorie mit mehr Daten wird genauer erkannt. Unvollständige Trainingsdaten können zu algorithmischen Vorurteilen (engl. algorithmic bias) führen.++
* ++Warum Brauchen Computer mehr Daten um Bilder zu verstehen?|\\ Wissenschaftler:innen haben herausgefunden, dass Menschen etwas im Durchschnitt vier Mal sehen müssen, bis sie verstehen, was sie sehen (z.B. kann ein Kleinkind eine Katze erkennen, nachdem es vier Mal verschiedene Katzen gesehen hat).
Ein Computer hingegen benötigt für vergleichbare Aufgaben Tausende bis Hunderttausende von Bilddateien, manchmal sogar Millionen.
Vergleicht man diese Zahlen, könnte man zu dem Schluss kommen, dass Computer im Vergleich zum Menschen sehr ineffizient sind. Ihre Stärke liegt jedoch in der Verarbeitung großer Datenmengen in sehr hoher Geschwindigkeit. So können Computer sehr schnell Muster und Zusammenhänge erkennen, was wir Menschen nicht so gut können.++
* ++Wer ist verantwortlich dafür, was eine KI lernt oder sieht?|\\ Die Verantwortung dafür, was eine KI-Anwendung sieht und lernt, liegt bei den Entwickler:innen, Datensammler:innen, Ingenieur:innen und Forscher:innen, Entscheidungsträger:innen in Unternehmen und Organisationen, die das System entwerfen, trainieren und implementieren. Denn die Basis sind immer die zugrundeliegenden Daten.++
* ++Welche Auswirkungen können unvollständige Trainingsdaten in KI-Systemen haben?|\\ Es kann zu "algorithmischen Vorurteilen" und damit zur Diskriminierung bestimmter gesellschaftlicher Gruppen kommen.
Bekannte Beispiele sind der Algorithmus der Suchmaschine Google, der dunkelhäutige Menschen als Gorillas erkannte. Oder das Unternehmen Amazon, das mit Hilfe einer KI Bewerbungen aussortierte, die die Wörter “Frauen” oder “Frauen College” enthielten.
Solche Fälle zeigen, dass unvollständige oder unausgewogene Trainingsdaten nicht nur zu Fehlern, sondern auch zu weitreichenden ethischen Problemen führen können, indem sie bestehende Vorurteile verstärken und diskriminierende Praktiken fördern. Dies unterstreicht die Notwendigkeit, bei der Entwicklung von KI-Systemen auf eine sorgfältige Auswahl und Überprüfung der Trainingsdaten zu achten, um die Entstehung algorithmischer Vorurteile zu minimieren und eine faire und ethische Nutzung zu gewährleisten.++
\\
**Quizz**
Beantworte die Fragen und finde heraus, wie gut du dich bereits auskennst.
Weil Bilder von Chihuahuas und Muffins zu unterschiedlich sind.| Weil Menschen besser darin sind, Muster in Bildern zu erkennen.| Weil Bilderkennungsmodelle die zugrunde liegenden Konzepte nicht erkennen können.
Weil Menschen besser darin sind, Bilder zu verstehen.| Weil Computer Muster und Zusammenhänge schneller erkennen können.| Weil Computer ineffizient sind und mehr Daten benötigen.
Bei den Entwickler:innen, Datensammler:innen und Entscheidungsträger:innen.| Bei denjenigen, die die KI-Anwendung kaufen.| Bei den Menschen, die die KI-Anwendung verwenden.
Aufgrund einer zu effizienten Verarbeitung von unvollständigen Trainingsdaten.| Durch eine unzureichende Menge an Trainingsdaten, die Vorurteile und Diskriminierung begünstigen können. | Durch rein zufällige Entscheidungen bei der Auswahl von Trainingsdaten.
\\
\\