Benutzer-Werkzeuge

Webseiten-Werkzeuge


profil:klasse10:modul2

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
profil:klasse10:modul2 [2026/03/04 08:44] – [Bilderkennung und Klassifizierung] lutzprofil:klasse10:modul2 [2026/03/04 09:40] (aktuell) – [Bilderkennung und Klassifizierung] lutz
Zeile 70: Zeile 70:
  
 {{ https://cdn-media-1.freecodecamp.org/images/1*bt-E2YcPafjiPbZFDMMmNQ.jpeg}} {{ https://cdn-media-1.freecodecamp.org/images/1*bt-E2YcPafjiPbZFDMMmNQ.jpeg}}
 +
 + https://medium.freecodecamp.org/chihuahua-or-muffin-my-search-for-the-best-computer-vision-api-cbda4d6b425d
 +
 +Klicke dich nun durch die Fragen. Warte immer einen Moment, bevor du die Antwort öffnest. Wie würdest du antworten?
 +
 +  * ++Was Sieht eine KI und was sieht ein Mensch?|\\ Das Bild mit den Chihuahuas und den Muffins soll als Beispiel zeigen, dass es manchmal auf den ersten Blick gar nicht so einfach ist, Bilder richtig zuzuordnen. Während ein Mensch hier bei genauer Betrachtung vielleicht Chihuahuas und Muffins wahrnimmt, erkennt ein Bilderkennungsmodell die hellen und dunklen Bereiche und ordnet sie den Kategorien {Essen, Gebäck, Muffin usw.} oder {Hund, Chihuahua, Tier, Welpe usw.} zu.++
 +  * ++Verstehen KI-Systeme das Konzept von realen Erscheinungen?| \\ Nein, denn lernfähige Algorithmen zerlegen die Bilder in kleine Bestandteile und suchen nach Mustern in den Daten. Sie lernen jedoch nicht, die zugrunde liegenden Konzepte zu erkennen.  Ihr Verständnis basiert auf statistischer Mustererkennung und schließt ein tieferes Bewusstsein oder Verständnis des Konzepts aus.++
 +  * ++Was passiert, wenn wir in unserem Modell einer Kategorie nur wenige Daten (n=10) und der anderen Kategorie mehr Daten (n=100) zuordnen? |\\ Das Modell kann die Kategorie mit weniger Daten weniger gut erkennen, da die geringere Datenmenge weniger Mustererkennung zulässt. Die Kategorie mit mehr Daten wird genauer erkannt. Unvollständige Trainingsdaten können zu algorithmischen Vorurteilen (engl. algorithmic bias) führen.++
 +  * ++Warum Brauchen Computer mehr Daten um Bilder zu verstehen?|\\ Wissenschaftler:innen haben herausgefunden, dass Menschen etwas im Durchschnitt vier Mal sehen müssen, bis sie verstehen, was sie sehen (z.B. kann ein Kleinkind eine Katze erkennen, nachdem es vier Mal verschiedene Katzen gesehen hat). 
 +Ein Computer hingegen benötigt für vergleichbare Aufgaben Tausende bis Hunderttausende von Bilddateien, manchmal sogar Millionen.
 +
 +Vergleicht man diese Zahlen, könnte man zu dem Schluss kommen, dass Computer im Vergleich zum Menschen sehr ineffizient sind. Ihre Stärke liegt jedoch in der Verarbeitung großer Datenmengen in sehr hoher Geschwindigkeit. So können Computer sehr schnell Muster und Zusammenhänge erkennen, was wir Menschen nicht so gut können.++
 +  * ++Wer ist verantwortlich dafür, was eine KI lernt oder sieht?|\\ Die Verantwortung dafür, was eine KI-Anwendung sieht und lernt, liegt bei den Entwickler:innen, Datensammler:innen, Ingenieur:innen und Forscher:innen, Entscheidungsträger:innen in Unternehmen und Organisationen, die das System entwerfen, trainieren und implementieren. Denn die Basis sind immer die zugrundeliegenden Daten.++
 +  * ++Welche Auswirkungen können unvollständige Trainingsdaten in KI-Systemen haben?|\\ Es kann zu "algorithmischen Vorurteilen" und damit zur Diskriminierung bestimmter gesellschaftlicher Gruppen kommen. 
 +
 +Bekannte Beispiele sind der Algorithmus der Suchmaschine Google, der dunkelhäutige Menschen als Gorillas erkannte. Oder das Unternehmen Amazon, das mit Hilfe einer KI Bewerbungen aussortierte, die die Wörter “Frauen” oder “Frauen College” enthielten.
 +
 +Solche Fälle zeigen, dass unvollständige oder unausgewogene Trainingsdaten nicht nur zu Fehlern, sondern auch zu weitreichenden ethischen Problemen führen können, indem sie bestehende Vorurteile verstärken und diskriminierende Praktiken fördern. Dies unterstreicht die Notwendigkeit, bei der Entwicklung von KI-Systemen auf eine sorgfältige Auswahl und Überprüfung der Trainingsdaten zu achten, um die Entstehung algorithmischer Vorurteile zu minimieren und eine faire und ethische Nutzung zu gewährleisten.++
 +
 +
 +\\
 +**Quizz**
 +
 +Beantworte die Fragen und finde heraus, wie gut du dich bereits auskennst.
 +
 +<quizlib id="quiz1" rightanswers="[['a2'],['a1'],['a0'],['a1']]" submit="Antworten überprüfen!">
 +    
 +    <question title="a) Warum kann die Bilderkennung bei einem Bild mit Chihuahuas und Muffins für ein KI-Modell schwierig sein?" type="radio"> Weil Bilder von Chihuahuas und Muffins zu unterschiedlich sind.| Weil Menschen besser darin sind, Muster in Bildern zu erkennen.| Weil Bilderkennungsmodelle die zugrunde liegenden Konzepte nicht erkennen können.</question>
 +    <question title="b) Warum benötigt ein Computer im Vergleich zum Menschen Tausende bis Hunderttausende von Bilddateien, um Aufgaben zu verstehen?" type="radio"> Weil Menschen besser darin sind, Bilder zu verstehen.| Weil Computer Muster und Zusammenhänge schneller erkennen können.| Weil Computer ineffizient sind und mehr Daten benötigen.</question>
 +    <question title="c) Wo liegt die Verantwortung dafür, was eine KI-Anwendung sieht und lernt?" type="radio"> Bei den Entwickler:innen, Datensammler:innen und Entscheidungsträger:innen.| Bei denjenigen, die die KI-Anwendung kaufen.| Bei den Menschen, die die KI-Anwendung verwenden.</question>  
 +    <question title="d) Wie können algorithmische Vorurteile entstehen?" type="radio"> Aufgrund einer zu effizienten Verarbeitung von unvollständigen Trainingsdaten.| Durch eine unzureichende Menge an Trainingsdaten, die Vorurteile und Diskriminierung begünstigen können. | Durch rein zufällige Entscheidungen bei der Auswahl von Trainingsdaten.</question>
 +    
 +</quizlib>
 +
 +\\
 +\\
 +
 +
 +
profil/klasse10/modul2.1772610260.txt.gz · Zuletzt geändert: von lutz