Benutzer-Werkzeuge

Webseiten-Werkzeuge


profil:klasse10:modul2

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
profil:klasse10:modul2 [2026/03/04 09:03] – [Bilderkennung und Klassifizierung] lutzprofil:klasse10:modul2 [2026/03/04 09:40] (aktuell) – [Bilderkennung und Klassifizierung] lutz
Zeile 83: Zeile 83:
 Vergleicht man diese Zahlen, könnte man zu dem Schluss kommen, dass Computer im Vergleich zum Menschen sehr ineffizient sind. Ihre Stärke liegt jedoch in der Verarbeitung großer Datenmengen in sehr hoher Geschwindigkeit. So können Computer sehr schnell Muster und Zusammenhänge erkennen, was wir Menschen nicht so gut können.++ Vergleicht man diese Zahlen, könnte man zu dem Schluss kommen, dass Computer im Vergleich zum Menschen sehr ineffizient sind. Ihre Stärke liegt jedoch in der Verarbeitung großer Datenmengen in sehr hoher Geschwindigkeit. So können Computer sehr schnell Muster und Zusammenhänge erkennen, was wir Menschen nicht so gut können.++
   * ++Wer ist verantwortlich dafür, was eine KI lernt oder sieht?|\\ Die Verantwortung dafür, was eine KI-Anwendung sieht und lernt, liegt bei den Entwickler:innen, Datensammler:innen, Ingenieur:innen und Forscher:innen, Entscheidungsträger:innen in Unternehmen und Organisationen, die das System entwerfen, trainieren und implementieren. Denn die Basis sind immer die zugrundeliegenden Daten.++   * ++Wer ist verantwortlich dafür, was eine KI lernt oder sieht?|\\ Die Verantwortung dafür, was eine KI-Anwendung sieht und lernt, liegt bei den Entwickler:innen, Datensammler:innen, Ingenieur:innen und Forscher:innen, Entscheidungsträger:innen in Unternehmen und Organisationen, die das System entwerfen, trainieren und implementieren. Denn die Basis sind immer die zugrundeliegenden Daten.++
-    * ++Welche Auswirkungen können unvollständige Trainingsdaten in KI-Systemen haben?|\\ Es kann zu "algorithmischen Vorurteilen" und damit zur Diskriminierung bestimmter gesellschaftlicher Gruppen kommen. +  * ++Welche Auswirkungen können unvollständige Trainingsdaten in KI-Systemen haben?|\\ Es kann zu "algorithmischen Vorurteilen" und damit zur Diskriminierung bestimmter gesellschaftlicher Gruppen kommen. 
  
 Bekannte Beispiele sind der Algorithmus der Suchmaschine Google, der dunkelhäutige Menschen als Gorillas erkannte. Oder das Unternehmen Amazon, das mit Hilfe einer KI Bewerbungen aussortierte, die die Wörter “Frauen” oder “Frauen College” enthielten. Bekannte Beispiele sind der Algorithmus der Suchmaschine Google, der dunkelhäutige Menschen als Gorillas erkannte. Oder das Unternehmen Amazon, das mit Hilfe einer KI Bewerbungen aussortierte, die die Wörter “Frauen” oder “Frauen College” enthielten.
  
 Solche Fälle zeigen, dass unvollständige oder unausgewogene Trainingsdaten nicht nur zu Fehlern, sondern auch zu weitreichenden ethischen Problemen führen können, indem sie bestehende Vorurteile verstärken und diskriminierende Praktiken fördern. Dies unterstreicht die Notwendigkeit, bei der Entwicklung von KI-Systemen auf eine sorgfältige Auswahl und Überprüfung der Trainingsdaten zu achten, um die Entstehung algorithmischer Vorurteile zu minimieren und eine faire und ethische Nutzung zu gewährleisten.++ Solche Fälle zeigen, dass unvollständige oder unausgewogene Trainingsdaten nicht nur zu Fehlern, sondern auch zu weitreichenden ethischen Problemen führen können, indem sie bestehende Vorurteile verstärken und diskriminierende Praktiken fördern. Dies unterstreicht die Notwendigkeit, bei der Entwicklung von KI-Systemen auf eine sorgfältige Auswahl und Überprüfung der Trainingsdaten zu achten, um die Entstehung algorithmischer Vorurteile zu minimieren und eine faire und ethische Nutzung zu gewährleisten.++
 +
 +
 +\\
 +**Quizz**
 +
 +Beantworte die Fragen und finde heraus, wie gut du dich bereits auskennst.
 +
 +<quizlib id="quiz1" rightanswers="[['a2'],['a1'],['a0'],['a1']]" submit="Antworten überprüfen!">
 +    
 +    <question title="a) Warum kann die Bilderkennung bei einem Bild mit Chihuahuas und Muffins für ein KI-Modell schwierig sein?" type="radio"> Weil Bilder von Chihuahuas und Muffins zu unterschiedlich sind.| Weil Menschen besser darin sind, Muster in Bildern zu erkennen.| Weil Bilderkennungsmodelle die zugrunde liegenden Konzepte nicht erkennen können.</question>
 +    <question title="b) Warum benötigt ein Computer im Vergleich zum Menschen Tausende bis Hunderttausende von Bilddateien, um Aufgaben zu verstehen?" type="radio"> Weil Menschen besser darin sind, Bilder zu verstehen.| Weil Computer Muster und Zusammenhänge schneller erkennen können.| Weil Computer ineffizient sind und mehr Daten benötigen.</question>
 +    <question title="c) Wo liegt die Verantwortung dafür, was eine KI-Anwendung sieht und lernt?" type="radio"> Bei den Entwickler:innen, Datensammler:innen und Entscheidungsträger:innen.| Bei denjenigen, die die KI-Anwendung kaufen.| Bei den Menschen, die die KI-Anwendung verwenden.</question>  
 +    <question title="d) Wie können algorithmische Vorurteile entstehen?" type="radio"> Aufgrund einer zu effizienten Verarbeitung von unvollständigen Trainingsdaten.| Durch eine unzureichende Menge an Trainingsdaten, die Vorurteile und Diskriminierung begünstigen können. | Durch rein zufällige Entscheidungen bei der Auswahl von Trainingsdaten.</question>
 +    
 +</quizlib>
 +
 +\\
 +\\
 +
 +
  
profil/klasse10/modul2.1772611390.txt.gz · Zuletzt geändert: von lutz