Gymnasium Marktbreit/Wissenschaftswoche 2025/11cInformatik: Unterschied zwischen den Versionen

Aus ZUM Projektwiki
K (Links für das leichtere Navigieren zu den Seiten Algorithmic bias, AI alingment und AI capability controll eingebaut)
 
(4 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 6: Zeile 6:
[[Datei:KI und Geschlechtergerechtigkeit.png|mini]]
[[Datei:KI und Geschlechtergerechtigkeit.png|mini]]
= 2.Algorithmic bias=
= 2.Algorithmic bias=
<blockquote>[[Algorithmische Vorurteile]] entstehen durch fehlerhafte Daten und/oder deren Verarbeitung. Sie können die Diskriminierung von bestimmten Personengruppen oder Minderheiten durch intelligente Systeme verursachen. Ein Beispiel ist die Benachteiligung von Bewerberinnen im Rahmen eines maschinellen Auswahlverfahrens. Doch wie kommt es zu fehlerhaften Daten? <ref>[https://projekte.zum.de/wiki/Algorithmische_Vorurteile </ref> Was ist algorithmische Voreingenommenheit (Algorithmic Bias)? - Lernen Wie Maschinen]</blockquote>
<blockquote>[[Algorithmische Vorurteile]] entstehen durch fehlerhafte Daten und/oder deren Verarbeitung. Sie können die Diskriminierung von bestimmten Personengruppen oder Minderheiten durch intelligente Systeme verursachen. Ein Beispiel ist die Benachteiligung von Bewerberinnen im Rahmen eines maschinellen Auswahlverfahrens. Doch wie kommt es zu fehlerhaften Daten? <ref>[https://projekte.zum.de/wiki/Algorithmische_Vorurteile </ref></blockquote>
==3.AI alignment: ==
==3.AI alignment: ==
<blockquote>[[AI Alignment]] (deutsch Ausrichtung der KI) bezieht sich auf den Prozess, bei dem KI-Systeme so gestaltet und trainiert werden, dass sie mit den Zielen, Werten und Bedürfnissen der Menschen in Einklang gebracht werden. Es geht darum, sicherzustellen, dass KI-Systeme die ethischen, rechtlichen und sozialen Standards einhalten, die in einer bestimmten Arbeitsumgebung gelten – die Systeme demnach korrekt „ausgerichtet“ sind.
<blockquote>[[AI Alignment]] (deutsch Ausrichtung der KI) bezieht sich auf den Prozess, bei dem KI-Systeme so gestaltet und trainiert werden, dass sie mit den Zielen, Werten und Bedürfnissen der Menschen in Einklang gebracht werden. Es geht darum, sicherzustellen, dass KI-Systeme die ethischen, rechtlichen und sozialen Standards einhalten, die in einer bestimmten Arbeitsumgebung gelten – die Systeme demnach korrekt „ausgerichtet“ sind.


<ref>[https://projekte.zum.de/wiki/AI_Alignment </ref> Die Zukunft der Arbeit: AI-Alignments und die Bedeutung für die Beschäftigten « Zukunftszentrum KI NRW]</blockquote>
<ref>[https://projekte.zum.de/wiki/AI_Alignment </ref></blockquote>
==4'''.''' AI capability control==
==4'''.''' AI capability control==
<blockquote>Die [[Kontrolle der KI-Fähigkeit]] ist ein wichtiger Aspekt der Entwicklung, Bereitstellung und Verwaltung von KI-Systemen. Durch die Festlegung klar definierter Grenzen, Beschränkungen und Richtlinien soll sichergestellt werden, dass KI-Technologien sicher, verantwortungsbewusst und ethisch arbeiten. <ref>[https://projekte.zum.de/wiki/Kontrolle_der_KI-F%C3%A4higkeit </ref> Was ist KI-Fähigkeitskontrolle und warum ist sie wichtig? - Unite.AI]</blockquote>
<blockquote>Die [[Kontrolle der KI-Fähigkeit]] ist ein wichtiger Aspekt der Entwicklung, Bereitstellung und Verwaltung von KI-Systemen. Durch die Festlegung klar definierter Grenzen, Beschränkungen und Richtlinien soll sichergestellt werden, dass KI-Technologien sicher, verantwortungsbewusst und ethisch arbeiten. <ref>[https://projekte.zum.de/wiki/Kontrolle_der_KI-F%C3%A4higkeit </ref></blockquote>
==[[5.Wie entstehen Vorurteile in den „Ansichten" künstlicher Intelligenzen?]]==
==5.Wie entstehen Vorurteile in den „Ansichten" künstlicher Intelligenzen?==
==[[6. Welchen Einfluss können solche Vorurteile auf die reale Welt haben?]]==
[[5.Wie entstehen Vorurteile in den „Ansichten" künstlicher Intelligenzen?|Vorurteile in den Ansichten einer KI entstehen hauptsächlich durch die '''Trainingsdaten''', die zur Entwicklung der KI verwendet werden]].


==6. Welchen Einfluss können solche Vorurteile auf die reale Welt haben?==


==[[7. Mit welchen Maßnahmen können solche Vorurteile verhindert werden?]]==
[[6. Welchen Einfluss können solche Vorurteile auf die reale Welt haben?|KI-Systeme können Menschen benachteiligen – besonders in sensiblen Bereichen wie Gesichtserkennung, Polizeiarbeit, Bewerbungsverfahren oder Kreditvergabe.]]
==7. Mit welchen Maßnahmen können solche Vorurteile verhindert werden?==
[[7. Mit welchen Maßnahmen können solche Vorurteile verhindert werden?|Daten sollten alle relevanten Gruppen gleichberechtigt abbilden und regelmäßig geprüft werden, um systematische Verzerrungen zu vermeiden.]]


== [[8.Experiment]] ==
== [[8.Experiment]] ==

Aktuelle Version vom 11. Juli 2025, 15:49 Uhr

Wissenschaftswoche 2025
Künstliche Intelligenz und Geschlechter-Gerechtigkeit

1.Künstliche Intelligenz und Geschlechter-Gerechtigkeit

KI und Geschlechtergerechtigkeit.png

2.Algorithmic bias

Algorithmische Vorurteile entstehen durch fehlerhafte Daten und/oder deren Verarbeitung. Sie können die Diskriminierung von bestimmten Personengruppen oder Minderheiten durch intelligente Systeme verursachen. Ein Beispiel ist die Benachteiligung von Bewerberinnen im Rahmen eines maschinellen Auswahlverfahrens. Doch wie kommt es zu fehlerhaften Daten? [1]

3.AI alignment:

AI Alignment (deutsch Ausrichtung der KI) bezieht sich auf den Prozess, bei dem KI-Systeme so gestaltet und trainiert werden, dass sie mit den Zielen, Werten und Bedürfnissen der Menschen in Einklang gebracht werden. Es geht darum, sicherzustellen, dass KI-Systeme die ethischen, rechtlichen und sozialen Standards einhalten, die in einer bestimmten Arbeitsumgebung gelten – die Systeme demnach korrekt „ausgerichtet“ sind. [2]

4. AI capability control

Die Kontrolle der KI-Fähigkeit ist ein wichtiger Aspekt der Entwicklung, Bereitstellung und Verwaltung von KI-Systemen. Durch die Festlegung klar definierter Grenzen, Beschränkungen und Richtlinien soll sichergestellt werden, dass KI-Technologien sicher, verantwortungsbewusst und ethisch arbeiten. [3]

5.Wie entstehen Vorurteile in den „Ansichten" künstlicher Intelligenzen?

Vorurteile in den Ansichten einer KI entstehen hauptsächlich durch die Trainingsdaten, die zur Entwicklung der KI verwendet werden.

6. Welchen Einfluss können solche Vorurteile auf die reale Welt haben?

KI-Systeme können Menschen benachteiligen – besonders in sensiblen Bereichen wie Gesichtserkennung, Polizeiarbeit, Bewerbungsverfahren oder Kreditvergabe.

7. Mit welchen Maßnahmen können solche Vorurteile verhindert werden?

Daten sollten alle relevanten Gruppen gleichberechtigt abbilden und regelmäßig geprüft werden, um systematische Verzerrungen zu vermeiden.

8.Experiment

References