Benutzer:PS-GMB: Unterschied zwischen den Versionen
PS-GMB (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „1.Künstliche Intelligenz und Geschlechter-Gerechtigkeit 2.Algorithmic bias Algorithmische Vorurteile entstehen durch fehlerhafte Daten und/oder deren Verarbeitung. Sie können die Diskriminierung von bestimmten Personengruppen oder Minderheiten durch intelligente Systeme verursachen. Ein Beispiel ist die Benachteiligung von Bewerberinnen im Rahmen eines maschinellen Auswahlverfahrens. Doch wie kommt es zu fehlerhaften Daten? Quelle:Was ist algorithmis…“) Markierung: Quelltext-Bearbeitung 2017 |
PS-GMB (Diskussion | Beiträge) Keine Bearbeitungszusammenfassung |
||
| (2 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
| Zeile 1: | Zeile 1: | ||
1.Künstliche Intelligenz und Geschlechter-Gerechtigkeit | = '''1.Künstliche Intelligenz und Geschlechter-Gerechtigkeit''' = | ||
[[Datei:KI und Geschlechtergerechtigkeit.png|mini]] | |||
= 2.Algorithmic bias= | |||
<blockquote>Algorithmische Vorurteile entstehen durch fehlerhafte Daten und/oder deren Verarbeitung. Sie können die Diskriminierung von bestimmten Personengruppen oder Minderheiten durch intelligente Systeme verursachen. Ein Beispiel ist die Benachteiligung von Bewerberinnen im Rahmen eines maschinellen Auswahlverfahrens. Doch wie kommt es zu fehlerhaften Daten? Quelle:[https://projekte.zum.de/wiki/Algorithmische_Vorurteile Was ist algorithmische Voreingenommenheit (Algorithmic Bias)? - Lernen Wie Maschinen]</blockquote> | |||
==3.AI alignment: == | |||
<blockquote>AI Alignment (deutsch Ausrichtung der KI) bezieht sich auf den Prozess, bei dem KI-Systeme so gestaltet und trainiert werden, dass sie mit den Zielen, Werten und Bedürfnissen der Menschen in Einklang gebracht werden. Es geht darum, sicherzustellen, dass KI-Systeme die ethischen, rechtlichen und sozialen Standards einhalten, die in einer bestimmten Arbeitsumgebung gelten – die Systeme demnach korrekt „ausgerichtet“ sind. | |||
Quelle:[https://projekte.zum.de/wiki/AI_Alignment Die Zukunft der Arbeit: AI-Alignments und die Bedeutung für die Beschäftigten « Zukunftszentrum KI NRW]</blockquote> | |||
==4'''.''' AI capability control== | |||
<blockquote>Die Kontrolle der KI-Fähigkeit ist ein wichtiger Aspekt der Entwicklung, Bereitstellung und Verwaltung von KI-Systemen. Durch die Festlegung klar definierter Grenzen, Beschränkungen und Richtlinien soll sichergestellt werden, dass KI-Technologien sicher, verantwortungsbewusst und ethisch arbeiten. Quelle:[https://projekte.zum.de/wiki/Kontrolle_der_KI-F%C3%A4higkeit Was ist KI-Fähigkeitskontrolle und warum ist sie wichtig? - Unite.AI]</blockquote> | |||
==[[5.Wie entstehen Vorurteile in den „Ansichten" künstlicher Intelligenzen?]]== | |||
==[[6. Welchen Einfluss können solche Vorurteile auf die reale Welt haben?]]== | |||
==[[7. Mit welchen Maßnahmen können solche Vorurteile verhindert werden?]]== | |||
== 8.Experiment == | |||
{{Fortsetzung|weiter=Ausblick/Fortsetzung|weiterlink=Lernpfad erstellen/Ausblick}} | |||
Aktuelle Version vom 9. Juli 2025, 09:31 Uhr
1.Künstliche Intelligenz und Geschlechter-Gerechtigkeit
2.Algorithmic bias
Algorithmische Vorurteile entstehen durch fehlerhafte Daten und/oder deren Verarbeitung. Sie können die Diskriminierung von bestimmten Personengruppen oder Minderheiten durch intelligente Systeme verursachen. Ein Beispiel ist die Benachteiligung von Bewerberinnen im Rahmen eines maschinellen Auswahlverfahrens. Doch wie kommt es zu fehlerhaften Daten? Quelle:Was ist algorithmische Voreingenommenheit (Algorithmic Bias)? - Lernen Wie Maschinen
3.AI alignment:
AI Alignment (deutsch Ausrichtung der KI) bezieht sich auf den Prozess, bei dem KI-Systeme so gestaltet und trainiert werden, dass sie mit den Zielen, Werten und Bedürfnissen der Menschen in Einklang gebracht werden. Es geht darum, sicherzustellen, dass KI-Systeme die ethischen, rechtlichen und sozialen Standards einhalten, die in einer bestimmten Arbeitsumgebung gelten – die Systeme demnach korrekt „ausgerichtet“ sind. Quelle:Die Zukunft der Arbeit: AI-Alignments und die Bedeutung für die Beschäftigten « Zukunftszentrum KI NRW
4. AI capability control
Die Kontrolle der KI-Fähigkeit ist ein wichtiger Aspekt der Entwicklung, Bereitstellung und Verwaltung von KI-Systemen. Durch die Festlegung klar definierter Grenzen, Beschränkungen und Richtlinien soll sichergestellt werden, dass KI-Technologien sicher, verantwortungsbewusst und ethisch arbeiten. Quelle:Was ist KI-Fähigkeitskontrolle und warum ist sie wichtig? - Unite.AI
