Alle öffentlichen Logbücher
Aus ZUM Projektwiki
Dies ist die kombinierte Anzeige aller in ZUM Projektwiki geführten Logbücher. Die Ausgabe kann durch die Auswahl des Logbuchtyps, des Benutzers oder des Seitentitels eingeschränkt werden (Groß-/Kleinschreibung muss beachtet werden).
- 08:40, 10. Jul. 2025 PS-GMB Diskussion Beiträge lud Datei:Auschnitt Programm.jpg hoch (Hochgeladen mit VisualEditor Seite)
- 08:40, 10. Jul. 2025 PS-GMB Diskussion Beiträge erstellte die Seite Datei:Auschnitt Programm.jpg (Hochgeladen mit VisualEditor Seite)
- 08:36, 10. Jul. 2025 PS-GMB Diskussion Beiträge lud Datei:Volles Programm 2.jpg hoch (Hochgeladen mit VisualEditor Seite)
- 08:36, 10. Jul. 2025 PS-GMB Diskussion Beiträge erstellte die Seite Datei:Volles Programm 2.jpg (Hochgeladen mit VisualEditor Seite)
- 08:20, 10. Jul. 2025 PS-GMB Diskussion Beiträge lud Datei:Screenshot 2025-07-10-10-02-51-972 com.android.chrome.jpg hoch (Hochgeladen mit VisualEditor Seite)
- 08:20, 10. Jul. 2025 PS-GMB Diskussion Beiträge erstellte die Seite Datei:Screenshot 2025-07-10-10-02-51-972 com.android.chrome.jpg (Hochgeladen mit VisualEditor Seite)
- 08:17, 10. Jul. 2025 PS-GMB Diskussion Beiträge lud Datei:Volles Programm.jpg hoch (Hochgeladen mit VisualEditor Seite)
- 08:17, 10. Jul. 2025 PS-GMB Diskussion Beiträge erstellte die Seite Datei:Volles Programm.jpg (Hochgeladen mit VisualEditor Seite)
- 08:03, 10. Jul. 2025 PS-GMB Diskussion Beiträge erstellte die Seite 8.Experiment (Die Seite wurde neu angelegt: „Stereotyp oder Neutral? Eine experimentelle Analyse der Geschlechtervoreingenommenheit in den KI-Modellen Gemini, ChatGPT und DeepSeek Abstrakt: Dieses Experiment untersucht das Ausmaß der Geschlechtervoreingenommenheit (Gender Bias) in drei prominenten KI-Sprachmodellen: Google Gemini, OpenAI's ChatGPT und DeepSeek. Mithilfe eines automatisierten Workflows wurden die KIs beauftragt, narrative Texte zu 50 Berufsbezeichnungen zu erstellen, die zuvor manu…“) Markierung: Visuelle Bearbeitung
- 08:40, 9. Jul. 2025 PS-GMB Diskussion Beiträge erstellte die Seite Benutzer:PS-GMB (Die Seite wurde neu angelegt: „1.Künstliche Intelligenz und Geschlechter-Gerechtigkeit 2.Algorithmic bias Algorithmische Vorurteile entstehen durch fehlerhafte Daten und/oder deren Verarbeitung. Sie können die Diskriminierung von bestimmten Personengruppen oder Minderheiten durch intelligente Systeme verursachen. Ein Beispiel ist die Benachteiligung von Bewerberinnen im Rahmen eines maschinellen Auswahlverfahrens. Doch wie kommt es zu fehlerhaften Daten? Quelle:Was ist algorithmis…“) Markierung: Quelltext-Bearbeitung 2017
- 08:36, 9. Jul. 2025 PS-GMB Diskussion Beiträge lud Datei:KI und Geschlechtergerechtigkeit.png hoch (Hochgeladen mit VisualEditor Seite)
- 08:36, 9. Jul. 2025 PS-GMB Diskussion Beiträge erstellte die Seite Datei:KI und Geschlechtergerechtigkeit.png (Hochgeladen mit VisualEditor Seite)
- 08:13, 9. Jul. 2025 PS-GMB Diskussion Beiträge erstellte die Seite 7. Mit welchen Maßnahmen können solche Vorurteile verhindert werden? (Die Seite wurde neu angelegt: „🗂️ Faire und diverse Datensätze Daten sollten alle relevanten Gruppen gleichberechtigt abbilden und regelmäßig geprüft werden, um systematische Verzerrungen zu vermeiden. 🔗 Quelle: https://arxiv.org/abs/1908.09635 🔍 Transparente und erklärbare KI KI-Systeme sollten nachvollziehbar sein – sogenannte explainable AI. Nur so können Fehler erkannt und behoben werden. 🔗 Quelle: https://arxiv.org/abs/1702.08608 ⚖️ Gesetzliche und ethi…“) Markierung: Quelltext-Bearbeitung 2017
- 08:01, 9. Jul. 2025 PS-GMB Diskussion Beiträge erstellte die Seite 6. Welchen Einfluss können solche Vorurteile auf die reale Welt haben? (Die Seite wurde neu angelegt: „⚖ 1. Justiz & Strafverfolgung KI-Systeme werden bereits eingesetzt, um Risikobewertungen zu treffen, z. B. ob jemand rückfällig wird (z. B. das US-System COMPAS). → Studien zeigen, dass solche Systeme bei People of Color deutlich höhere Risikowerte berechnen – ohne objektive Grundlage. 📌 Folge: Unfaire Urteile, längere Haftstrafen oder strengere Überwachung bei bestimmten Bevölkerungsgruppen. --- 💼 2. Bewerbungen & Personalentsc…“) Markierung: Quelltext-Bearbeitung 2017
- 10:38, 8. Jul. 2025 PS-GMB Diskussion Beiträge erstellte die Seite 5.Wie entstehen Vorurteile in den „Ansichten" künstlicher Intelligenzen? (Die Seite wurde neu angelegt: „Vorurteile (Bias) in den Ansichten künstlicher Intelligenz (KI) entstehen nicht von selbst, sondern durch die Art und Weise, wie KI-Systeme entwickelt, trainiert und eingesetzt werden. Hier sind die wichtigsten Ursachen: --- 1. Vorurteile in den Trainingsdaten KI-Modelle lernen aus großen Datenmengen. Wenn diese Daten bereits menschenbezogene Vorurteile, Stereotype oder Diskriminierungen enthalten (z. B. rassistische, sexistische oder kulturelle V…“) Markierung: Quelltext-Bearbeitung 2017
- 09:43, 8. Jul. 2025 PS-GMB Diskussion Beiträge erstellte die Seite AI Alignment (Die Seite wurde neu angelegt: „ Das AI-Alignment-Problem: Eine Synthese der zentralen Herausforderungen und Lösungsansätze 1. Einleitung Die Entwicklung von künstlicher Intelligenz (KI), die menschliche kognitive Fähigkeiten in allen relevanten Bereichen übertrifft – eine sogenannte Superintelligenz –, birgt transformatives Potenzial, aber auch erhebliche Risiken. Das zentrale Anliegen der KI-Sicherheitsforschung ist das AI-Alignment-Problem: die Sicherstellung, dass solche…“) Markierung: Quelltext-Bearbeitung 2017
- 08:46, 8. Jul. 2025 PS-GMB Diskussion Beiträge erstellte die Seite Kontrolle der KI-Fähigkeit (Die Seite wurde neu angelegt: „1. Einleitung: Das Kontrollproblem im Kontext der KI-Sicherheit Die Fähigkeit moderner KI-Systeme, eigenen Code zu schreiben und Entscheidungen zu treffen, die selbst für ihre Entwickler nicht vollständig nachvollziehbar sind, rückt das „Kontrollproblem“ in den Mittelpunkt der wissenschaftlichen Debatte. Das Feld der KI-Sicherheit (AI Safety), das sich mit der Verhinderung von Unfällen und Missbrauch durch KI befasst, lässt sich grob in zwei Ha…“) Markierung: Quelltext-Bearbeitung 2017
- 08:06, 8. Jul. 2025 PS-GMB Diskussion Beiträge erstellte die Seite Algorithmische Vorurteile (Die Seite wurde neu angelegt: „Algorithmische Voreingenommenheit: Ursachen, Folgen und Lösungsansätze Künstliche Intelligenz (KI) und maschinelles Lernen versprachen einst, menschliche Entscheidungen objektiver zu machen. Doch die Realität zeigt ein komplexeres Bild: Anstatt Vorurteile zu eliminieren, neigen algorithmische Systeme oft dazu, bestehende gesellschaftliche Ungleichheiten zu reproduzieren und zu verstärken. Dieses Phänomen, bekannt als algorithmischer Bias, ist selten…“) Markierung: Quelltext-Bearbeitung 2017
