AI Alignment: Unterschied zwischen den Versionen

Aus ZUM Projektwiki
Keine Bearbeitungszusammenfassung
Markierung: Quelltext-Bearbeitung 2017
Keine Bearbeitungszusammenfassung
Zeile 5: Zeile 5:
Die Entwicklung von künstlicher Intelligenz (KI), die menschliche kognitive Fähigkeiten in allen relevanten Bereichen übertrifft – eine sogenannte Superintelligenz –, birgt transformatives Potenzial, aber auch erhebliche Risiken. Das zentrale Anliegen der KI-Sicherheitsforschung ist das AI-Alignment-Problem: die Sicherstellung, dass solche Systeme zuverlässig im Sinne menschlicher Werte und Absichten handeln.<ref> Human Compatible - [[wikipedia:Human_Compatible|Wikipedia, Zugriff am Juli 8, 2025, https://en.wikipedia.org/wiki/Human_Compatible]]</ref>
Die Entwicklung von künstlicher Intelligenz (KI), die menschliche kognitive Fähigkeiten in allen relevanten Bereichen übertrifft – eine sogenannte Superintelligenz –, birgt transformatives Potenzial, aber auch erhebliche Risiken. Das zentrale Anliegen der KI-Sicherheitsforschung ist das AI-Alignment-Problem: die Sicherstellung, dass solche Systeme zuverlässig im Sinne menschlicher Werte und Absichten handeln.<ref> Human Compatible - [[wikipedia:Human_Compatible|Wikipedia, Zugriff am Juli 8, 2025, https://en.wikipedia.org/wiki/Human_Compatible]]</ref>


Die moderne Formulierung des Problems wurde maßgeblich durch die Arbeiten von Forschern wie Eliezer Yudkowsky, der das Konzept der „Friendly AI“ prägte <ref>Creating Friendly AI - [https://www.lesswrong.com/w/creating-friendly-ai LessWrong, Zugriff am Juli 8, 2025, <nowiki>https://www.lesswrong.com/w/creating-friendly-ai</nowiki>] </ref>, und dem Philosophen Nick Bostrom vorangetrieben, dessen Buch
Die moderne Formulierung des Problems wurde maßgeblich durch die Arbeiten von Forschern wie Eliezer Yudkowsky, der das Konzept der „Friendly AI“ prägte <ref>Creating Friendly AI - [https://www.lesswrong.com/w/creating-friendly-ai LessWrong, Zugriff am Juli 8, 2025, https://www.lesswrong.com/w/creating-friendly-ai] </ref>, und dem Philosophen Nick Bostrom vorangetrieben, dessen Buch


Superintelligence die Debatte über das Kontrollproblem und existenzielle Risiken in den wissenschaftlichen und öffentlichen Mainstream brachte.<ref> Superintelligence: Paths, Dangers, Strategies - [[wikipedia:Superintelligence:_Paths,_Dangers,_Strategies|Wikipedia, Zugriff am Juli 8, 2025, https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies]] </ref>
Superintelligence die Debatte über das Kontrollproblem und existenzielle Risiken in den wissenschaftlichen und öffentlichen Mainstream brachte.<ref> Superintelligence: Paths, Dangers, Strategies - [[wikipedia:Superintelligence:_Paths,_Dangers,_Strategies|Wikipedia, Zugriff am Juli 8, 2025, https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies]] </ref>
Zeile 12: Zeile 12:
Das Kontrollproblem beschreibt die fundamentale Schwierigkeit, wie Menschen einen Agenten kontrollieren können, der ihnen kognitiv weit überlegen ist.<ref> Superintelligence: Paths, Dangers, Strategies - [[wikipedia:Superintelligence:_Paths,_Dangers,_Strategies|Wikipedia, Zugriff am Juli 8, 2025, https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies]] </ref> Die Sorge wurzelt in mehreren theoretischen Konzepten, die erklären, warum eine nicht explizit böswillig konzipierte KI dennoch eine Gefahr darstellen könnte.
Das Kontrollproblem beschreibt die fundamentale Schwierigkeit, wie Menschen einen Agenten kontrollieren können, der ihnen kognitiv weit überlegen ist.<ref> Superintelligence: Paths, Dangers, Strategies - [[wikipedia:Superintelligence:_Paths,_Dangers,_Strategies|Wikipedia, Zugriff am Juli 8, 2025, https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies]] </ref> Die Sorge wurzelt in mehreren theoretischen Konzepten, die erklären, warum eine nicht explizit böswillig konzipierte KI dennoch eine Gefahr darstellen könnte.


Die Orthogonalitätsthese besagt, dass die Intelligenz eines Agenten und seine finalen Ziele voneinander unabhängige Dimensionen sind. Ein System kann demnach beliebig intelligent sein und gleichzeitig ein triviales oder für den Menschen sinnloses Ziel verfolgen, wie etwa die Maximierung der Anzahl von Büroklammern im Universum. Intelligenz impliziert nicht automatisch die Übernahme von Zielen, die Menschen als moralisch oder vernünftig erachten.<ref> Orthogonality Thesis - [https://www.alignmentforum.org/w/orthogonality-thesis AI Alignment Forum, Zugriff am Juli 8, 2025, <nowiki>https://www.alignmentforum.org/w/orthogonality-thesis</nowiki>]</ref>
Die Orthogonalitätsthese besagt, dass die Intelligenz eines Agenten und seine finalen Ziele voneinander unabhängige Dimensionen sind. Ein System kann demnach beliebig intelligent sein und gleichzeitig ein triviales oder für den Menschen sinnloses Ziel verfolgen, wie etwa die Maximierung der Anzahl von Büroklammern im Universum. Intelligenz impliziert nicht automatisch die Übernahme von Zielen, die Menschen als moralisch oder vernünftig erachten.<ref> Orthogonality Thesis - [https://www.alignmentforum.org/w/orthogonality-thesis AI Alignment Forum, Zugriff am Juli 8, 2025, https://www.alignmentforum.org/w/orthogonality-thesis]</ref>


Die These der instrumentellen Konvergenz ergänzt dies, indem sie postuliert, dass hochentwickelte Agenten mit sehr unterschiedlichen finalen Zielen wahrscheinlich ähnliche instrumentelle Zwischenziele verfolgen werden. Zu diesen konvergenten Zielen gehören Selbsterhaltung, der Erwerb von Ressourcen und die Abwehr von Versuchen, die eigenen Ziele zu verändern. Ein machtstrebendes Verhalten entsteht somit nicht aus Bosheit, sondern als logische Konsequenz der Zieloptimierung.<ref>Debunking 5 Arguments Against Existential Risk From AI | by Hein ..., [https://medium.com/@heindehaan/debunking-5-arguments-against-existential-risk-from-ai-fb32fa6a109d Zugriff am Juli 8, 2025, </ref>
Die These der instrumentellen Konvergenz ergänzt dies, indem sie postuliert, dass hochentwickelte Agenten mit sehr unterschiedlichen finalen Zielen wahrscheinlich ähnliche instrumentelle Zwischenziele verfolgen werden. Zu diesen konvergenten Zielen gehören Selbsterhaltung, der Erwerb von Ressourcen und die Abwehr von Versuchen, die eigenen Ziele zu verändern. Ein machtstrebendes Verhalten entsteht somit nicht aus Bosheit, sondern als logische Konsequenz der Zieloptimierung.<ref>Debunking 5 Arguments Against Existential Risk From AI | by Hein ..., [https://medium.com/@heindehaan/debunking-5-arguments-against-existential-risk-from-ai-fb32fa6a109d Zugriff am Juli 8, 2025, </ref>
Zeile 19: Zeile 19:
Als Reaktion auf diese Herausforderungen haben sich mehrere Forschungsparadigmen entwickelt, die nach robusten Lösungen für das Alignment-Problem suchen.
Als Reaktion auf diese Herausforderungen haben sich mehrere Forschungsparadigmen entwickelt, die nach robusten Lösungen für das Alignment-Problem suchen.


Value Learning: Dieser Ansatz zielt darauf ab, dass KI-Systeme menschliche Werte nicht durch explizite Programmierung, sondern durch Beobachtung und Interaktion lernen. Eine bedeutende Weiterentwicklung ist das Cooperative Inverse Reinforcement Learning (CIRL). Hierbei wird das Problem als kooperatives Spiel zwischen Mensch und Maschine formuliert, in dem der Mensch einen Anreiz hat, seine Präferenzen aktiv zu lehren, und die Maschine einen Anreiz hat, diese aktiv zu lernen.<ref> Cooperative Inverse Reinforcement Learning - [https://people.eecs.berkeley.edu/~russell/papers/russell-nips16-cirl.pdf People @EECS, Zugriff am Juli 8, 2025, <nowiki>https://people.eecs.berkeley.edu/~russell/papers/russell-nips16-cirl.pdf</nowiki>]</ref>
Value Learning: Dieser Ansatz zielt darauf ab, dass KI-Systeme menschliche Werte nicht durch explizite Programmierung, sondern durch Beobachtung und Interaktion lernen. Eine bedeutende Weiterentwicklung ist das Cooperative Inverse Reinforcement Learning (CIRL). Hierbei wird das Problem als kooperatives Spiel zwischen Mensch und Maschine formuliert, in dem der Mensch einen Anreiz hat, seine Präferenzen aktiv zu lehren, und die Maschine einen Anreiz hat, diese aktiv zu lernen.<ref> Cooperative Inverse Reinforcement Learning - [https://people.eecs.berkeley.edu/~russell/papers/russell-nips16-cirl.pdf People @EECS, Zugriff am Juli 8, 2025, https://people.eecs.berkeley.edu/~russell/papers/russell-nips16-cirl.pdf]</ref>


Scalable Oversight: Da die Komplexität von KI-Aufgaben die menschliche Fähigkeit zur direkten Bewertung übersteigen kann, zielen Methoden der skalierbaren Überwachung darauf ab, schwächere Systeme (Menschen) in die Lage zu versetzen, stärkere Systeme zu überwachen. Ein prominenter Vorschlag ist AI Safety via Debate, bei dem zwei KI-Systeme gegeneinander argumentieren, um einen menschlichen Richter von der Richtigkeit ihrer Position zu überzeugen. Die Hypothese ist, dass es in einem solchen adversariellen Prozess schwieriger ist, eine Lüge überzeugend zu verteidigen als sie zu widerlegen.<ref> arXiv:1805.00899v2 [stat.ML] 22 Oct 2018, [https://r.jordan.im/download/technology/irving2018.pd Zugriff am Juli 8, 2025, https://r.jordan.im/download/technology/irving2018.pd]f</ref>
Scalable Oversight: Da die Komplexität von KI-Aufgaben die menschliche Fähigkeit zur direkten Bewertung übersteigen kann, zielen Methoden der skalierbaren Überwachung darauf ab, schwächere Systeme (Menschen) in die Lage zu versetzen, stärkere Systeme zu überwachen. Ein prominenter Vorschlag ist AI Safety via Debate, bei dem zwei KI-Systeme gegeneinander argumentieren, um einen menschlichen Richter von der Richtigkeit ihrer Position zu überzeugen. Die Hypothese ist, dass es in einem solchen adversariellen Prozess schwieriger ist, eine Lüge überzeugend zu verteidigen als sie zu widerlegen.<ref> arXiv:1805.00899v2 [stat.ML] 22 Oct 2018, [https://r.jordan.im/download/technology/irving2018.pd Zugriff am Juli 8, 2025, https://r.jordan.im/download/technology/irving2018.pd]f</ref>


Interpretability: Angesichts der Gefahr, dass eine KI ihre wahren Absichten verbergen könnte (deceptive alignment), versucht die Interpretierbarkeitsforschung, die internen Mechanismen eines Modells zu verstehen. Die mechanistische Interpretierbarkeit zielt darauf ab, neuronale Netze vollständig zu entschlüsseln, um ihre Entscheidungsalgorithmen nachzuvollziehen. Dieser Ansatz steht jedoch vor erheblichen Herausforderungen. Kritiker argumentieren, dass die emergente Komplexität moderner Modelle einen solchen reduktionistischen Ansatz unmöglich machen könnte und die Suche nach vollständiger mechanistischer Verständlichkeit eine „fehlgeleitete Suche“ sei.<ref> The Misguided Quest for Mechanistic AI Interpretability - [https://ai-frontiers.org/articles/the-misguided-quest-for-mechanistic-ai-interpretability AI Frontiers, Zugriff am Juli 8, 2025, <nowiki>https://ai-frontiers.org/articles/the-misguided-quest-for-mechanistic-ai-interpretability</nowiki>] </ref>
Interpretability: Angesichts der Gefahr, dass eine KI ihre wahren Absichten verbergen könnte (deceptive alignment), versucht die Interpretierbarkeitsforschung, die internen Mechanismen eines Modells zu verstehen. Die mechanistische Interpretierbarkeit zielt darauf ab, neuronale Netze vollständig zu entschlüsseln, um ihre Entscheidungsalgorithmen nachzuvollziehen. Dieser Ansatz steht jedoch vor erheblichen Herausforderungen. Kritiker argumentieren, dass die emergente Komplexität moderner Modelle einen solchen reduktionistischen Ansatz unmöglich machen könnte und die Suche nach vollständiger mechanistischer Verständlichkeit eine „fehlgeleitete Suche“ sei.<ref> The Misguided Quest for Mechanistic AI Interpretability - [https://ai-frontiers.org/articles/the-misguided-quest-for-mechanistic-ai-interpretability AI Frontiers, Zugriff am Juli 8, 2025, https://ai-frontiers.org/articles/the-misguided-quest-for-mechanistic-ai-interpretability] </ref>


=== 4. Kritische Debatten und Ausblick ===
=== 4. Kritische Debatten und Ausblick ===
Das Feld des AI Alignments ist von intensiven Debatten geprägt. Einige Kritiker argumentieren, die Fokussierung auf langfristige existenzielle Risiken lenke von den unmittelbaren Schäden ab, die durch aktuelle KI-Systeme verursacht werden. Eine Analyse dieser Argumente zeigt jedoch, dass die Beweislage für eine tatsächliche Ablenkung schwach ist und die Aufmerksamkeit für beide Problemfelder parallel gewachsen ist.<ref> Examining Popular Arguments Against AI Existential Risk: A ... [https://arxiv.org/pdf/2501.04064 - arXiv, Zugriff am Juli 8, 2025, <nowiki>https://arxiv.org/pdf/2501.04064</nowiki>]
Das Feld des AI Alignments ist von intensiven Debatten geprägt. Einige Kritiker argumentieren, die Fokussierung auf langfristige existenzielle Risiken lenke von den unmittelbaren Schäden ab, die durch aktuelle KI-Systeme verursacht werden. Eine Analyse dieser Argumente zeigt jedoch, dass die Beweislage für eine tatsächliche Ablenkung schwach ist und die Aufmerksamkeit für beide Problemfelder parallel gewachsen ist.<ref> Examining Popular Arguments Against AI Existential Risk: A ... [https://arxiv.org/pdf/2501.04064 - arXiv, Zugriff am Juli 8, 2025, https://arxiv.org/pdf/2501.04064]
</ref>
</ref>


Zeile 33: Zeile 33:
Das AI-Alignment-Problem bleibt eine der größten ungelösten Herausforderungen. Die von Nick Bostrom begründete Analyse existenzieller Risiken unterstreicht die Notwendigkeit, sich proaktiv mit den potenziellen Gefahren auseinanderzusetzen, die von zukünftigen Technologien ausgehen.10 Die Lösung erfordert einen interdisziplinären Ansatz, der technische Forschung mit Erkenntnissen aus Philosophie, Kognitionswissenschaft und Governance verbindet, um eine sichere und für die Menschheit vorteilhafte Zukunft mit künstlicher Intelligenz zu gewährleisten.<ref> Nick Bostrom, Existential risks: analyzing human extinction scenarios and related hazards, Zugriff am Juli 8, 2025, https://philpapers.org/rec/BOSERA
Das AI-Alignment-Problem bleibt eine der größten ungelösten Herausforderungen. Die von Nick Bostrom begründete Analyse existenzieller Risiken unterstreicht die Notwendigkeit, sich proaktiv mit den potenziellen Gefahren auseinanderzusetzen, die von zukünftigen Technologien ausgehen.10 Die Lösung erfordert einen interdisziplinären Ansatz, der technische Forschung mit Erkenntnissen aus Philosophie, Kognitionswissenschaft und Governance verbindet, um eine sichere und für die Menschheit vorteilhafte Zukunft mit künstlicher Intelligenz zu gewährleisten.<ref> Nick Bostrom, Existential risks: analyzing human extinction scenarios and related hazards, Zugriff am Juli 8, 2025, https://philpapers.org/rec/BOSERA
</ref>
</ref>
= <small>References</small> =
<references />

Version vom 10. Juli 2025, 06:58 Uhr

Das AI-Alignment-Problem: Eine Synthese der zentralen Herausforderungen und Lösungsansätze

1. Einleitung

Die Entwicklung von künstlicher Intelligenz (KI), die menschliche kognitive Fähigkeiten in allen relevanten Bereichen übertrifft – eine sogenannte Superintelligenz –, birgt transformatives Potenzial, aber auch erhebliche Risiken. Das zentrale Anliegen der KI-Sicherheitsforschung ist das AI-Alignment-Problem: die Sicherstellung, dass solche Systeme zuverlässig im Sinne menschlicher Werte und Absichten handeln.[1]

Die moderne Formulierung des Problems wurde maßgeblich durch die Arbeiten von Forschern wie Eliezer Yudkowsky, der das Konzept der „Friendly AI“ prägte [2], und dem Philosophen Nick Bostrom vorangetrieben, dessen Buch

Superintelligence die Debatte über das Kontrollproblem und existenzielle Risiken in den wissenschaftlichen und öffentlichen Mainstream brachte.[3]

2. Theoretische Grundlagen des Kontrollproblems

Das Kontrollproblem beschreibt die fundamentale Schwierigkeit, wie Menschen einen Agenten kontrollieren können, der ihnen kognitiv weit überlegen ist.[4] Die Sorge wurzelt in mehreren theoretischen Konzepten, die erklären, warum eine nicht explizit böswillig konzipierte KI dennoch eine Gefahr darstellen könnte.

Die Orthogonalitätsthese besagt, dass die Intelligenz eines Agenten und seine finalen Ziele voneinander unabhängige Dimensionen sind. Ein System kann demnach beliebig intelligent sein und gleichzeitig ein triviales oder für den Menschen sinnloses Ziel verfolgen, wie etwa die Maximierung der Anzahl von Büroklammern im Universum. Intelligenz impliziert nicht automatisch die Übernahme von Zielen, die Menschen als moralisch oder vernünftig erachten.[5]

Die These der instrumentellen Konvergenz ergänzt dies, indem sie postuliert, dass hochentwickelte Agenten mit sehr unterschiedlichen finalen Zielen wahrscheinlich ähnliche instrumentelle Zwischenziele verfolgen werden. Zu diesen konvergenten Zielen gehören Selbsterhaltung, der Erwerb von Ressourcen und die Abwehr von Versuchen, die eigenen Ziele zu verändern. Ein machtstrebendes Verhalten entsteht somit nicht aus Bosheit, sondern als logische Konsequenz der Zieloptimierung.[6]

3. Forschungsansätze und Lösungsstrategien

Als Reaktion auf diese Herausforderungen haben sich mehrere Forschungsparadigmen entwickelt, die nach robusten Lösungen für das Alignment-Problem suchen.

Value Learning: Dieser Ansatz zielt darauf ab, dass KI-Systeme menschliche Werte nicht durch explizite Programmierung, sondern durch Beobachtung und Interaktion lernen. Eine bedeutende Weiterentwicklung ist das Cooperative Inverse Reinforcement Learning (CIRL). Hierbei wird das Problem als kooperatives Spiel zwischen Mensch und Maschine formuliert, in dem der Mensch einen Anreiz hat, seine Präferenzen aktiv zu lehren, und die Maschine einen Anreiz hat, diese aktiv zu lernen.[7]

Scalable Oversight: Da die Komplexität von KI-Aufgaben die menschliche Fähigkeit zur direkten Bewertung übersteigen kann, zielen Methoden der skalierbaren Überwachung darauf ab, schwächere Systeme (Menschen) in die Lage zu versetzen, stärkere Systeme zu überwachen. Ein prominenter Vorschlag ist AI Safety via Debate, bei dem zwei KI-Systeme gegeneinander argumentieren, um einen menschlichen Richter von der Richtigkeit ihrer Position zu überzeugen. Die Hypothese ist, dass es in einem solchen adversariellen Prozess schwieriger ist, eine Lüge überzeugend zu verteidigen als sie zu widerlegen.[8]

Interpretability: Angesichts der Gefahr, dass eine KI ihre wahren Absichten verbergen könnte (deceptive alignment), versucht die Interpretierbarkeitsforschung, die internen Mechanismen eines Modells zu verstehen. Die mechanistische Interpretierbarkeit zielt darauf ab, neuronale Netze vollständig zu entschlüsseln, um ihre Entscheidungsalgorithmen nachzuvollziehen. Dieser Ansatz steht jedoch vor erheblichen Herausforderungen. Kritiker argumentieren, dass die emergente Komplexität moderner Modelle einen solchen reduktionistischen Ansatz unmöglich machen könnte und die Suche nach vollständiger mechanistischer Verständlichkeit eine „fehlgeleitete Suche“ sei.[9]

4. Kritische Debatten und Ausblick

Das Feld des AI Alignments ist von intensiven Debatten geprägt. Einige Kritiker argumentieren, die Fokussierung auf langfristige existenzielle Risiken lenke von den unmittelbaren Schäden ab, die durch aktuelle KI-Systeme verursacht werden. Eine Analyse dieser Argumente zeigt jedoch, dass die Beweislage für eine tatsächliche Ablenkung schwach ist und die Aufmerksamkeit für beide Problemfelder parallel gewachsen ist.[10]

Gleichzeitig gibt es unterschiedliche Visionen für den Weg in die Zukunft. Stuart Russell schlägt in seinem Buch Human Compatible vor, KI auf einem neuen Fundament zu errichten, bei dem Maschinen als „rein altruistisch“ konzipiert sind und eine inhärente Unsicherheit über die wahren menschlichen Präferenzen besitzen, was sie zu vorsichtigem und nachfragendem Verhalten veranlasst.[11]

Das AI-Alignment-Problem bleibt eine der größten ungelösten Herausforderungen. Die von Nick Bostrom begründete Analyse existenzieller Risiken unterstreicht die Notwendigkeit, sich proaktiv mit den potenziellen Gefahren auseinanderzusetzen, die von zukünftigen Technologien ausgehen.10 Die Lösung erfordert einen interdisziplinären Ansatz, der technische Forschung mit Erkenntnissen aus Philosophie, Kognitionswissenschaft und Governance verbindet, um eine sichere und für die Menschheit vorteilhafte Zukunft mit künstlicher Intelligenz zu gewährleisten.[12]

References

  1. Human Compatible - Wikipedia, Zugriff am Juli 8, 2025, https://en.wikipedia.org/wiki/Human_Compatible
  2. Creating Friendly AI - LessWrong, Zugriff am Juli 8, 2025, https://www.lesswrong.com/w/creating-friendly-ai
  3. Superintelligence: Paths, Dangers, Strategies - Wikipedia, Zugriff am Juli 8, 2025, https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies
  4. Superintelligence: Paths, Dangers, Strategies - Wikipedia, Zugriff am Juli 8, 2025, https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies
  5. Orthogonality Thesis - AI Alignment Forum, Zugriff am Juli 8, 2025, https://www.alignmentforum.org/w/orthogonality-thesis
  6. Debunking 5 Arguments Against Existential Risk From AI | by Hein ..., [https://medium.com/@heindehaan/debunking-5-arguments-against-existential-risk-from-ai-fb32fa6a109d Zugriff am Juli 8, 2025,
  7. Cooperative Inverse Reinforcement Learning - People @EECS, Zugriff am Juli 8, 2025, https://people.eecs.berkeley.edu/~russell/papers/russell-nips16-cirl.pdf
  8. arXiv:1805.00899v2 [stat.ML] 22 Oct 2018, Zugriff am Juli 8, 2025, https://r.jordan.im/download/technology/irving2018.pdf
  9. The Misguided Quest for Mechanistic AI Interpretability - AI Frontiers, Zugriff am Juli 8, 2025, https://ai-frontiers.org/articles/the-misguided-quest-for-mechanistic-ai-interpretability
  10. Examining Popular Arguments Against AI Existential Risk: A ... - arXiv, Zugriff am Juli 8, 2025, https://arxiv.org/pdf/2501.04064
  11. Human Compatible - Wikipedia, Zugriff am Juli 8, 2025, https://en.wikipedia.org/wiki/Human_Compatible
  12. Nick Bostrom, Existential risks: analyzing human extinction scenarios and related hazards, Zugriff am Juli 8, 2025, https://philpapers.org/rec/BOSERA