Freiherr-vom-Stein-Schule Hessisch Lichtenau/Deep Fake: Unterschied zwischen den Versionen
Keine Bearbeitungszusammenfassung Markierung: 2017-Quelltext-Bearbeitung |
Keine Bearbeitungszusammenfassung |
||
(Eine dazwischenliegende Version von einem anderen Benutzer wird nicht angezeigt) | |||
Zeile 1: | Zeile 1: | ||
===<strong>Deep Fakes</strong> === | ===<strong>Deep Fakes</strong>=== | ||
Deep Fakes sind Fotos, Videos und selbst Audios die gefälscht sein können welche von einer <strong>KI</strong> ( | Deep Fakes sind Fotos, Videos und selbst Audios, die gefälscht sein können, welche von einer <strong>KI</strong> (künstlichen Intelligenz) bearbeitet wurden bzw. hergestellt wurden. Deepfakes können nicht nur lustige Videos sein, sondern auch pornografische Inhalte . Sowas kann nicht nur Prominenten zustoßen, sondern auch allen anderen. | ||
====<strong>Face Swap</strong>==== | ====<strong>Face Swap</strong>==== | ||
[[Datei:Sw-face-swap.png|alternativtext=|mini|Befragung Deepfake Foto ]] | [[Datei:Sw-face-swap.png|alternativtext=|mini|Befragung Deepfake Foto ]] | ||
Beim Face Swapping ist das Ziel die Mimik von einem Gesicht auf ein | Beim Face Swapping ist das Ziel, die Mimik von einem Gesicht auf ein anderes Gesicht zu übertragen. Hierfür wird ein Autoencodener-Verfahren als Modell verwendet. | ||
====<strong>Voice Conversion</strong>==== | ====<strong>Voice Conversion</strong>==== | ||
Bei Voice Conversion (kurz VC) kann die Stimme einer Person durch Programme verändert werden. Dabei spricht der <strong>"Angreifer" </strong>(die Person, die das Deep Fake machen will) einen Satz, der dann durch eine KI geändert wird um die Stimme der Zielperson zu simulieren und die Wörter des Angreifers zu wiederholen. Damit so etwas funktioniert, muss die KI eine große Menge an Audiomaterial der Zielperson hören. | Bei Voice Conversion (kurz VC) kann die Stimme einer Person durch Programme verändert werden. Dabei spricht der <strong>"Angreifer" </strong>(die Person, die das Deep Fake machen will) einen Satz, der dann durch eine KI geändert wird, um die Stimme der Zielperson zu simulieren und die Wörter des Angreifers zu wiederholen. Damit so etwas funktioniert, muss die KI eine große Menge an Audiomaterial der Zielperson hören. | ||
====<strong>Text to Speech</strong>==== | ====<strong>Text to Speech</strong>==== | ||
Text-To-Speech (kurz TTS) folgt einem ähnlichen Prinzip wie VC, indem auch versucht wird die Stimme einer Zielperson zu simulieren. Hierbei tippt der Angreifer die Sätze, von denen er möchte, dass sie konvertiert werden. Auch hierfür | Text-To-Speech (kurz TTS) folgt einem ähnlichen Prinzip wie VC, indem auch versucht wird die Stimme einer Zielperson zu simulieren. Hierbei tippt der Angreifer die Sätze, von denen er möchte, dass sie konvertiert werden. Auch hierfür braucht die KI wieder eine Menge an Audiomaterial zum Trainieren. | ||
====<strong>Bedrohungen durch Deepfakes</strong>==== | ====<strong>Bedrohungen durch Deepfakes</strong>==== | ||
Durch Deepfakes können eine Vielzahl von Bedrohungen entstehen. Dabei sind VC und TTS einer der gefährlichsten Methoden | Durch Deepfakes können eine Vielzahl von Bedrohungen entstehen. Dabei sind VC und TTS einer der gefährlichsten Methoden. Viele Menschen, die an Deepfakes betroffen sind, können psychische Schäden davon tragen, da es sie belasten kann. | ||
====<strong>Deep Fakes kriminelle Verwendung</strong> ==== | ====<strong>Deep Fakes kriminelle Verwendung</strong>==== | ||
Deepfakes werden oft zu kriminellen Zwecken verwendet wie Erpressung, Dokumentenfälschungen, Finanzmarktmanipulationen und Einflussnahme auf Firmen. Sowas kann hohe Strafen bewirken wie eine Geldstrafe und weiteres. | Deepfakes werden oft zu kriminellen Zwecken verwendet wie Erpressung, Dokumentenfälschungen, Finanzmarktmanipulationen und Einflussnahme auf Firmen. Sowas kann hohe Strafen bewirken wie eine Geldstrafe und weiteres. | ||
====<strong>Quelle</strong>==== | ====<strong>Quelle</strong>==== | ||
https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Kuenstliche-Intelligenz/Deepfakes/deepfakes_node.html | https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Kuenstliche-Intelligenz/Deepfakes/deepfakes_node.html |
Aktuelle Version vom 1. Februar 2023, 09:19 Uhr
Deep Fakes
Deep Fakes sind Fotos, Videos und selbst Audios, die gefälscht sein können, welche von einer KI (künstlichen Intelligenz) bearbeitet wurden bzw. hergestellt wurden. Deepfakes können nicht nur lustige Videos sein, sondern auch pornografische Inhalte . Sowas kann nicht nur Prominenten zustoßen, sondern auch allen anderen.
Face Swap
Beim Face Swapping ist das Ziel, die Mimik von einem Gesicht auf ein anderes Gesicht zu übertragen. Hierfür wird ein Autoencodener-Verfahren als Modell verwendet.
Voice Conversion
Bei Voice Conversion (kurz VC) kann die Stimme einer Person durch Programme verändert werden. Dabei spricht der "Angreifer" (die Person, die das Deep Fake machen will) einen Satz, der dann durch eine KI geändert wird, um die Stimme der Zielperson zu simulieren und die Wörter des Angreifers zu wiederholen. Damit so etwas funktioniert, muss die KI eine große Menge an Audiomaterial der Zielperson hören.
Text to Speech
Text-To-Speech (kurz TTS) folgt einem ähnlichen Prinzip wie VC, indem auch versucht wird die Stimme einer Zielperson zu simulieren. Hierbei tippt der Angreifer die Sätze, von denen er möchte, dass sie konvertiert werden. Auch hierfür braucht die KI wieder eine Menge an Audiomaterial zum Trainieren.
Bedrohungen durch Deepfakes
Durch Deepfakes können eine Vielzahl von Bedrohungen entstehen. Dabei sind VC und TTS einer der gefährlichsten Methoden. Viele Menschen, die an Deepfakes betroffen sind, können psychische Schäden davon tragen, da es sie belasten kann.
Deep Fakes kriminelle Verwendung
Deepfakes werden oft zu kriminellen Zwecken verwendet wie Erpressung, Dokumentenfälschungen, Finanzmarktmanipulationen und Einflussnahme auf Firmen. Sowas kann hohe Strafen bewirken wie eine Geldstrafe und weiteres.