Freiherr-vom-Stein-Schule Hessisch Lichtenau/Deep Fake: Unterschied zwischen den Versionen

Aus ZUM Projektwiki
Keine Bearbeitungszusammenfassung
Markierung: 2017-Quelltext-Bearbeitung
Keine Bearbeitungszusammenfassung
 
(26 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
===<strong>Arten von Fake News</strong>===
===<strong>Deep Fakes</strong>===


Deep Fakes sind Fotos, Videos und selbst Audios, die gefälscht sein können, welche von einer <strong>KI</strong> (künstlichen Intelligenz) bearbeitet wurden bzw. hergestellt wurden. Deepfakes können nicht nur lustige Videos sein, sondern auch pornografische Inhalte . Sowas kann nicht nur Prominenten zustoßen, sondern auch allen anderen.




====<strong>Face Swap</strong>====
[[Datei:Sw-face-swap.png|alternativtext=|mini|Befragung Deepfake Foto ]]
Beim Face Swapping ist das Ziel, die Mimik von einem Gesicht auf ein anderes Gesicht zu übertragen. Hierfür wird ein Autoencodener-Verfahren als Modell verwendet.


====<strong>Voice Conversion</strong>====
Bei Voice Conversion (kurz VC) kann die Stimme einer Person durch Programme verändert werden. Dabei spricht der <strong>"Angreifer" </strong>(die Person, die das Deep Fake machen will) einen Satz, der dann durch eine KI geändert wird, um die Stimme der Zielperson zu simulieren und die Wörter des Angreifers zu wiederholen. Damit so etwas funktioniert, muss die KI eine große Menge an Audiomaterial der Zielperson hören.
====<strong>Text to Speech</strong>====
Text-To-Speech (kurz TTS) folgt einem ähnlichen Prinzip wie VC, indem auch versucht wird die Stimme einer Zielperson zu simulieren. Hierbei tippt der Angreifer die Sätze, von denen er möchte, dass sie konvertiert werden. Auch hierfür braucht die KI wieder eine Menge an Audiomaterial zum Trainieren.
====<strong>Bedrohungen durch Deepfakes</strong>====
Durch Deepfakes können eine Vielzahl von Bedrohungen entstehen. Dabei sind VC und TTS einer der gefährlichsten Methoden. Viele Menschen, die an Deepfakes betroffen sind, können psychische Schäden davon tragen, da es sie belasten kann.
====<strong>Deep Fakes kriminelle Verwendung</strong>====
Deepfakes werden oft zu kriminellen Zwecken verwendet wie Erpressung, Dokumentenfälschungen, Finanzmarktmanipulationen und Einflussnahme auf Firmen. Sowas kann hohe Strafen bewirken wie eine Geldstrafe und weiteres.


 
====<strong>Quelle</strong>====
 
https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Kuenstliche-Intelligenz/Deepfakes/deepfakes_node.html
 
 
 
 
 
 
 
 
 
 
 
====<strong>Satire oder Parodie</strong>====
[[Datei:Grafik-statista-fake-news-identifizieren.jpg|alternativtext=|Befragung zeigt, wie Leute Fake News identifiziert haben|mini]]
 
 
Häufig sind „Fake News“ einfach Satire ohne den Gedanken Schaden zu verursachen, sie sind als Witz gemeint, doch manche nehmen sie ernst und denken es wären echte Nachrichten.
 
====<strong>Falscher Kontext</strong>====
Wenn „echte“ Informationen aus dem Kontext gerissen werden und dann falsche Informationen verbreiten. Dies kann bei einem Interview geschehen wo nur einzelne Stellen veröffentlicht werden die ohne den gesamten Kontext etwas anderes bedeuten.
====<strong>„Impostor“ Inhalt</strong>====
„Impostor“ kommt aus dem Englischen und steht für Verräter. Es ist einer der am schwierigsten zu erkennenden Fake News, da es unter echten Informationen steckt und man dann nur schwer erkennen kann, was jetzt real und was nicht ist.
 
 
====<strong>Irreführender Inhalt</strong>====
 
Irreführender Inhalt ist technisch gesehener richtiger Inhalt. Er ist aber ohne starke Aufmerksamkeit nur schwer zu verstehen und wird dann häufig in der Politik verwendet um etwas besser darzustellen als es in Wahrheit ist. Dabei können häufig Statistiken so verändert werden, sodass sie auf den ersten Blick etwas anderes wiedergeben.
 
====<strong>Falsche Verbindungen</strong>====
Wenn Bilder,Titel,Videos und usw. nicht zu dem Inhalt des Artikels passen. Dies ist relativ leicht zu erkennen, und dadurch auch leicht zu vermeiden. Trotzdem wird es häufig auf Social Media wie YouTube verwendet, um Aufrufe zu generieren, die dem Ersteller des Videos Einnahmen bringen.
 
====<strong>Fabrizierter Inhalt</strong>====
Wenn Inhalte zu 100% falsch sind und dafür da sind, Schaden zu verursachen.
 
Häufig verwenden „Trolls“(Leute die andere Leute reinlegen wollen, ohne dabei etwas zu erreichen) um Schaden und Panik zu verursachen.
====<strong>Manipulierter Inhalt</strong>====
Wenn vorher richtiger Inhalt verändert wird, sodass Leute, die die Information vorher kannten es für richtig halten könnten. So etwas kann häufig bei Bildern oder Videos vorkommen, die durch externe Programme bearbeitet worden.

Aktuelle Version vom 1. Februar 2023, 09:19 Uhr

Deep Fakes

Deep Fakes sind Fotos, Videos und selbst Audios, die gefälscht sein können, welche von einer KI (künstlichen Intelligenz) bearbeitet wurden bzw. hergestellt wurden. Deepfakes können nicht nur lustige Videos sein, sondern auch pornografische Inhalte . Sowas kann nicht nur Prominenten zustoßen, sondern auch allen anderen.


Face Swap

Datei:Sw-face-swap.png
Befragung Deepfake Foto

Beim Face Swapping ist das Ziel, die Mimik von einem Gesicht auf ein anderes Gesicht zu übertragen. Hierfür wird ein Autoencodener-Verfahren als Modell verwendet.

Voice Conversion

Bei Voice Conversion (kurz VC) kann die Stimme einer Person durch Programme verändert werden. Dabei spricht der "Angreifer" (die Person, die das Deep Fake machen will) einen Satz, der dann durch eine KI geändert wird, um die Stimme der Zielperson zu simulieren und die Wörter des Angreifers zu wiederholen. Damit so etwas funktioniert, muss die KI eine große Menge an Audiomaterial der Zielperson hören.

Text to Speech

Text-To-Speech (kurz TTS) folgt einem ähnlichen Prinzip wie VC, indem auch versucht wird die Stimme einer Zielperson zu simulieren. Hierbei tippt der Angreifer die Sätze, von denen er möchte, dass sie konvertiert werden. Auch hierfür braucht die KI wieder eine Menge an Audiomaterial zum Trainieren.

Bedrohungen durch Deepfakes

Durch Deepfakes können eine Vielzahl von Bedrohungen entstehen. Dabei sind VC und TTS einer der gefährlichsten Methoden. Viele Menschen, die an Deepfakes betroffen sind, können psychische Schäden davon tragen, da es sie belasten kann.

Deep Fakes kriminelle Verwendung

Deepfakes werden oft zu kriminellen Zwecken verwendet wie Erpressung, Dokumentenfälschungen, Finanzmarktmanipulationen und Einflussnahme auf Firmen. Sowas kann hohe Strafen bewirken wie eine Geldstrafe und weiteres.

Quelle

https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Kuenstliche-Intelligenz/Deepfakes/deepfakes_node.html