![KI vs. Authentizität: Der wachsende Bedarf an Provenienz bei digitalen Inhalten](https://www.ecommercebridge.at/wp-content/uploads/2024/12/AI-vs-Authenticity.jpg)
Wie Unternehmen auf das Aufkommen von KI-Inhalten reagieren
Aufgrund dieser Probleme arbeiten große Technologieunternehmen an Möglichkeiten, die Authentizität und Herkunft von Medien zu verbessern. Im Rahmen seiner jährlichen Build-Konferenz kündigte Microsoft an, dass seine Bing Image Creator- und Designer-Tools nun über neue Funktionen zur Überprüfung der Herkunft von Medien verfügen.
Benutzer können damit überprüfen, ob Bilder oder Videos von KI erstellt wurden, indem sie kryptografische Methoden verwenden, die Informationen darüber enthalten, woher die Inhalte stammen.
Damit dieses System funktioniert, müssen die verschiedenen Plattformen jedoch der Spezifikation der Coalition for Content Provenance and Authenticity(C2PA) zustimmen.
Auch Meta hat ein Tool namens Meta Video Seal veröffentlicht, mit dem von KI erstellte Videoclips mit unsichtbaren Wasserzeichen versehen werden können. Dieses Open-Source-Tool soll problemlos mit vorhandener Software zusammenarbeiten und das Auffinden von KI-Inhalten erleichtern. Video Seal verspricht, im Gegensatz zu älteren Wasserzeichentechnologien, die Probleme mit der Videokomprimierung und -manipulation hatten, gegen gängige Bearbeitungen wie Unschärfe und Beschneidung resistent zu sein.
Probleme und Beschränkungen
Trotz dieser Verbesserungen gibt es immer noch Probleme, viele Menschen dazu zu bringen, diese Technologien zu nutzen. Viele Entwickler zögern möglicherweise, von bestehenden proprietären Lösungen zu Open-Source-Optionen wie Video Seal zu wechseln.
Meta plant, auf großen KI-Konferenzen Workshops abzuhalten und eine öffentliche Rangliste zu erstellen, in der verschiedene Wasserzeichen-Methoden verglichen werden, um mehr Menschen zur Zusammenarbeit zu bewegen.
Außerdem sind die derzeit verfügbaren Wasserzeichenmethoden nicht immer stark oder effektiv genug, wenn es um Videoinhalte geht.
![Video Seal_: Meta](https://www.ecommercebridge.com/wp-content/uploads/2024/12/video_seal_META-1024x427.png)
Source: aidemos.meta.com
Zwei Hauptansätze zur Bekämpfung von KI-generierten Inhalten
Im Kampf gegen KI-generierte Inhalte haben sich zwei unterschiedliche Strategien herauskristallisiert:
- Wasserzeichen (präventiver Ansatz):
- Funktioniert durch Hinzufügen von unsichtbaren Signaturen zu den Inhalten im Moment der Erstellung
- Wirkt wie ein digitales Zertifikat, das zeigt, dass dies von KI erstellt wurde.
- Tools wie Meta Video Seal und Microsofts Provenance-Funktionen repräsentieren diesen Ansatz
- Hauptvorteil ist die sofortige Identifizierung von KI-Inhalten
- Erkennungstools (analytischer Ansatz):
- Analysiert vorhandene Inhalte, um festzustellen, ob sie KI-generiert wurden
- Sucht nach Mustern und Merkmalen, die typisch für KI-Inhalte sind
- Besonders nützlich für Inhalte, die bei der Erstellung nicht gekennzeichnet wurden
- Diese Tools bilden unsere zweite Verteidigungslinie
Beide Ansätze sind notwendig, da sie sich gegenseitig ergänzen: Wasserzeichen verhindern Missbrauch, während Erkennungstools helfen, nicht gekennzeichnete Inhalte zu identifizieren.
Erkennungstools und Technologien
KI-generierte Inhalte lassen sich nicht nur mit Hilfe von Wasserzeichen-Technologien aufspüren. Neue Erkennungstools verwenden komplexe Algorithmen, um sowohl Text- als auch Bildinhalte zu untersuchen.
![Powered by AI](https://www.ecommercebridge.com/wp-content/uploads/2024/08/Automation-and-AI-1024x683.jpg)
Source: Depositphotos
- Ursprünglich werden Deep-Learning-Algorithmen von der KI verwendet, um Muster in Texten zu finden, die von der KI erstellt wurden.
- GPTZero untersucht sprachliche Strukturen und Worthäufigkeiten, um zwischen Inhalten zu unterscheiden, die von Menschen geschrieben wurden, und solchen, die von Maschinen erstellt wurden.
- CopyLeaks verwendet N-Gramme und Syntaxvergleiche, um kleine Veränderungen in der Sprache zu finden, die auf eine KI-Autorenschaft hindeuten könnten.
Diese Tools sollen den Nutzern genaue Einschätzungen über die Echtheit von Inhalten liefern, aber wie gut sie funktionieren, ist sehr unterschiedlich.
Schlussfolgerung
Mit den Fortschritten der generativen KI wird der Schutz der digitalen Authentizität immer wichtiger. Microsoft und Meta sind mit ihren bahnbrechenden Standards für die Authentizität von Inhalten und die Überprüfung der Herkunft von Medien führend in diesem Bereich.
Um Deepfakes wirksam zu bekämpfen, brauchen wir sowohl die branchenweite Einführung dieser Tools als auch eine stärkere Zusammenarbeit zwischen Technologieunternehmen. Die künftige Integrität digitaler Inhalte hängt davon ab, dass sich die Erkennungstechnologien schneller weiterentwickeln als die KI-generierte Täuschung.
Vor kurzem haben wir darüber berichtet, wie YouTube ähnliche Schritte unternimmt und neue KI-Erkennungstools für Urheber und Marken einführt. Der Ansatz umfasst synthetische Stimmerkennung und KI-generierte Gesichtserkennungstechnologien und zeigt, wie große Plattformen daran arbeiten, die Authentizität von Inhalten in der KI-Ära zu schützen.