Apple Music will künftig Inhalte kennzeichnen, die ganz oder teilweise maschinell erzeugt wurden. Klingt nach einer guten Idee, wirft aber sofort eine größere Frage auf: Woran erkennen wir im Netz eigentlich noch, was echt ist? Wir schauen uns an, wie Plattformen heute Inhalte markieren, was der EU AI Act dazu sagt und welche technischen Ansätze es eigentlich zur Kennzeichnung von KI-Inhalten geben könnte.

Links zur Episode

Transkript der Episode

Das Transkript wird automatisiert erstellt

Jingles:
Silicon Weekly Silicon Weekly war's für heute.

Elli:
Hallo und herzlich willkommen zu einer neuen Folge Silicon Weekly. Ich bin Elli. Letzte Woche war ich nicht da. Also wenn ihr letzte Woche angefangen habt, unseren Podcast zu hören, dann kennt ihr mich noch nicht. Außer als die, die Urlaub gemacht hat. Und der, der das letzte Woche so schön eingeworfen hat, ist Caspar. Der ist heute auch wieder da.

Caspar:
Hallo. Ja, schön, dass du wieder da bist aus dem Urlaub, dass du zurück bist.

Elli:
Gell.

Caspar:
Ja, wir haben eben schon gesagt, du hast ja angemeldet und hast ja Erlaubnis eingeholt.

Elli:
Nur eine Woche Pause zu machen.

Caspar:
Genau.

Elli:
Es ist gerade ein bisschen viel los und manchmal muss man dann irgendeine Baustelle absägen und letzte Woche musste einmal kurz der Podcast dran glauben.

Caspar:
Dementsprechend auch liebe Grüße an Stella, die ja sonst eigentlich auch mit uns mitmoderiert.

Elli:
Genau, die ist diesmal auch an ihrer Gesundheit interessiert und hoffentlich dann nächste Woche wieder dabei. Ja, bevor wir in die Folge starten und mit euch über die Tech-Welt da draußen sprechen und alles, was ihr so für euren Alltag wissen sollt, könnt, wie auch immer, haben wir noch eine kleine Hörempfehlung. Denn wir machen das hier ja als unser kleines Freizeit-Bastelprojekt. Und ich sage mal so, der ein oder andere hat es vielleicht gemerkt, wir haben nicht die große Zeit für Marketing und Öffentlichkeitsarbeit und sonst was. Aber wir haben vor ein paar Wochen mit dem lieben Giovanni eine Podcast-Folge aufgenommen. Der hat den Podcast So geht Podcast und hat uns aufgenommen. Zu Gast gebeten in seiner Sendung. Und die Folge ist jetzt bei YouTube verfügbar, so richtig mit Video und so weiter. Und man kann sie auch anhören auf allen gängigen Plattformen. Wir erzählen da so ein bisschen über uns, über Silicon Weekly. Was machen wir eigentlich? Wie bleibt man im Tech-Journalismus am Ball? Wenn euch das interessiert, wenn ihr vielleicht auch einfach so aus der Podcast-Bubble kommt insgesamt oder ihr mal wieder ein bisschen mehr nur von uns und ohne Technik. Naja, wir haben schon auch über Technik gesprochen, aber so ein bisschen hinter die Kulissen gucken wollt, dann hört gerne rein. Wir packen euch die YouTube-Folge in die Shownotes.

Caspar:
Genau, damit ihr uns auch mal sehen könnt. Apropos sehen, in der Episode erzählen wir auch, warum wir in der Regel nicht zu sehen sind. Und kleiner Blick hinter die Kulissen noch. Heute sehen Elli und ich uns mal nicht, weil wir die Kameras ausgemacht haben, aufgrund einer gewissen Internetsituation in der Hoffnung, die Bandbreite zu senken. Ich bin mal gespannt. Das ist zum ersten Mal, dass wir quasi telefonieren. Normalerweise sehen wir uns ja wenigstens, auch wenn wir das Video nicht aufzeichnen.

Elli:
Stimmt, das ist unser erstes Telefonkonferenz-Podcast.

Caspar:
So wie früher.

Elli:
Wie man früher gesagt hat.

Caspar:
Eine Teko ist das. Oh ja.

Elli:
Ja, ich finde es auch ganz okay, dass du gerade hier nichts siehst, weil hinter mir steht unter anderem mein Bügelbrett an der Wand. Das ist nicht der ästhetischste Anblick. Es ist mir gestern in einem Arbeitsmeeting aufgefallen. So viel dazu.

Caspar:
Naja, guck mal, hinter mir liegt ein Kratzbaum, der eigentlich an die Wand gehört. Der liegt hier aus Gründen. Also insofern ist es auch ganz okay, dass wir heute mal nicht uns gegenseitig sehen. Und das Publikum, liebe Hörerinnen und Hörer, ihr solltet sowieso nicht sehen, was da im Hintergrund gerade so los ist bei uns.

Elli:
Naja, also wir würden es mit euch schon auch teilen, aber das machen wir wieder wann anders.

Caspar:
Genau.

Elli:
Ja, was haben wir mitgebracht? Wir machen einen kurzen Abriss, bevor ihr mit uns in die Folge reinstürzt. Wir sprechen ganz kurz über humanoide Roboter bei BMW. Dann geht es einmal kurz um die Chat-Kontrolle, die wir ja auch schon öfter zu Gast hatten. Wir gucken durch ganz besondere Brillen. Und dann geht es auch wieder ums Gucken, aber ums Erkennen, was ist eigentlich noch echt in diesem Internet und was nicht. Ihr kennt das Spiel, wenn ihr uns schon länger hört, es wird immer schwieriger. Heute sprechen wir mal so ein bisschen über Möglichkeiten der Kennzeichnung. Und am Ende geht es noch um Korruption und Open Source, was man da so gegen tun kann gegen Korruption. Ja, ich finde, das ist ein buntes Potpourri.

Caspar:
Ja, Korruption und gute Nachricht. Es passt trotzdem zusammen. Keine Sorge, wir kriegen das hin.

Elli:
Yes. Und übrigens für alle, die sich vielleicht nach, ich glaube vor zwei oder drei Wochen haben wir kurz darüber gesprochen, dass ich hier Trauermücken in der Wohnung habe. Sie sind weg. Ich habe Maßnahmen ergriffen. Ich muss jetzt während dieser Folge nicht mehr irgendwelche Viecher erschlagen.

Caspar:
Elli, das hättest du dir aufheben müssen. Du bist nämlich schon mitten in Updates quasi.

Elli:
Das stimmt. Nachdem ihr jetzt mal ein persönliches Update bekommen habt, gucken wir in die Welt der humanoiden Roboter. Da hatten wir ja vor kurzem eine Folge zu, was können die so, was können die nicht, wofür sind die vielleicht mal spannend und warum. Und genau diese Fragen stellt sich auch BMW, also der Autohersteller.

Elli:
Die Nachrichtenagentur dpa hat jetzt nämlich berichtet, dass BMW schon seit Dezember in einer Produktion in Leipzig Roboter vom Hersteller Hexagon testet. Die kommen aus Schweden und im April soll es noch einen Test geben und dann zum Sommer ein ausführlicheres Pilotprojekt mit so einer Handvoll humanoiden Robotern. Wir reden gleich noch kurz darüber, wie die aussehen. In den USA hat BMW schon mal ein paar Monate lang die Arbeit mit humanoiden Robotern auch getestet. Allerdings waren die da noch von einem anderen Hersteller. Und da habe man, so heißt es zumindest von BMW, einen echten Mehrwert in der Produktion gesehen. Also BMW kann sich das irgendwie langfristig wohl vorstellen.

Elli:
Aktuell die Roboter, mit denen jetzt eben getestet wird in Deutschland, die laufen nicht, also sind nicht ganz humanoid, menschenähnlich, sondern sie rollen. Sie sind rund 1,65 Meter groß, wiegen 60 Kilo und nach drei Stunden ist zwar ihre Batterie leer, aber sie können sich selber noch eine neue Batterie einsetzen. Fand ich sehr spannend. Aktuell arbeiten die aus Sicherheitsgründen noch in abgetrennten Bereichen. Und BMW gibt auch zu. Und momentan ist das noch alles ziemlich teurer. Die Anschaffungskosten für so einen Roboter liegen noch im sechsstelligen Bereich. Also wir sind noch ein gutes Stück davon entfernt von, oh wei, oh wei, die Roboter nehmen uns alle die Arbeit weg. Ja, das dauert noch.

Caspar:
Sechsstellig, das wird dann auch bei mir zu Hause erst mal nichts. Richtig. Kommen wir zu einem zweiten kleinen Update, das uns noch häufiger begleitet hat bisher als die Roboter, nämlich die berühmte Chat-Kontrolle. Auch die grüßt uns hierher regelmäßig in der Sendung. Da geht es um die Idee, um es nochmal ganz kurz abzureißen, dass großen Plattformen und Anbietern erlaubt sein soll, private Nachrichten, die unter Umständen vielleicht auch verschlüsselt waren und sind.

Caspar:
Automatisiert zu scannen und zum Beispiel die Darstellung von sexuellem Kindesmissbrauch zu erkennen. Als ein Beispiel, was dort erkannt werden soll. Und wir haben dazu schon mal einen ausführlichen Input gehabt und haben darüber gesprochen, dass das Thema immer mal wieder aus der Versenkung auftaucht. So gerade jetzt wieder, denn es gibt Neuigkeiten aus dem Innenausschuss des EU-Parlaments. Dort hat man nämlich überraschend gegen eine Verlängerung der freiwilligen Chatkontrolle gestimmt. Die gibt es nämlich sowieso schon. Es ging ja bisher immer darum, das zu einer Nicht-Freiwilligen zu machen, sondern quasi zu einem Gesetz. Freiwillig dürfen die Plattformen aber quasi auf solche Inhalte sowieso schon scannen. Und jetzt hat das EU-Parlament dagegen gestimmt, beziehungsweise dieser Innenausschuss mit 38 zu 28 Stimmen bei drei Enthaltungen lehnten die Abgeordneten diesen Vorschlag der EU-Kommission ab. Und damit scheitert dann zunächst der Plan, diese Ausnahme von der E-Privacy-Richtlinie, die das nämlich eigentlich ist, zu verlängern und dieses automatisierte Scan von Nachrichten auf Freiwillige-Lagebasis zu erlauben. Und diese Entscheidung, die da getroffen wurde, die gilt tatsächlich als politische Niederlage für die EU-Kommission, weil die wollte zumindest die Freiwilligen noch beibehalten. Und es hat auch viele BeobachterInnen überrascht, dass das so kam, weil eigentlich ging man eigentlich davon aus, dass zumindest das Freiwillige dann weiterhin so durchkommt.

Caspar:
Aber man muss jetzt auch sagen, das ist jetzt kein kompletter Sieg für KritikerInnen und Kritiker von der Chatkontrolle, weil das gesamte Parlament in Plemna noch darüber abstimmen wird. Falls sich da was tut oder dann in der Abstimmung nochmal was Besonderes passiert, hört ihr das auch von uns.

Elli:
Also wir sind sie noch nicht ganz los, die Chatkontrolle. Sie wird hier nochmal, also wir hatten das ja schon ein paar Mal, dass sie hier nochmal so von den Toten wieder auferstanden ist, obwohl sie, also ja, es ist ein wiederkehrender Gast, sagen wir es so.

Caspar:
Ja, vielleicht ist das jetzt der letzte Sargnagel, aber schauen wir mal, ich wage keine Prognose.

Elli:
Ich glaube da ja noch nicht so ganz dran. Naja, wir sind damit auch durch mit den Updates, also Roboter und die Chatkontrolle. Und jetzt geht es im What the Fuck um Brillen, um Smartglasses. Caspar, sind das die Smartglasses, die du auch schon mal aufhattest und getestet hast?

Caspar:
Ja, ja, da erzähle ich gleich zu was. Das sind genau die tatsächlich.

Elli:
Ah ja, dann kann ich da auch sagen, wie die Außenstehende wirken.

Caspar:
Ich glaube, du hattest sie auch auf, oder nicht? Aber das können wir gleich drüber reden.

Elli:
Jetzt haben wir uns so kryptisch ausgedrückt. Um welche Brillen geht es denn, Caspar?

Caspar:
Es geht um die Smart Glasses von Meta. Das sind Brillen, die eigentlich fast aussehen wie ganz normale Brillengestelle. Die Bügel sind ein kleines bisschen dicker. In dieser Brille steckt dann unter anderem eine Kamera, ein Lautsprecher oder zwei, glaube ich, Mikrofone und es gibt zwei verschiedene Versionen davon. Es gibt eine, die genau das hat und dann gibt es noch welche, die im Display noch so Art, nicht im Display, im Glas noch eine Art Display verbaut haben, so rum. Und so ein KI-Assistent ist natürlich auch bei all diesen Brillen mit an Bord, den man dann per Stimme steuern kann und der ähnlich wie bei JetGPT und Co. Oder bei Gemini dann entsprechend Antworten ausliefert und das ist Meta-AI.

Elli:
Diese Brillen sind jetzt nicht ganz neu. 2025 hat Meter rund sieben Millionen davon verkauft, also schon einige. Und wie gesagt, Caspar, du hast die Dinge auch mal getestet. Ich fand die sehr unauffällig tatsächlich. Also du hattest so eine Variante, die ausgesehen hat wie so eine Sonnenbrille. Und die Man könnte fast vergessen als tragende Person, würde ich mal sagen, dass man da eine smarte Brille auf der Nase hat.

Caspar:
Ja, nicht nur als tragende Person, auch die Person, die einem gegenübersteht quasi oder denen mal begegnet. Das hat die Brillen auch so ein bisschen unbeliebt gemacht, weil viele Menschen das Gefühl haben, heimlich gefilmt werden zu können. Jetzt muss man dazu sagen, Meta hat versucht, da Maßnahmen gegenzutreffen. Es gibt nämlich auch eine kleine LED verbaut und sobald die Kamera angeht oder ein Foto gemacht wird, blinkt diese LED. Die ist jetzt allerdings nicht sonderlich hell, das muss man auch dazu sagen. Und auch das Geräusch, das die Kamera macht, wenn man ein Foto macht, da ist so ein Auslösegeräusch, das ist jetzt auch nicht unendlich laut. Gut, aber in unserem WTF soll es gar nicht um, ja doch, es soll um Filmen gehen, aber es soll nicht darum gehen, um das Unbehagen, was Menschen vielleicht mit dieser Brille haben, sondern das WTF geht so ein bisschen in eine andere Richtung.

Elli:
Es ist tatsächlich, da kommen wir noch gleich dazu, eine Struktur, die in der Tech-Welt nicht ganz unbekannt ist. Wir gucken aber erstmal rein in die Nutzungsbedingungen der Smart Classes. Denn da stehen so ein paar Passagen drin, wenn es um Meta-AI geht, die datenschutztechnisch schwierig sind. Also, in diesen Nutzungsbedingungen steht, dass Interaktionen mit der KI automatisiert oder manuell überprüft werden können und dass Inhalte aus Gesprächen oder Nachrichten analysiert werden dürfen. Außerdem sagt Meta in diesen Nutzungsbedingungen, teilt mal bitte, wenn ihr diese Glasses benutzt, keine sensiblen Informationen, weil... Das könnte gespeichert oder verwendet werden. Also wenn ihr es teilt, dann müsst ihr damit leben, dass wir das vielleicht dann, also was auch immer ihr da an Daten teilt, dass wir das dann halt bei uns liegen haben.

Caspar:
Heißt im Umkehrschluss, wer diese Brille auf hat, nimmt eben im Kauf, dass Meta sich bei Bedarf alles ansieht, was man selber so fotografiert oder gefilmt hat, wo es man mit Meta-AI besprochen hat. Also im Grunde ist das, ja, du hast es schon ein bisschen anklingen lassen, datenschutztechnisch, ich würde schon sagen, bedenklich bis hin zu einem ziemlichen Hammer, was da alles abgefragt wird. Man willigt das halt ein, sobald man diese Brille und Meta-AI nutzt.

Elli:
Aber auch das ist noch nicht unser eigentliches What the Fuck.

Caspar:
Nein, denn eine Recherche der schwedischen Zeitung Svenska Dagbladet und Göteborgs Posten hat gezeigt, DatenarbeiterInnen in Kenia, die werten diese Inhalte von MetaSmartLasses aus und das ist diese Struktur, die du gerade schon meintest, Elli, es ist durchaus üblich, das sind sogenannte ClickworkerInnen, dass Leute, Menschen bezahlt werden dafür, meistens eher in Niedriglohnländern, die dann zum Beispiel KI-Ergebnisse nochmal überprüfen oder Bilder analysieren und der KI quasi so ein bisschen zuarbeiten, damit die besser wird und lernt.

Elli:
Und was diese ClickworkerInnen zu sehen bekommen, ist nicht ohne. Denn diese Recherchen zeigen jetzt eben, dass die Aufnahmen, die da gesichtet werden, häufig intime oder sensible Situationen enthalten. Also Nacktheit zum Beispiel, Toilettengänge, aber auch sowas wie Bankkartendetails. Also auf der einen Seite ist natürlich die Frage so sensible Informationen, Bankkartendetails, aber auch was, wo man sich denkt, das ist doch scheiße, dass das Leute sich angucken müssen in dem Moment.

Caspar:
Ja, für beide Seiten. Also sowohl für die, die sich das angucken müssen, als auch die, die eigentlich nicht davon ausgehen, dass diese Inhalte das Gerät verlassen, aber sie tun es halt.

Elli:
Und wie so oft in diesem Click-Working-System sind die Arbeitsbedingungen auch nicht besonders. Die Mitarbeitenden arbeiten Schichten von etwa zehn Stunden und müssen Videos und Bilder mit Schlagworten versehen, damit die KI eben daraus lernen kann.

Caspar:
Und den NutzerInnen ist das halt oft nicht bewusst. Wie gesagt, das steht zwar in den AGBs und Datenschutzbestimmungen, wenn man genau da reinguckt, aber es ist halt, eigentlich ist den Leuten nicht klar, wenn du jetzt mal rumläufst und jeden fragst, der so eine Brille hat, weißt du, dass Menschen sich diese Aufnahmen angucken könnten und weißt du, dass das, wenn es ausgewertet wird, nicht automatisiert unbedingt immer passiert, sondern eben, wie gesagt, auch Menschen gibt, die sich das anschauen.

Elli:
Deswegen auch die Kritik von DatenschützerInnen. Das Ganze ist aus deren Sicht zu wenig transparent in der Hinsicht darauf, wie die Daten wirklich verarbeitet werden. Aber Meta hat natürlich jetzt auf so Anfragen von JournalistInnen einen ganz guten Antwortweg, also zumindest für Meta gut.

Caspar:
Und zwar hat Meta nämlich gesagt, ja, das wissen wir, aber es steht ja auch in den Nutzungsbedingungen und Datenschutzrichtlinien, die sind sich quasi keiner Schuld bewusst, so nach dem Motto, wir haben es ja aufgeschrieben, worüber beschwert ihr euch denn eigentlich?

Elli:
Yes, ach, der gute alte AGB-Verweis. Ich habe an der Stelle noch eine Filmempfehlung mitgebracht. Die ist zwar schon älter, aber nicht weniger relevant. Da geht es um dieses Clickworking-System auf der einen Seite, auf der anderen Seite aber auch um das Konzept, dass das, was wir im Internet kennen, kuratiert sehen auf Social Media. Auch da sehen wir schon viel Schrott und schlimme Dinge teilweise. Aber da wird auch schon aussortiert. Und das passiert eben wieder oft in Niedriglohnländern von Menschen, die das halt irgendwie als Job machen müssen. Der Film heißt The Cleaners, ist von 2018. Da geht es doch mehr so um Facebook und sowas. Und tatsächlich habe ich heute rausgefunden in der Recherche, das ist denen bei der Bundeszentrale für politische Bildung, gerade einfach so zu sehen gibt. Der war mal auf Netflix, meine ich. Aber man kann sich den tatsächlich bei der Bundeszentrale für politische Bildung auch mal so angucken. Das ist eine Stunde 20 oder so, glaube ich. Wir verlinken euch den in den Shownotes. Das ist sehr, sehr spannend, weil das einfach was ist, was man, glaube ich, überhaupt nicht auf dem Schirm hat, wenn man Social Media benutzt oder irgendwelche Dienste, wo dann doch mit KI, aber eben auch menschlich moderiert, wird, was wir sehen.

Caspar:
Ich habe gerade was gelernt. Ich wusste nämlich, dass die Bundeszentrale für politische Bildung, oder Bundeszentrale, nicht Behörde, Entschuldigung, dass die Bundeszentrale für politische Bildung, dass die Bücher teilweise kostenlos rausgibt, Magazine auch. Die muss man bestellen. Ich glaube, Porto muss man manchmal bezahlen oder muss man bezahlen. Aber dass sie Filme verleiht, das wusste ich nicht. Insofern habe ich was gelernt, gucke ich mir an.

Elli:
Ja, die haben eine Mediathek mit Videos drin tatsächlich. Und da ist der eben auch drin.

Caspar:
Coole Sache.

Elli:
Also hast du eine gute Überleitung. Mir fehlt nach diesem Gedanken, der mir ehrlich gesagt Bauchschmerzen bereitet, fehlt mir so ein bisschen der Elan für eine gute Überleitung.

Caspar:
Ja, wir haben gerade über Meta-AI gesprochen. Das ist vielleicht die einzige Brücke, die wir schlagen können, dass wir uns jetzt mal angucken. Also wenn man mit dieser Brille eine der Funktionen, die Meta bewirbt, ganz stark, ist, dass man mit dieser Brille zum Beispiel instant auf Instagram Bilder posten kann oder auch Livestreams machen kann. Und da müsste unter Umständen dann, naja, eine KI-Kennzeichnung müsste nicht dran, aber wir gucken uns diesen Fall im Input jetzt mal an und schauen mal genau darauf, was man da eigentlich kennzeichnen müsste, warum vielleicht und warum das Thema KI, Flut und Welle inzwischen so groß geworden ist.

Elli:
Ich muss an der Stelle sagen, als Caspar den Input gepincht hat, wir sprechen immer montags darüber, was wir mittwochs so hier mit in die Sendung nehmen wollen und da muss ich zugeben, habe ich gedacht, schon wieder KI und Kennzeichnung und wir haben doch so oft schon darüber gesprochen und wir hatten es doch neulich mit Musik und haben die Band The Velvet Sundown uns angehört in der Folge Conny and The Velvet Sundown. Das war noch der schönste Titel. Da ging es um KI-generierte Musik und auch um die Frage, wie das auf so Musik-Streaming-Plattformen gehandhabt wird, beziehungsweise, dass das ein großes Problem ist für die Plattform. Und dann habe ich eben in der Vorbereitung für die Sendung heute mir gedacht, schon wieder und gibt es denn was? Wir haben tatsächlich, und das möchte ich jetzt, bevor wir hier mit unserer Einleitung quasi starten, dazu sagen, es wird heute ganz spannend im Sinne von, was gibt es für technische Möglichkeiten zur Kennzeichnung? Und das hatten wir hier noch nicht. Und deswegen solltet ihr jetzt mit uns nochmal durch den KI-Dschungel gehen.

Caspar:
Ja genau, es ist schon wieder KI, aber keine Sorge, du hast es eben schon erwähnt, wir gehen es diesmal ein bisschen anders an. Wir fangen mal an, dass wir uns die Musik-Streaming-Plattformen nochmal ein bisschen genauer angucken, zum Beispiel Spotify oder in dem Fall jetzt Apple Music. Die haben nämlich, und das haben wir schon bei der Velvet Sundown besprochen, vermutlich eine sehr hohe Dunkelziffer an KI-Songs. Ich weiß nicht, Eddie, wie das dir geht, aber eine Zeit lang habe ich auch diese Chill-Out-Playlists, wo man dann irgendwie zum Runterkommen und so, so ein bisschen gehört. Die Vermutung liegt nahe, dass das zum Beispiel alles schon seit längerer Zeit einfach KI-generierte Musik ist, die da vor sich hin plätschert und mit der Millionen Aufrufe erzielt werden. Also ich bin sicherlich auch nicht ganz frei davon, da auch schon mal sowas versehentlich gehört zu haben.

Elli:
Ja, ich auch. Ich habe tatsächlich auch in meinen Favoriten, glaube ich, zwei oder drei Songs, die mir leider gut gefallen, die aber KI generiert sind. Und da hat Spotify, als ich das noch als hauptsächlichen Musikdienst genutzt habe, sofort Lunte gerochen und mir ganz, ganz viel davon in die Timeline gespürt. Und ich war eben so, ich möchte das alles nicht, nein. Ein Hoch auf den Algorithmus. Ja, das hat mich ganz sauer gemacht.

Caspar:
Wir kommen auch gleich noch zu einer erschreckenden Zahl, was diese KI-Songs betrifft. Es gibt nämlich jetzt eine aktuelle Zahl, da seht ihr dann auch mal, wie groß das Problem ist. Wir bleiben aber erstmal noch bei einem anderen Thema, nämlich bei Apple Music. Da kommen wir gleich zu und wir haben diese Apple Music News genommen und uns überlegt, wir schauen mal auf das Thema Kennzeichnung nochmal mit ein bisschen anderen Blick drauf, nämlich ob es schon Lösungen gibt. Du hast es gerade auch schon angedeutet, technische Lösungen vielleicht auch, regulatorische Lösungen und kleiner Spoiler. Ganz final ist das alles noch nicht, aber da tut sich ein bisschen was. Deswegen ist es ganz sinnvoll, da jetzt auch schon mal drauf zu gucken. Aber wir fangen mal an mit der aktuellen Nachricht, die der Aufhänger ist und da geht es wie gesagt um Apple Music.

Elli:
Apple hat vor ein paar Tagen seine Partner in der Musikindustrie, also so Labels und Vertriebe eben darüber informiert, dass man demnächst eine Kennzeichnung für KI-Inhalte einführen möchte. Das Ganze nennt sich Transparency Tags und damit sollen NutzerInnen eben klar angezeigt werden, wenn Inhalte nicht oder teilweise eben nur von Menschen erstellt worden sind. Bisher, wenn ich zum Beispiel jetzt bei Spotify früher reingeguckt habe, konnte ich nur so ein bisschen gucken, okay, wie ist denn die, also KünstlerInnenbiografie zum Beispiel, wenn die so sehr generisch klang, dann war mir schon relativ klar, hm. Schwierig. Wenn dann auch noch so ein klassisches KI-Bild mit drin war, dann wurde es immer eindeutiger. Aber so richtig sicher konnte man sich immer nicht sein. Und da möchte Apple jetzt eben rein und möchte eine aktive Kennzeichnung einfügen. Das könnte bei Apple in mehreren Bestandteilen von so einem Song quasi dann relevant sein oder für mehrere Bestandteile. Für die Komposition, für den Songtext, für den eigentlichen Track, aber auch so für Musikvideos oder eben zum Beispiel auch die Cover-Bilder.

Caspar:
Wenn eine dieser Sachen entsprechend mit KI bearbeitet wurde, dann gäbe es entsprechende Tags, sodass man dann als NutzerInnen auch genau weiß, was dann da passiert ist. Ein ganz wichtiger Punkt ist aber, Apple überprüft das nicht selbst, weder technisch noch händisch irgendwie. Die Labels und Vertriebe müssen selber angeben, ob KI verwendet wurde und in welcher Form. Apple nimmt diese Daten jetzt ab sofort auf freiwilliger Basis erstmal entgegen, will in Zukunft aber dann diese Angaben verpflichtend machen.

Elli:
Da klingelt es doch bei mir, da denke ich doch an unsere Folge zum Buchmarkt und das große Problem, dass man das zwar auf freiwilliger Basis einfordern kann und auch als Angabe von den Produzierenden einfordern kann, aber was, wenn man selber gar nicht überprüfen kann, ob das stimmt, ob da falsche Angaben gemacht wurden, ob da mehr KI drinsteckt, als jemand zugeben möchte.

Caspar:
Warum macht Apple das überhaupt? Nun kommen wir zu der eben angekündigten großen Zahl. Das Problem dieser KI-Musik wird nämlich immer größer und ist inzwischen, ich würde schon sagen, riesig. Wir haben eine Zahl mitgebracht von Deezer, Deezer ist auch ein Musik-Streaming-Dienst und die haben im Januar verkündet, dass bei ihnen täglich bis zu 60.000 KI-generierte Tracks hochgeladen werden und das entspricht tatsächlich inzwischen fast rund oder fast 40 Prozent aller eingereichten Songs auf der Plattform von Deezer und das ist deutlich mehr, als ich am Anfang gedacht hätte.

Elli:
Ja, also Apple selber hat keine Zahlen dazu veröffentlicht, wie stark man bei Apple Music mit KI-Musik kämpft, aber wir vermuten jetzt mal, dass es ähnlich ist wie bei anderen Plattformen und deswegen hat Apple eben gesagt, man möchte einen ersten Schritt zu mehr Transparenz in der Musikindustrie gehen, also dieses KI-Label-System einführen. Man könnte es jetzt vielleicht auch so übersetzen von, alle Plattformen werden von generischem Quatsch überschwemmt und Apple möchte sich eben gegen die Konkurrenz hervorheben und sagen, wir machen das jetzt mal.

Caspar:
Ja, und eigentlich auch so ein bisschen das eigene Angebot retten, weil wenn wir ehrlich sind, wenn jetzt schon 40 Prozent der eingerechten Songs KI-Songs sind und das immer weiter geht, dann ist das irgendwann alles nur noch KI-Pampe und dann ist halt auch die Frage, ob Leute dafür monatlich weiterhin Geld zahlen, weil das tun sie ja. Das ist ja das Geschäftsmodell von Apple Music, Spotify, Deezer. Gut, bei Spotify gibt es auch Free-Accounts, aber da gibt es dann wenigstens Werbung. Das ist ja das Geschäftsmodell. Und wenn deren Angebot jetzt nur noch zu 90 Prozent aus KI-Müll besteht, ich persönlich würde mir dann überlegen, ob ich nicht wieder zu gutem CD zurückgehe. Oder die Schallplatte ist ja auch wieder sehr beliebt.

Elli:
Ja, die ist in, ich habe auch, also mein Herz schlägt immer noch für Kassetten, aber ich glaube, das kommt nicht mehr wieder. Schade eigentlich. Ich dachte früher immer so richtig romantisch, Irgendwann macht mir mal einer ein Kassetten-Mixtape.

Caspar:
Oh, alle aufgepasst.

Elli:
Ja, dafür war ich dann doch irgendwie zu spät geboren.

Caspar:
Hast du nicht mal eine Mixed-CD bekommen damals?

Elli:
Das schon, das schon. Aber das war für mich nicht das Gleiche.

Caspar:
Nee, der Aufwand ist ein bisschen geringer. Ich habe nämlich noch Mixtapes gemacht mit Kassette. Da musst du dich ja wirklich hinsetzen, musst die Kassette dann mit Rack drücken, an der richtigen Stelle wieder Stopp, kleinen Moment weiterlaufen lassen. Das war deutlich aufwendiger, als einfach ein paar Tracks auf eine CD zu ziehen. Hast du recht.

Elli:
Na, guck. Ja, wir haben aber natürlich nicht nur bei Musik das Problem, dass wir jetzt da sitzen und uns überlegen, gehen wir doch wieder zurück zur Schallplatte. Auch wenn wir zum Beispiel auf Social Media unterwegs sind, wir erinnern uns an unsere Folge mit dem Löwenbaby, die wir hier mal hatten. Es gibt ganz viel Kram, wo man nicht weiß, ist es generiert, ist es echt, Bilder, Videos produziert. Das muss nicht immer schlecht sein. Manchmal darf man auch ein lustiges Video mit Katzen sich angucken, wo ganz klar ist, das ist halt KI. Aber ich persönlich, ich fände es schon auch ganz nett, dann direkt zu sehen, das ist KI und das nicht. Und nicht mir diesen Gedanken selber jedes Mal machen zu müssen und zu gucken, wie ist denn hier der eine Lichtschatten gefallen und passt dieses Stück Stoff zu dem anderen. So, ach.

Caspar:
Kann es stimmen, dass da sechs Kaninchen auf einem Trampolin rumhüpfen?

Elli:
Ja, noch nicht mal das. Also das ist ja so offensichtlich absurd, aber es gibt ja immer mehr Kram und wir kommen da gleich dazu.

Caspar:
Ich bin auf die Kaninchen reingefallen.

Elli:
Nun, dann nehme ich das mit dem offensichtlich wieder zurück.

Caspar:
Ja, genau. Also ihr seht, diese Flut an KI-Inhalten nimmt immer mehr zu, macht was mit einem. Und selbst wenn man dann lustige Videos irgendwie damit generiert, möchte man ja vielleicht trotzdem wissen, was es ist. Noch mal ein bisschen problematischer ist es, wenn wir dann in den Bereich der Deepfakes reingucken, also in den Bereich von Bildern und Videos, die eben vorgeben die Realität zu sein, wenn ich jetzt eine Comic-Katze habe, die generiert wird und ein lustiges Video dann gibt das ja nicht vor real zu sein oder es ist auch nicht so unendlich schlimm ob diese Kaninchen jetzt echt sind oder nicht, anders sieht das aus mit ein paar Beispielen, wir haben zwei Stück mitgebracht, ich habe eins mitgebracht und du hast eins mitgebracht, Eddie, aus der wirklich kürzesten Vergangenheit von vor wenigen Wochen bis quasi gestern, vorgestern, wo es eben zu Deepfakes kam, die dann eben nicht mehr ganz so lustig sind, weil sie eben vorgeben, Realität zu sein. Ich habe mitgebracht die, in Anführungszeichen, Verhaftung des venezuelanischen Staatspräsidenten Nicolas Maduro vor wenigen Wochen durch die US-Regierung. Ich weiß nicht, wie es bei euch in den Social-Media-Feeds war, aber bei mir war das Netz dann voll mit Bildern von Maduro und die waren die unterschiedlichsten Bilder. Man hat ihn mal weinend gesehen, wie er verhaftet wurde, in irgendwelchen Gefängniszellen sitzend, mit Handschellen. Man hat ihn aber auch teilweise fröhlich in der Menge winkend gesehen, so nach dem Motto, er ist gar nicht verhaftet, es ist gar nichts passiert.

Caspar:
Ganz viele dieser Bilder waren aber KI-generiert. Einige offensichtlich, andere nicht so offensichtlich und zwar sogar so wenig offensichtlich, dass sogar Medienhäuser darauf reingefallen sind. Und auch das Weiße Haus hat teilweise KI-Bilder gepostet und ja, das ist dann schon wieder der Deepfake-Bereich, wo es dann weniger lustig wird. Eddie, du hast etwas aus Hollywood mitgebracht, ein Beispiel.

Elli:
Ja, also zum Weißen Haus vielleicht noch da ist man mit der Benutzung von KI-Bildern sowieso auch, ist man gut mit dabei.

Caspar:
Ein bisschen Lachs.

Elli:
Also es ist jetzt nicht ganz so ungewöhnlich tatsächlich aktuell, Stand jetzt. Ich habe noch was aus der Yellow Press mitgebracht. Klatsch und Tratsch. Schlagt eure Freizeit-Revue, bunte oder sonst irgendwas auf, imaginär. Und zwar das Hollywood-Paar Tom Holland und Zendaya. Das sind zwei SchauspielerInnen. Und die kennt man vielleicht aus dem Spider-Man. Die haben zum Beispiel bei Spider-Man mitgespielt. Er war Spider-Man, sie war dann eben sein Love Interest. Und die sind tatsächlich auch im echten Leben ein Paar und halten ihre Beziehung aber eigentlich ziemlich privat. Also davon gibt es... Wenig Bildmaterial und schon gar nicht von den beiden selber. Und jetzt gibt es aber ganz aktuell Hochzeitsbilder von den beiden, die durchs Netz geistern. Bei Instagram sind diese Bilder mit mehr als 11 Millionen Likes aktuell richtig, richtig stark unterwegs. Und in den Kommentarspalten finden wir ganz viele ernst gemeinte Glückwünsche an das mutmaßlich scheinbar frisch verheiratete Paar.

Caspar:
Ja, nur ich ahne, Elli, wenn wir das in diesem Kontext erzählen, da stimmt was nicht mit den Bildern, oder?

Elli:
Richtig, diese Bilder sind KI generiert und tatsächlich, ich finde schon, die sehen relativ echt aus. Ich habe mir das, mein erster direkter Gedanke von das kann nicht echt sein, kam auch einfach daher, dass ich diese beiden Schauspieler verfolge und deswegen weiß, dass sie sowas an sich nicht posten würden. Das passt einfach null irgendwie in deren Schema. Und wenn man da mal genauer hinguckt, dann postet auch der Account zum Beispiel, von dem diese Bilder ursprünglich ins Netz gestellt wurden, nur KI-generierte Promi-Bilder. Also das ist ein Account, der da einfach seine Nische drin hat. Aber was natürlich schwierig ist, unter anderem, ist, wenn diese Bilder weiter verbreitet und immer weiter und weiter gepostet werden. Irgendwo geht dann vielleicht auch mal die Info, dass das Ganze von so einem KI-Account stammt, verloren. Und ja, spätestens dann wird es richtig schwierig für außenstehende Leute, die vielleicht auch nicht so drin sind, das zu erkennen oder eben zu sagen, das ist echt oder nicht echt.

Caspar:
Und mit Blick auf dieses Deepfake-Thema kann man dann ja überlegen, okay, irgendwie müsste hier ja jetzt mal was passieren. Solche Bilder und Videos müsste man ja eigentlich kennzeichnen, beziehungsweise es müsste doch eigentlich auch Gesetze dafür geben. Und kann man das nicht irgendwie technisch auch lösen oder regulieren? Wir können ja mal anfangen, ein bisschen drauf zu gucken, was denn so geht, was es schon gibt. Und wir können mal anfangen, wer denn schon bereits so kennzeichnet und welche Möglichkeiten es da gibt. Und wir bleiben mal im Social-Media-Bereich. Wir bleiben auch bei Instagram. Elli, du hast es eben erwähnt. Der Original-Account hat wohl, glaube ich, auch irgendwo klein angegeben, dass das KI-Bilder sind. Wie läuft das da so bei Instagram?

Elli:
Ich bin aktuell tatsächlich, also so sehr ich die Plattform auch nicht mag, ich bin noch aktiv und gucke immer wieder, was gibt es. Und da ist mir schon länger aufgefallen, es gibt die Möglichkeit, KI-Inhalte zu markieren als solche. Man kann, wenn man ein Bild da hochlädt bei Instagram, gibt es so ein Kästchen, wo man eben ankreuzen kann, dass das funktioniert. Also da steht dann KI-Info, was auch immer das heißen mag. Und wenn man das ankreuzt beim Hochladen von dem Bild, dann erscheint es auch, wenn andere Leute dieses Bild sich angucken, ganz oben links in so einem kleinen Hinweis. Der ist wirklich, wirklich klein, ist weiß. Und außer KI-Info steht da auch nicht sehr viel mehr. Also ich habe ehrlich schon ganz oft gedacht, als ich diese Funktion gesehen habe, das ist sehr läppisch, wenn man es mal so flapsig formulieren darf.

Caspar:
Und man muss ja auch dazu sagen, das funktioniert natürlich nur, wenn ich auch ehrlich sein möchte und KI-Inhalte entsprechend auch kennzeichnen möchte. Wenn ich jetzt diese Tom-Holland-Bilder, diese Hochzeitsfotos gar nicht kennzeichnen hätte wollen, dann hätte ich sie auch weglassen können.

Elli:
Ja, oder wenn ich irgendwelche politischen Dinge darstellen möchte, die so nie passiert sind, aber aus meinem ureigenen Interesse die anders darstellen möchte, dann werde ich ja auch einen Teufel tun und das Häkchen bei KI-Info setzen.

Caspar:
Jetzt könnte man überlegen, okay, dann macht auch Meta bestimmt irgendwas gegen Accounts, die das nicht setzen. Nee, echte Konsequenzen gibt es nicht. Manchmal sperrten Meta so KI-Fake-Accounts, die massenweise KI-Fakes irgendwie generieren und posten. Allerdings geht es dann oft gar nicht darum, dass das KI ist, sondern dass die zum Beispiel gegen Urheberrecht verstoßen, weil die zum Beispiel Disney-Charaktere erzeugen mit KI und die dann posten und Disney dann quasi in Beschwerde einlegt und dann werden diese Accounts gesperrt. KI ist da eher weniger das Problem. Ihr seht also, es gibt Möglichkeiten in sozialen Netzwerken. Bei TikTok ist das übrigens ganz ähnlich und auch bei einer anderen Plattform. Es gibt Möglichkeiten, das zu kennzeichnen, das ist aber sehr klein und es ist komplett freiwillig. Jetzt könnte man natürlich sagen, okay, da muss es doch rechtlich irgendwas geben. Da muss doch irgendwie eine Gesetzgebung da sein, die sagt, okay, wenn du KI irgendwo postest, dann musst du das doch kennzeichnen. Elli, wir haben den EU-AI-Act. Da geht es meistens bei KI irgendwie drum.

Elli:
Toll, das ist doch mein Lieblings, also wenn man den auf eine Schriftrolle schreiben würde, Leute, der wäre unfassbar lang, das sind 113 Artikel, Jesses Maria, man hat sich Mühe gegeben in der Gesetzgebung auch wirklich alles mit reinzunehmen und so zoomen wir mal etwas rein in unsere Schriftrolle zu Artikel Nummer 50. Da geht es um die Kennzeichnung, beziehungsweise die sogenannte Transparenzpflichten für KI-Systeme.

Caspar:
Richtig, das heißt, da kommt dann plötzlich Transparenz drin vor. Jetzt könnte man sagen, hurra, ja, da steht was drin zum Thema. Wir gucken es aber genauer an, weil, Überraschung, ganz so wie wir es uns das wünschen würden, ist es vielleicht gar nicht. Wir gucken mal auf Artikel 50.1. Da steht nämlich drin, wenn Menschen mit einem KI-System interagieren, müssen sie darüber informiert werden. Da geht es wirklich um das System. Also zum Beispiel, wenn ihr mit einem Chatbot schreibt, müsst ihr irgendwie informiert werden, dass das ein KI-Chatbot ist. Das kann auch ein virtueller Assistent sein oder ein KI-Service-Bot, so wie bei mir beim Hausarzt, der inzwischen, wenn ich da anrufe, ist da ein Telefon-Bot hinter, der den Termin mit mir ausmacht. Der sagt ganz am Anfang kurz, dass er eine KI ist, damit ich das auch weiß und das zum Beispiel regelt dieser Paragraf 50.1 aus dem EU-AI-Act.

Elli:
In Paragraf 52, beziehungsweise in Artikel 52, ich möchte mich hier nicht irgendwie auf rechtlich unsichere Boden begeben, da kommen dann auch Deepfakes zum ersten Mal drin vor. Dort steht nämlich, KI-Systeme, die synthetische Inhalte erzeugen, also Audio, Bild, Video oder Text, was eben nicht funktioniert. Original echt ist, die müssen ihre Ausgaben so kennzeichnen, dass sie als künstlich erzeugt oder manipuliert erkennbar sind. Das heißt, wenn ich mir jetzt irgendwo ein lustiges Katzenbild generieren würde oder auch ein entsprechendes Video, dann müsste das eigentlich schon irgendwo eine Kennzeichnung enthalten, dass es ein KI-Produkt ist. Und nicht, ich müsste bei Meta dann irgendwo einen winzig kleinen Haken setzen, um das, wenn ich denn mal gewillt bin, meinen FollowerInnen und anderen Usern mitzuteilen.

Caspar:
Der AI-Act selber verlangt also von uns Nutzerinnen und Nutzern gar keine Kennzeichnung und er verlangt in dem Sinne auch keine Kennzeichnung von KI-Inhalten zum Beispiel in Social Media, sondern er sagt, dass die Anbieter von KI-Systemen irgendwie sich technisch was ausdenken müssen, dass das schon quasi mitgeliefert wird, dass das KI ist. Jetzt muss man aber auch sagen, okay, wenn das im AI-Act steht, warum haben wir davon noch nicht so wirklich viel gehört und warum ist das zum Beispiel nicht so, dass wenn ich ein KI-Bild hochlade und da ja wohl technisch vielleicht irgendwas hinterlegt ist, zum Beispiel Instagram dann direkt anzeigt, dass das KI sei. Naja, das Entscheidende ist, dieser AI-Act tritt stufenweise in Kraft und dieser Artikel 50, der sich unter anderem auch mit der Kennzeichnung Deepfakes beschäftigt, der ist erst im August diesen Jahres dran. Ich glaube am 2. August tritt er in Kraft und bis dahin haben die Anbieter quasi noch Zeit. Das heißt, auf Gesetzgebungsweg gibt es nicht so wirklich was und wenn, regelt das auch wie gesagt nur die Anbieter.

Elli:
Also da sind noch ein paar Promi-Hochzeiten drin bis August, würde ich sagen. Ein paar gefälschte und auch andere Dinge. Aber wir haben ja jetzt schon zumindest rausgehört, dass die Anbieter von KI-Systemen tatsächlich irgendwie technische Lösungen einbauen müssen. Und zwar ist da eben die Rede davon, dass Deepfakes als künstlich erzeugt oder manipuliert erkannt werden müssen. Können und in einem, Achtung, Maschinenlesbaren-Format gekennzeichnet sind. Und das ist jetzt der Punkt, das finde ich spannend, denn das heißt ja, dass wenn so ein KI-System ein Produkt ausspuckt, also ein Video oder ein Foto und das wird irgendwo anders hingeschickt, dann kann der andere, die andere Software, der andere Computer auch direkt sehen, aha, KI. Und da frage ich mich, wie geht das?

Caspar:
Da haben wir eine Lösung für dich, nämlich genau sogar drei eigentlich. Da ist tatsächlich auch der spannende neue Weg, der dann eventuell ab August vielleicht beziehungsweise kurz danach dann auch mal dazu führen könnte, dass sich diese ganze KI-Geschichte und Deepfake und so ein bisschen verbessert. Zumindest ist das die Hoffnung von vielen Expertinnen und Experten. Schauen wir mal auf die drei Wege, die technisch aktuell zum Beispiel denkbar wären. Der Weg 1 geht über die sogenannten Metadaten. Der zweite Weg über ein Wasserzeichen. Und der dritte Weg über kryptografische Signaturen. Wir gucken uns die drei nochmal an. Das Beispiel Metadaten, da wäre zum Beispiel der C2PA-Standard anzubringen. Den haben wir hier auch schon mal kurz behandelt. Das ist ein Metadatenstandard, da arbeiten verschiedenste Firmen zusammen, sogar richtig viele. Da sind auch sehr große Namen dabei, da sind Kamerahersteller dabei, da sind Firmen wie Adobe mit dabei, die dann ja Bildbearbeitungssoftware zum Beispiel anbieten. Da sind aber auch Medienhäuser wie zum Beispiel die BBC oder der WDR mit dabei und die alle zusammenarbeiten an diesem C2PA-Standard.

Elli:
C2PA Gesundheit. Oder es könnte so eine C2PA, könnte auch so eine Entwicklung, Entwicklerkonferenz sein oder so eine Gaming-Konferenz. C2PA.

Caspar:
Ich komme jetzt zur C2PA in Barcelona.

Elli:
Ja, aber was es eigentlich ist, das Ganze ist eigentlich ein digitaler Herkunftspass für Medien, also Videos und Fotos. Und da stehen dann drin zum Beispiel Infos zur Kamera, Infos zur Software, die zum Bearbeiten benutzt wurde und auch zum Beispiel Infos zu den einzelnen Bearbeitungsschritten. Und am Ende kann man dann, wenn ein Foto veröffentlicht wurde, als Nutzerin auf so einen Knopf drücken und sich all das einblenden lassen und mal gucken, aha, mit welcher Kamera ist das denn gemacht worden, was wurde da am Ende noch reingefotoshoppt, wurde überhaupt Photoshop benutzt oder was anderes und wo kam vielleicht auch ein KI-Programm ins Spiel?

Caspar:
Das Problem ist, das betrifft ja nur Bilder und Videos, die eben mit C2PL genutzt wurden und bei denen die Metadaten hinterlegt sind. Es ist also quasi nur ein Beweis für gewisse Bilder und Videos, die sind quasi echt, wenn die diesen Standard dann haben und man da draufklicken kann. Das wäre jetzt keine Hilfe, um zum Beispiel dieser KI-Flut irgendwie herzuwerden. Und das Problem ist auch, man könnte jetzt so ein Bild nehmen und die Metadaten natürlich auch löschen oder ein Screenshot davon machen, dann wäre das alles, was hinterlegt ist, auch gleich wieder weg. Und es gibt noch einen weiteren Punkt, der so ein bisschen C2PA kritisch dastehen lässt. Wir reden da seit Jahren drüber und die Firmen arbeiten da auch seit Jahren dran, diesen Standard fortzuentwickeln und einzuführen. Und ehrlicherweise passiert ist in dieser Zeit wenig bis gar nicht. Ja immer mehr, es gibt wenig Kamerahersteller, die das unterstützen und auch sonst im Internet begegnet einem, das ist so ein kleines I-Symbol, wo man dann draufklicken kann, mir begegnet das im Internet so gut wie gar nicht.

Elli:
Gefühlt haben wir die Folge, wo wir über C2PA gesprochen haben, aufgenommen, da hatte ich noch ganz, ganz lange Haare und ich habe seit 2023 kurze Haare, möchte ich sagen, an der Stelle.

Caspar:
Ja, also es ist eine Weile her.

Elli:
Na gut, wir haben ja noch zwei andere Sachen im Petto, oder?

Caspar:
Ja. Ja, haben wir. Das eine ist ein digitales Wasserzeichen. Wasserzeichen kennt ihr bestimmt noch. In analoger Form war das, wenn man zum Beispiel so ein Blatt Papier mal hochgehalten hat und das gegen das Licht gehalten hat, dann schimmert da sowas durch. Das ist mit Wasserzeichen gemeint. Und sowas ähnliches gibt es auch in der digitalen Form. Google zum Beispiel hat sowas entwickelt für KI-Inhalte. Das nennt sich Thyns ID, also S-Y-N-T-H-ID. Thyns ID ist für einen deutschen Muttersprachler ein perfektes Wort, um TH zu üben. Und die Idee dahinter ist, dass Bilder oder Videos, die mit einer Google-KI, also zum Beispiel mit Gemini oder Nano Banana oder Vio 3 generiert wurden, dass die für das menschliche Auge ein unsichtbares Muster abbekommen oder reingebrannt bekommen. Das kann man jetzt nun, weil es digital ist, nicht gegen das Licht halten. Aber der Gedanke ist, wenn ich jetzt so ein Bild nehme, was zum Beispiel von Nano Banana erstellt wurde, das kann ich dann bei Gemini hochladen. Das guckt sich dieses Bild an und das würde dann dieses Muster erkennen und sagen, okay, dieses Bild wurde von der Google KI erstellt oder es wurde von der Google KI bearbeitet. Und die Idee ist an sich ja schon mal ganz gut.

Elli:
Ja, ich musste jetzt aber doch wieder in die Parade fahren, denn das Ganze ist aktuell nur im Google-Ökosystem möglich. Das heißt, wenn ich ein KI-Bild habe und das da hochlade, muss ich es bei Gemini hochladen und dann muss es aber auch von Gemini oder Nano Banana oder so weiter generiert sein worden. Wenn das von irgendeinem anderen Anbieter kommt, dann sind wir schon wieder raus aus dem Thema. Und theoretisch gibt es auch die Möglichkeit, zum Beispiel durch Screenshots oder eine starke Komprimierung, diese Muster durchzuführen. Zu entfernen, beziehungsweise die Muster können verloren gehen, je nachdem, wie man eben mit diesem Bild umgegangen ist zwischendurch.

Caspar:
Ich habe das schon tatsächlich mal ausprobiert. Ich habe ein Bild von Google KI erstellen lassen, habe das dann gescreenshottet und das dann auch nochmal von Gemini überprüfen lassen. Da war das Wasserzeichen noch sichtbar. Allerdings war der Screenshot auch hochauflösend. Wenn man jetzt einen in der schlechten Qualität macht oder einen sehr kleinen, dann kann es natürlich schon wieder sein, dass das Muster dann nur noch so schlecht zu erkennen ist, dass Google dann nicht mehr sicher ist. Und deswegen ist das quasi auch nur so ein halber Weg, ehrlicherweise.

Elli:
Wir haben noch eine Option, Caspar. Wie sieht es aus?

Caspar:
Ja, die kryptografische Signatur habe ich noch für euch. Das ist eine Art digitaler Schlüssel, der wird vergeben für jedes einzelne Bild oder Video. Und man kann dann dieses Bild zur Prüfung quasi einreichen und kann dann relativ schnell feststellen, okay, wurde da was manipuliert, wurde zum Beispiel der Hintergrund ausgetauscht oder die Person, die in dem Bild zu sehen ist, vereinfacht ausgedrückt, um es auch nochmal, weil ihr könnt jetzt natürlich, man könnte sich jetzt fragen, okay, wir haben C2PA mit Metadaten, da steht ja auch was drin, was ist jetzt dieser Unterschied zu dieser Signatur? Ich habe mal ein Bild mitgebracht, was das vielleicht so ein bisschen deutlicher macht.

Caspar:
Metadaten sind wie ein Etikett auf einer Weinflasche. Das kann man einfach abziehen und dann ist es weg. Dann sieht niemand mehr, wo der Wein herkommt oder was da drin ist. Und eine kryptografische Signatur ist sowas wie ein Siegel aus Wachs über dem Flaschenhals. Das kann man aufbrechen, aber man sieht sofort, dass da jemand dran war und die Flasche schon mal geöffnet war. So ist es eben bei dieser kryptographischen Signatur auch, aber auch hier, das muss man natürlich signieren und das muss auch hinterlegt werden, dass die Dienste das irgendwie anzeigen können und man muss das irgendwie nachhalten können, also auch da müsste man sich eigentlich auf einen Standard einigen. Und wer ist das, der das tun müsste? Das wäre wie bei C2PA natürlich die ganzen Kamerahersteller, es wären die Bildbearbeitungsprogramme, es wären die Medienhäuser, es wäre Social Media. Das ist im Grunde alles, was im Internet irgendwas mit Bildern zu tun hat. Und da sind natürlich technisch noch ein paar Herausforderungen, die da auf einen warten. So, lass uns mal versuchen, einen Deckel drauf zu machen. Was machen wir jetzt damit? Was fangen wir jetzt damit an? Wir haben ja immer noch das Grundproblem, dass es massenhafte KI-Inhalte gibt und dass immer mehr werden und immer mehr zunimmt, nicht nur bei Musikplattformen, sondern auch in Social Media und quasi überall, wo man irgendwie auf Inhalte stößt.

Caspar:
Wenn wir jetzt nochmal zurückgucken, was wir irgendwie besprochen haben, also die Kennzeichnung durch Plattformen, dann AI Act von der EU, technische Lösungen wie Wasserzeichen oder so digitale Signaturen, dann merkt man schnell, es gibt ehrlicherweise, und das ist das Traurige an diesem Fazit, noch keine perfekte Lösung. Auch wenn man sich diese Apple Music KI Song Kennzeichnung anhört, wir haben die Schwächen ja schon besprochen, dass das freiwillig ist oder wenn wir dieses Instagram KI Info Label haben, das bleibt immer so, dass die Menschen, die die Sachen posten oder irgendwo hochladen, die müssen ehrlich sein, die müssen dem System gegenüber ehrlich sein, anderen Nutzerinnen und Nutzern und wenn du das nicht anhagst, dann ist es halt eben weg und einfach nur gut zureden. Das wissen wir leider, funktioniert im Internet nicht so richtig gut.

Elli:
Meine Hoffnung ist ja tatsächlich, dass es irgendwann kippt, dass Authentizität als Ware oder als Auszeichnungsmerkmal sich irgendwann wieder durchsetzt. Aber na ja, bis dahin gucken wir auf die technische Lösung noch mal kurz und machen da einen Deckel drauf. Es gibt welche, die sinnvoll wären, die helfen könnten. Aber das Ganze funktioniert eben nur, wenn viele Anbieter auf die gleichen Standards setzen. Und auch dann gibt es immer noch Möglichkeiten, viele dieser Kennzeichnungen zu umgehen. Wir stehen gerade erst am Anfang. Gesetzlich gucken wir mal Richtung August, was dann so ist, wie es da weitergeht, auch wie sich das in Deutschland überlegt wird. Wir haben EU-Gesetzgebung, klar, aber die muss natürlich auch in Deutschland umgesetzt werden. Und wie es damit weitergeht, ja. Und dementsprechend, das Fazit macht mich ein bisschen, ich weiß nicht, ich finde es nicht so gut. Also bisher konnte man lange im Internet davon ausgehen, dass Dinge echt waren, Fotos, Videos und gerade auch Musik zum Beispiel galten erstmal als reale Produkte, Dokumente, Produktionen und jetzt sind wir gerade da, wo sich alles irgendwie dreht und vielleicht muss man irgendwie einfach auch mal von Anfang an davon ausgehen, dass alles erstmal fake ist.

Caspar:
Das ist traurig, aber es ist vielleicht erstmal die Lösung, bis wie gesagt regulatorisch oder technisch es Lösungen dafür gibt. Erstmal müssen wir leider, und das ist die aktuelle Realität, im Internet skeptisch sein, wenn wir was sehen und erstmal davon ausgehen, dass alles, was wir da sehen, gefakt sein kann, bis quasi entweder das Gegenteil bewiesen ist oder dass zum Beispiel von Stellen gepostet wurde, die genau diesen Schritt gegangen sind, das zum Beispiel zu verifizieren. Wir reden hier von zum Beispiel großen vertrauensvollen Medienhäusern, wir reden hier von offiziellen Stellen, wobei das muss man teilweise ja auch einschränken, wir haben über das Weiße Haus gesprochen, da kann man zum Beispiel auch nicht mehr darauf vertrauen, dass die keine KI-Inhalte teilen, also es ist alles ein bisschen schwierig leider.

Elli:
Mit Geschmäckle, naja.

Caspar:
Aber wir behalten es im Blick und wenn sich da was tut und es wird sich was tun, dann werden wir es natürlich hier nochmal genauer behandeln und ich glaube, vor allem der August oder die Zeit bis dahin könnte spannend werden, du hast es schon erwähnt mit der EU, vor allem diese technische Kennzeichnung, da wird sich einiges tun und die Hoffnung ist, dass man dann das zumindest so ein bisschen eindämmen kann, aber wie gesagt, wir schauen drauf.

Elli:
Aber ich nehme tatsächlich aus diesem Input so ein bisschen mit, doch die Frage mal irgendwann umzustellen von auf, okay, wie erkenne ich, ob es vielleicht KI sein könnte, hin zu, welche Dinge sagen mir gerade, dass das echt ist? Also, aus welchen Quellen kommt das? Wo kann ich das irgendwie nachvollziehen und so weiter? Vielleicht mal ein ganz spannender Ansatz.

Caspar:
So, nachdem unser Fazit hier von dem Input jetzt einigermaßen unbefriedigend war, ich hätte Lust auf eine gute Nachricht. Wie sieht es bei dir aus?

Elli:
Kriegst du, kannst du haben. Sehr schön. Es geht um Politik und um Geld. Und wir haben hier zum Beispiel beim Trump-Phone ja auch schon ab und zu mal anklingen lassen, dass es gar nicht so gut ist, wenn Politik und Wirtschaft sich allzu sehr die Hand geben. Natürlich muss man sagen, weil wahrscheinlich keine PolitikerInnen trifft komplett neutrale Entscheidungen. Aber damit Entscheidungen möglichst im Sinne der Allgemeinheit gefällt werden, gibt es sowas wie Transparenz im Bereich Lobbyarbeit und das ist auch sehr gut. In Deutschland gibt es zum Beispiel die Plattform Abgeordnetenwatch, die mit ihrer Arbeit versucht zu zeigen, welche Partei hat von welchen Firmen dicke Spendengelder bekommen, welche PolitikerIn hat welche Nebeneinkünfte und so gibt es möglicherweise Interessenkonflikte.

Caspar:
Um diese Interessenkonflikte und Geldströme geht es auch in unserer guten Nachricht. Dafür schauen wir nach Brasilien. Ich glaube, da waren wir auch noch nicht so oft hier im Podcast. In Brasilien sind Korruption und Geldwäsche in der Politik leider ein sehr großes Thema, deutlich größer als das zum Beispiel in Europa der Fall ist. Es gibt einen sogenannten Korruptionswahrnehmungsindex. Das wusste ich bis zur Vorbereitung auf diesen Podcast auch noch nicht, dass es den gibt. Den gibt die deutsche NGO Transparency International heraus und die ermittelt den jährlich. Und 2025 lag der bei Brasilien, für Brasilien bei 35 von 100 Punkten und niedriger ist quasi schlechter. Zum Vergleich, in Deutschland lag dieser Korruptionswahrnehmungsindex bei 77 von 100 Punkten und in Frankreich bei 66.

Elli:
Es gibt in Brasilien zwar Gesetze, ähnlich wie in Deutschland, die dafür sorgen sollen, dass BürgerInnen einen Einblick in die Geldgeschäfte von Menschen bekommen, die Politik machen. Aber die Datenmasse, die da so öffentlich einsehbar ist, ist ziemlich unübersichtlich. Es gibt zig verschiedene Plattformen, Quellen und so weiter, wo einzelne Details drauf sind. und jetzt kommt eben Technologie ins Spiel. Der 20-jährige Entwickler Bruno Cesar hat eine Open-Source-Lösung entwickelt, die 45 einzelne Regierungsdatenbanken zusammenwirft und daraus eine visuelle Aufbereitung bastelt. Das Tool heißt BR-ACC, wir kommen gleich noch zum Namen, und macht eben sichtbar, welche Verbindungen es zwischen Parteien, Unternehmen und Auftragsvergaben gibt.

Caspar:
Open Source heißt in dem Fall der Code für BR slash RCC, ich weiß nicht, BRAC oder BRAC vielleicht, der ist via GitHub einsehbar, also der Entwicklungsplattform. Das ist insofern gut, weil dann jeder und jede mit entsprechenden Ressourcen und Fähigkeiten und Programmier-Skills eben auf den Code zugreifen kann und zur Not das System zum einen auch selber aufsetzen kann, aber eben auch nachgucken kann, ob das zum Beispiel Fehler oder Angriffsflächen sind. Das ist eben der große Vorteil an so Open Source Projekten.

Elli:
Und ich habe es ja gerade schon gesagt, wir kommen noch mal kurz zum Namen. Die Abkürzung BRACC steht für Brazilian Acceleration. Ja, jetzt wisst ihr mehr. Nein, das ist eine Bewegung, die sich an den US-amerikanischen Effective Accelerationism, Das ist eine Bewegung, die darauf abzielt, Technologien zu nutzen, da zu nutzen, wo Behörden zu lange brauchen. Das ist, muss man dazu sagen, keine unumstrittene Bewegung, keine unumstrittene Idee, aber die brasilianische Plattform ist eben ein Beispiel, wo das Ganze gut laufen kann, denn für diese Plattform werden Infos genutzt, die eh online einfach schon verfügbar sind. Also es ist jetzt datenschutzmäßig irgendwie nicht schwierig oder so, sondern es sind einfach Informationen, die vorhanden sind und die dann zusammengeworfen sind. Es wäre keine gute Nachricht ohne ein Aber.

Caspar:
Gibt es ein Aber, Elli?

Elli:
Ja, also zum einen Open Source bedeutet auch, dass Menschen, die vielleicht nicht so interessiert daran sind, dass Dinge transparent laufen, diesen Code auch einsehen können und dann zum Beispiel herausfinden könnten, wo eine Manipulation möglich wäre. Und aktuell ist das Ganze, wir haben da den Code, der zur Verfügung steht, man braucht dann so ein bisschen technische Skills. Momentan läuft das noch so bei Bruno Cesar lokal auf seiner Hardware und eben bei Leuten, die sich das selber aufsetzen können. Aber wenn man eine technische Nulpe ist, so wie ich, dann wird es eher schwierig in dem Bereich. Nämlich, jetzt muss man sagen, ja, noch nicht, denn eine Beta-Version, die diese Visualisierungen auch für technisch nicht so versierte Menschen zugänglich machen soll, ist wohl in Planung.

Caspar:
Ja, alles in allem, aber finde ich das eine sehr gute Idee, weil wie du auch gesagt hast, Regierungsdatenbanken, die eh schon öffentlich sind und die niemand sonst durcharbeiten könnte mit einer technischen Lösung und dafür ist Technik ja eigentlich ideal geeignet, zusammenzuführen und darzustellen. Das ist gut und vor allem natürlich auch in Brasilien. Wir haben ja gerade gelernt, dass dort der, ich möchte es nochmal wiederholen, dieses wunderbare Wort Korruptionswahrnehmungsindex besonders hoch ist.

Elli:
Ja, oder niedrig, je nachdem, wie man es nimmt.

Caspar:
Es stimmt, in dem Fall niedrig, ja.

Elli:
Ja, an der Stelle eine Empfehlung, falls ihr euch noch mal in die technischen Details reinfuchsen mögt. Und zwar gibt es einen Artikel von Business Punk, der Kollege Uli Weisgerber hat das Ganze mal aufgeschrieben und geht da auch noch mal tiefer ins Detail, wie die technischen Sachen funktionieren. Also wenn euch das interessiert, lest da sehr gerne mal rein. Ich muss zugeben, mir knurrt jetzt der Magen. Ich bin ganz ehrlich, es ist 19.30 Uhr fast. Ich habe Lust auf Abendessen. Ich weiß nicht, wann ihr den Podcast hört. Ich hoffe, ihr habt einen volleren Magen als ich gerade. Aber dementsprechend würde ich mal sagen, wir machen für diese Woche, machen wir Schluss, hör mal auf.

Caspar:
Ja, finde ich gut. Ich muss das hier auch noch schneiden, den Bums hier.

Elli:
Das stimmt. Genau.

Caspar:
Machen wir Schluss für heute.

Elli:
Dann sagen wir vielen Dank, dass ihr auch diese Woche wieder dabei wart. Wenn ihr mögt und es noch nicht getan habt, empfehlt uns sehr gerne weiter. Lasst uns eine Bewertung da und schreibt uns auch immer gern an unsere Mailadresse post.siliconweekly. Und ansonsten hören wir uns nächste Woche wieder. Gleiche Stelle, gleiche Welle, wie man so schön sagt.

Caspar:
Und wenn euch die Faststunde irgendwie zu kurz war und ihr nicht von unseren Stimmen genug kriegen könnt, hört wie gesagt bei So geht Podcast rein in die aktuelle Folge. Da sind wir zuhörern.

Elli:
Grüße gehen auch raus an Gio.

Caspar:
Genau.

Elli:
In diesem Sinne. Macht es gut.

Caspar:
Macht es gut. Tschüss.

Elli:
Tschüss.