Shownotes
KI schreibt plötzlich Apps, Webseiten und Tools, selbst für Menschen ohne Programmierkenntnisse. Wir erklären den Trend „Vibe Coding“, testen ihn selbst und sprechen über Chancen, Risiken und die Frage: Brauchen wir bald überhaupt noch Programmierer:innen?
Links zur Episode
- Den Link zum Artikel der LA Times zu Gesichtserkennung im Disneyland findet ihr hier
- Unseren per Vibe Coding gebauten Themennebel findet ihr unter https://nebula.silicon-weekly.de/
- Den Artikel von The Verge zu den Schattenseite von Vibe Coding findet ihr hier
Transkript der Episode
Das Transkript wird automatisiert erstellt
Jingles:
Silicon Weekly Silicon Weekly Der Tech-Podcast mit den wichtigsten News der Woche. Für dich eingeordnet von Elli, Stella und Caspar.
Stella:
Schön, dass ihr eingeschaltet habt und bereit seid, dass wir euch wieder mitnehmen auf unseren Ritt durch allerlei Tech-News. Wir werden heute über Vibe-Coding sprechen, haben auch ein Fallbeispiel mit und ihr könnt es vor allen Dingen auch selber ausprobieren. Also das, was wir quasi erstellt haben, wobei wir, Entschuldigung, da habe ich mich zu weit aus dem Fenster gelehnt.
Caspar:
Ich wollte gerade sagen.
Stella:
Caspar, du hast es erstellt.
Caspar:
Hallo Stella. Nee, auch ich habe das eigentlich nicht erstellt, sondern jemand anderes. Aber da kommen wir gleich beim Input zu. Eigentlich müssen wir jemand anderen auf die Schulter klopfen. Aber was wir damit meinen, das werdet ihr nach dem Input dann auch verstanden haben.
Stella:
Und dem können wir nicht auf die Schulter klopfen. Also bevor wir euch verwirren, es wird um Vibecoding gehen, um die Frage, was kann das Ganze, was kann es nicht und wofür taugt es. Wir haben ein Update dabei, es wird musikalisch, natürlich ein WTF. Und ich kann sagen, Mickey Mouse is watching you. Laut der britischen Zeitschrift The Guardian, diese wundervolle Headline, die haben wir uns nicht selber ausgedacht, sondern John ist Innenkollegin und ansonsten haben wir auch eine gute Nachricht dabei.
Caspar:
Geht dir das auch immer noch so? Beide waren wir ja auch mal oder haben auch Printjournalistin gelernt und Journalist und immer noch, wenn ich eine gute Headline sehe, die Taz zum Beispiel macht immer noch zwischendrin sehr gute Überschriften, stehe ich da nickend vor und denke mir, ja, eine gute Arbeit.
Stella:
Natürlich. Das ist doch wie dieses Michi-Maus-Beispiel. Mich freut das dann auch tatsächlich. Aber bevor wir jetzt so in so einem Journalisten-Talk hier abschweifen, wollen wir loslegen mit den Updates.
Caspar:
Ja, und mit Prinz haben wir ja nun wirklich heute nichts zu tun.
Stella:
Wir sprechen über Spotify. Und Spotify hat ein Label für menschliche Musik eingeführt, wobei das muss man auch ein bisschen eingrenzen. Was ist passiert?
Caspar:
Spotify hat sich überlegt, wie du sagst, ein neues Label einzuführen und zwar heißt das Verified by Spotify. Das Ganze ist so ein hellgrünes Label, so ein bisschen wie früher, so die blauen Haken bei Twitter, als es die noch gab und die noch sinnvoll waren. Das Ganze wird neben dem Namen der Künstlerinnen und Künstler angezeigt. Und offiziell heißt es, das Label soll für mehr Transparenz zum Hintergrund der MusikerInnen beitragen. Ja, was genau ist damit gemeint, Stella, mit mehr Transparenz?
Stella:
Naja, Spotify hat drei Kriterien genannt. Und zwar, wir fassen die mal kurz zusammen, die sind auch ausformuliert. Zitat, kontinuierliche Höreraktivität und Interaktion über einen längeren Zeitraum. Das ist Punkt 1. Zusammengefasst, Reichweite, nicht nur einmalige Spitzen plus eben, und das ist wichtig, eine gezielte Suche. Auch sowas. Dazu Punkt 2, Einhaltung der Plattformrichtlinien. Und Punkt 3, wieder leuchtet ein. Punkt 3, Zitat, Anzeichen für einen echten Künstler im Profil. Zitat Ende. Und da wird es nämlich spannend.
Caspar:
Ich wollte gerade sagen, jetzt fängt es doch an interessant zu werden. Was ist denn laut Spotify ein Anzeichen für einen echten Künstler oder Künstlerinnen?
Stella:
Auch hier, kurz Zitat, Konzerttermine, Merchandise und verknüpfte Social-Media-Konten. Zitat Ende. Also zusammengefasst, Sie schauen, was es im Real Life so von den Künstlerinnen gibt. Aber die Eingrenzung ist eben, wir haben ein langes Zitat mitgebracht, aber ich dachte, das könnt ihr euch, das wollt ihr euch nicht vorenthalten. Zum Start sind Profile, die offenbar hauptsächlich KI-generierte oder KI-Persona-Künstler repräsentieren, nicht für die Verifizierung zugelassen. In der heutigen Medienlandschaft, in der heutigen Musiklandschaft ist das Konzept der Künstlerauthentizität komplex und entwickelt sich schnell weiter. Und wir werden unseren Ansatz im Laufe der Zeit weiterentwickeln. Zitat Ende.
Caspar:
Halt, Stopp. Erst sagen sie, jetzt erst mal ist KI tabu, was dieses Label betrifft. Gleichzeitig lassen sie sich aber, ich wollte gerade sagen Hintertür, eigentlich ist das keine Hintertür mehr. Ja, also sie lassen die ganze Wand vom Haus hinten weg nach dem Motto. Das kann sich noch ändern und dann kann es natürlich auch sein, wenn das irgendwann mal okay ist mit KI, dass auch KI-KünstlerInnen und Künstler, wobei man das ja eigentlich gar nicht gendern muss, so ein grünes Label bekommen. Das ist doch auch irgendwie eine ganz komische Nummer, oder?
Stella:
Da ist noch ein anderes kleines Wort drin. Also es kommt auf die Zwischentöne an, kann man schön sagen. Ich sehe das wie du, die lassen sich keine Hintertür offen, sondern die kündigen eigentlich an.
Caspar:
Ja, stimmt.
Stella:
Ich übersetze jetzt mal frei, je mehr KI-Musik etabliert ist, dann kriegen die anderen auch so ein Label. Also das lese ich daraus. Hauptsächlich KI-generierte oder KI-Persona-Künstler. Das heißt, auch Künstler, die durchaus KI-generiertes haben, aber eben auch viel Menschliches, kriegen auch das Label. Deswegen spricht auch dieses menschliche KünstlerInnen, trifft es eigentlich nicht ganz, weil es geht um das hauptsächlich. Also schon da ist ja schon die erste Einschränkung mit drin.
Caspar:
Ja, okay. Das ist nicht der einzige Kritikpunkt, ein Punkt, der mir auch relativ schnell aufgefallen ist, weil du ja auch gerade gesagt hast, sie gucken erstmal auf Reichweite und ähnliche Dinge. Also wenn ich jetzt morgen auf die Idee komme, eine Musikkarriere bei Spotify anfangen zu wollen und meine Unter-der-Dusche-Gesänge da hochlade, werde ich erstmal nicht viel Reichweite haben. Das heißt, ich habe keine Chance, dass ich so ein Label bekomme. Das heißt, es trifft eigentlich auch schon wieder nicht die Kleinen und die Indie-Künstler, sondern es ist wieder was für die Großen. So ein bisschen wie dieser blaue Haken am Ende ja auch bei Ex für die Leute waren, die bezahlen und gar nichts mehr wirklich an Aussage hatte, oder?
Stella:
Naja, jetzt könnte man ja sagen, okay, du erzählst Elli, die übrigens heute nicht dabei ist. Wir grüßen sie aber ganz lieb. Und mir, Leute, ich starte jetzt durch bei Spotify. Teilt mal bitte meinen Account und sucht den vor allen Dingen, weil das sagt ja Spotify auch, eben Interaktion in Form auch von Suchen etc. Und Elli und ich teilen das ganz fleißig und dann kriegst du quasi so ein bisschen Buschfunk. und über Zeitraum X, das hat Spotify nicht näher benannt, ist da quasi Traffic, wenn auch im kleinen Rahmen, könnte das ja zumindest den Kriterienpunkt irgendwie erfüllen. Aber das ist, finde ich, auch, also mir ist nicht klar, was da eben genau dieser Rahmen ist, in dem Spotify dann diese Regelmäßigkeit erkennt. Und vor allen Dingen auch, das eine ist ja quasi Suche und Interaktion. Die kannst du ja irgendwie hochtreiben, auch mit Social-Media-Konten, weiß ich nicht, etc. Aber wie willst du denn auf Tour gehen? Oder welchen Merch möchtest du denn rausbringen am Anfang? Lass ja gar keine Kohle zu. Und wenn das da eben mit reinspielt oder auch wenn deine Social-Konten vielleicht super klein sind, gut, kannst du auch keine Reichweite groß performen. Also ich finde, das klingt schon nach einer Nachteiligung etwas für kleinere. Und ich sehe das auch als Kritikpunkt.
Caspar:
Ja, und mir leuchtet halt immer noch nicht ganz ein, was Spotify damit vorhat. Also weil wir haben ja hier, und deswegen ist auch ein Update, wir haben ja schon mal darüber gesprochen über KI-Musik und ähnliche Dinge. Und da haben wir ja auch erzählt, dass es Schätzungen gibt, dass wahrscheinlich rund die Hälfte der Songs inzwischen bei Spotify KI generiert ist oder zumindest ein KI-Anteil hat. Und das heißt, eigentlich wird da eine Plattform gerade, und wir haben ja auch über Apple gesprochen, die jetzt eben so ein Label eingeführt haben, da geht es eben darum, dass du kein KI einsetzen darfst, dass eigentlich wird dann Plattform oder mehrere Plattformen von KI-Welle überflutet. Und jetzt könnte man ja sagen, okay, Spotify führt jetzt bei echten menschlichen Künstlerinnen und Künstlern so ein Label ran, dass sie das irgendwie KI-frei, so ein Gütesiegel, wie bei Bio-Eiern, hier ist KI-frei. Nee, aber das ist es ja gar nicht.
Stella:
Bei Bio-Eiern.
Caspar:
Also erstens, es kann doch irgendwie KI im Spiel mit drin sein. Es muss jetzt erstmal nur ein lebender Mensch sein, da ist alles andere ist egal. Und irgendwann kann das auch mit KI sein. Aber das ist alles ein bisschen komisch.
Stella:
Ja, also deswegen, BBC hat das auch nochmals in den Kritikpunkten gut aufgeführt, dass dieses Label eben nicht zeigt, dass es menschliche Musik ist, sondern nur, dass irgendwie ein Mensch dahinter steht. Diese Musik kann KI generiert sein. Und generell frage ich mich halt das, was du gerade beschreibst, warum, diese Kennzeichnung bewirkt ja, dass das Menschliche zum Besonderen wird, weil ich kennzeichne in der Regel ja das, was quasi weniger vorhanden ist, was das Besondere ist etc., damit es auffällt. Sprich, Ist das andere irgendwie der neue Standard oder muss nicht gekennzeichnet werden? Also von der Logik her, wir hatten dazu auch schon mal übrigens eine Folge gemacht, gibt es in den Shownotes oder gleich in unserer möglicherweise gewebe-codeten App dazu, aber im Input mehr. Wir haben ja schon darüber gesprochen, dass eben so eine KI-Kennzeichnung, wie sie zum Beispiel auch andere Plattformen durchaus ja auch diskutiert haben oder sich eben entschieden haben. Ich glaube, dieser ist es, die die KI-generierten Songs einfach generell ausgeschlossen haben. Also es gibt ja auch andere Wege.
Caspar:
Naja, also es hätte auf alle Fälle ein kleines bisschen WTF-Potenzial gehabt. Wir haben uns trotzdem für Update entschieden, weil das Thema ja schon mehrfach bei uns jetzt vorkam im Podcast. Und weil es einen anderen WTF-Kandidatin und Kandidaten gab, der sich vorgedrängelt hat. Du hast es gerade schon erwähnt, Mickey Mouse ist heute unser WTF. Und wir gucken mal rein, was uns da in dem Fall mit einem Fragezeichen im Gesicht zurückgelassen hat.
Jingles:
WTF?
Stella:
Ja, es ist nicht Mickey Mouse direkt.
Caspar:
Ja, nee, der Mutterkonzern Disney. Genauer gesagt Disneyland und zwar Disneyland in Kalifornien in den USA. Dort wird eine neue Technologie eingesetzt und das ist eine Technologie, die ich jetzt nicht unbedingt sofort mit Disneyland verbunden hätte, nämlich Gesichtserkennung. Worum geht es da in Kalifornien? Warum wird da am Eingang mein Gesicht gescannt?
Stella:
Also in bestimmten Eingangsbereichen, ich weiß nicht, ob ihr zum Beispiel auch vor Konzerten oder im Stadion diese Schlangen kennt. Da stellt man sich ja immer an und da gibt es zum Beispiel diese Drehkreuze, wo man durchkommt, Tickets scannen. Und eben in solchen bestimmten Planes dann genannt, da wird teilweise Gesichtserkennung eingesetzt. Das heißt, was passiert da? Eine Kamera erfasst eben die Wartenden und dann soll mit biometrischer Technologie diese Aufnahme dann zu numerischen Werten gemacht werden und schließlich vergeglichen werden mit einem Bild, was erstmals bei der Ticketnutzung aufgenommen worden ist. Und damit soll dann eben festgestellt werden, ob jemand quasi mit dem Ticket schon den Park betreten hat.
Caspar:
Ja, also im Grunde, Disney sagt offiziell, es geht darum, quasi noch mehr Daten zu erheben, weil wenn man das Gesicht abscannt und zweimal mein Gesicht sieht, einmal beim Konzert und einmal beim Eintritt in den Park oder meinetwegen auch bei verschiedenen Fahrgeschäften, dann weiß man ja viel besser, was ich den Tag über so gemacht habe, als wenn man das, weiß ich nicht, irgendwie gar nicht erheben würde oder nur die Zahlen vom Konzert irgendwie, wie viele Leute durch das Drehkreuz durchgegangen sind. Aha, interessant.
Stella:
Genau, aber bei Disney, so wie es in den Berichten steht, zum Beispiel von der LA Times, ist es wirklich nur am Eingang. Also die gucken jetzt nicht, weiß ich nicht, wie oft du Achterbahn gefahren bist und wie viel Eis du gegessen hast. Gut, also so ist der aktuelle Stand. Es geht wirklich um das Eintreten, also das in den Park kommen, damit man eben sieht, zu wem das Ticket gehört. Und es gibt auch die Option, eben eine Schlange zu nehmen, wo nicht, also eine Warteschlange, wo nicht diese Gesichtserkennung genutzt wird. Und das Wichtige ist, da wird auch ein Foto gemacht. Das hat die LA Times geschrieben. Link in Shownotes. Und deswegen haben wir das Ganze auch zum WTF gemacht. Weil, wir müssen uns nochmal kurz verbildlichen, was passiert da. Es gibt jetzt erstmal, wie gesagt, eine Aufnahme. Biometrische Technologie verarbeitet das. Numerischer Abgleich mit bestehendem Bild, was ja logischerweise dann auch numerisch verarbeitet werden musste. Und wenn da alles tuti ist, wenn alles stimmt, dann werden eben diese Werte nach 30 Tagen gelöscht. Gibt es irgendwie rechtliche Gründe oder einen Bedarf zum Schutz vor Betrug? Sprich, war einfach gesagt, wahrscheinlich, wenn die Bilder nicht übereinander stimmen, dann gilt diese Löschfrist nicht. Welche dann gilt, kann ich auch leider nicht sagen. Das habe ich nicht herausgefunden. Und das WTF ist eben einmal die Verarbeitung der Daten in dieser Gesichtserkennungssoftware.
Caspar:
Ich gehe in den Freizeitpark, um da Spaß zu haben. Und plötzlich wird in mein Gesicht gescannt und abgeglichen und landet in einer Datenbank. Und ja, natürlich, Disney sagt, dass es, wenn alles in Ordnung ist, nach 30 Tagen die Daten gelöscht werden. Außer es gibt rechtliche Gründe und einen Bedarf zum Schutz vor Betrug. Ja, wer legt das fest? Disney? So, und das ist alles so ein bisschen, also ich verstehe den Grundgedanken, dass man irgendwie sagt, okay, das ist einfacher, dann abzugleichen, was die Leute irgendwie machen, dann haben wir bessere Daten, Daten sind immer gut und wichtig, dann kann man auch besser abschätzen, wie so Konzerte angenommen werden, Fahrgeschäfte werden jetzt noch nicht eingescannt, aber am Eingang und solche Dinge. Aber doch nicht mit Gesichtserkennung. Also da finde ich die Verhältnismäßigkeit schlicht und ergreifend nicht gegeben. Da ist dann, wenn da biometrische Sachen draufgelegt werden, das ist mir dann schlicht und ergreifend zu viel. Deswegen finde ich, das ist schon ein echter WTF-Moment, dass man bei Disney jetzt durch Gesichtserkennung quasi durchläuft, wie in so einem schlichten Sci-Fi-Film.
Stella:
Jetzt muss ich aber auch fairerweise sagen, es gibt ja auch die Alternative, da wird auch ein Bild gemacht. Und das ist zum Beispiel, ich habe mal geguckt, wie ist es in anderen Disneylandern, sagt man das so? In anderen Disneylandern?
Caspar:
Die Disneylandern, ja.
Stella:
Disneylandern in Paris. Da wird auch am Eingang ein Bild gemacht und das wird dann nach einer Woche gelöscht. Und auch nichts irgendwie, die Mitteilung dazu ist nicht datiert, aber steht drin, nicht über Gesichtserkennungstechnologie irgendwie verarbeitet. Und jetzt musste ich mal so zurückdenken, als ich ein Kind war. Im Zoo. Da weiß ich, hatte ich eine Jahreskarte. Und ich bin mir relativ sicher, dass die damals auch ein Foto beim Erstellen dieser Karte gemacht haben. Und immer, wenn man durch diesen Scanner quasi gegangen ist, muss man auch so gerade in so eine Kamera gucken. Und dann stand da ein Mensch am Drehkreuz und hat halt gesagt... Ist das Kind, ist der Erwachsene. Das ist nämlich der Punkt. Das funktioniert und das schreibt auch Disneyland Kalifornien da. In der quasi nicht biometrischen Verarbeitung guckt ein Mensch auf das Bild.
Caspar:
Und da fallen keine Daten an.
Stella:
Also schon Daten im Sinne von, du hast ja zwei Fotos.
Caspar:
Genau, aber das eine Foto wird wahrscheinlich direkt wieder gelöscht und die Person guckt da drauf und sagt, ja, das ist es oder nicht. Bei so einer Gesichtserkennung werden biometrische Daten erhoben, 30 Tage gespeichert und jetzt nehmen wir nur mal den Fall, ich wäre ein Hacker oder eine Hackerin und würde an diese Daten rankommen. Also das meine ich eben halt auch mit Verhältnismäßigkeit. Wenn man Daten sammelt, dann muss das ja auch irgendwie einen Grund haben und nur um am Eingangsbereich ein bisschen besser, schneller abarbeiten zu können, müssen nicht personenbezogene Daten, sowas wie Gesichter oder sowas da irgendwie liegen. Das sagen übrigens, das sage nicht nur ich, das sagen auch Datenschützerinnen und Datenschützer, die kristillieren das auch, weil diese Nutzung aufgrund von Persönlichkeitsrechten unter anderem ein großes Problem ist und eine Auswirkung schlicht und greifend auch auf die Gesellschaft hat, wenn jetzt schon in einem Freizeitpark eine Gesichtserkennung kommt, wo geht das dann als nächstes los?
Stella:
Auch aus Sorge vor Diskriminierung, weil es zum Beispiel bei diesen biometrischen Software so sein kann, dass beispielsweise People of Color benachteiligt werden und nicht gut erkannt werden.
Caspar:
Genau, weil die Erkennung schlechter ist. Weil wir da Bias in den Daten haben und solche Dinge.
Stella:
Und das ist ein Problem, was real ist. Und gleichzeitig finde ich, zeigt das auch, also in Paris funktioniert es ja einfach mit Foto. Offensichtlich wahrscheinlich Mensch guckt drauf und man löscht das nach sieben Tagen. Warum brauchen wir jetzt in Kalifornien 30 Tage und biometrische Verarbeitung? Wollen wir die Menschen ersetzen, die da drauf gucken und uns die Personalkosten sparen? Wollen wir unbedingt diese Daten erheben, weil wir dann irgendwann doch mehr damit machen wollen? Das sind halt Fragen, die mir dazu so im Kopf schwirren. Und dementsprechend bin ich da bei dir, Caspar, also warum man jetzt im Disneyland biometrische Software am Eingang braucht und nicht, dass es fotoreich, das kann ich jetzt nicht sagen.
Caspar:
Naja, und das passt ja auch zu der politischen Situation in den USA, weil ich bin mir relativ sicher, wenn sie das mit Disneyland Paris gemacht hätten, wäre der Aufstrahl von der Politik deutlich höher gewesen. Ich glaube, es gab in den USA keinen. Und die EU hätte da datenschutzrechtlich dann doch noch mal ein paar andere Bedenken gehabt, wenn das jetzt in Paris geschehen wäre.
Stella:
Also, aus diesen Gründen haben wir uns entschieden, dieses Mickey Mouse WTF zu wählen.
Caspar:
So, wie schaffen wir es jetzt von Mickey Mouse zum Input?
Stella:
Du, ich würde sagen, wir machen das ganz hart. Also Leute, wir haben euch versprochen, wir haben was mitgebracht, das könnt ihr ausprobieren. Und wir erklären euch jetzt, warum wir das getan haben, wie Caspar das vor allen Dingen gevibecodet hat und was da eigentlich hinter steckt und ob ihr diesem Hype irgendwie belieben müsst.
Caspar:
Ob ihr dem Hype believen müsst, werden wir jetzt zu beliefern.
Stella:
Das, ich bin sorry, das konnte ich mir jetzt nicht verkneifen.
Caspar:
Okay. Ja, wir haben nach einer ganzen Weile mal wieder für euch einen richtigen KI-Input mitgebracht, weil wir hatten in den letzten Wochen wiederholt so kleine Aha-Momente, so ähnlich wie wir das ja damals schon vor wenigen Wochen oder beziehungsweise Monaten beim KI-Agenten Open Claw hatten, den wir hier ja dann auch vorgestellt haben. Und das sind dann so Momente, wo man KI irgendwie einsetzt und feststellt, warte mal, das ist jetzt dann doch mal was Neues und das könnte relativ groß werden. Und es geht nun um einen Trend, der ja eigentlich inzwischen schon seit Monaten die gesamte Programmier-Szene so ein bisschen auf den Kopf stellt. Die Rede ist vom sogenannten Wipe-Coding, was wir jetzt gerade schon mehrfach erwähnt haben.
Stella:
Ich weiß, es klingt auch jetzt erstmal so ein bisschen nach dem typischen Marketing-Sprech, so das fundamentale Veränderung und wir müssen vielleicht auch gleich erstmal definieren, was Vibe-Coding eigentlich ist. Genau damit steigen wir vielleicht auch ein. Also wir gehen auf die Fragen ein, ist das ein richtiger Umbruch, ist das ein aufgeblasener KI-Hype und haben euch dafür das Beispiel gezeigt. Silicon Weekly, Themen-Nebel mitgebracht. Caspar, was ist das?
Caspar:
Ja, wir haben selber geweibcoded. Bevor wir euch nochmal genau erklären, was Vibecoding ist, schauen wir mal drauf, was wir selber gebaut haben. Weil ich denke, dadurch wird nochmal ein bisschen anschaulicher klar, was das Besondere an dieser Art des Programmierens irgendwie ist. Ihr könnt parallel, weil wir ja ein Audio-Format sind, verpasst ihr quasi auch nichts, wenn ihr jetzt parallel mal den Browser aufmacht und in eure Adresszeile nebula.silicon-weekly.de eingebt, also so wie der englische Nebul, Nebula. Wir schicken euch den Link oder wir packen den euch natürlich auch nochmal in die Show Notes, da könnt ihr auch draufklicken.
Caspar:
So und dann werdet ihr von einer Webseite begrüßt. Ich muss kurz die Story dahinter so ein bisschen erzählen. Wir nähern uns ja jetzt der hundertsten Episode, ich glaube, das ist jetzt die 92. oder 93. Die wir jetzt gerade aufnehmen. Und wir nähern uns auch zum zweijährigen Geburtstag. Das heißt, wir haben schon zwei Jahre irgendwie an News, Trends und Analysen hinter uns. Und selbst wir haben manchmal immer wieder den Moment, wo wir denken, warte mal, wann haben wir eigentlich welches Thema besprochen? Wie hängt nochmal Open Source mit Regulierung zusammen? Und in wie vielen Episoden haben wir eigentlich über Mark Zuckerberg gequatscht? Und genau das soll jetzt der Themennebel so ein bisschen aufdröseln. Und er soll uns helfen, genau diese Fragen zu beantworten. Ihr seht nämlich, wenn ihr diesen Link aufruft, eine interaktive Datenwolke mit verschiedenen Punkten. Jeder dieser Punkte ist ein Thema und die Linien dazwischen sind Verbindungen zwischen diesen Themen. Und wenn ihr wollt, könnt ihr auf einzelne Punkte draufklicken. Dann seht ihr, welches Thema das genau ist. Ihr seht, welche Themen damit eng verwandt sind. Und ihr seht in so einem Pop-up-Fenster, in welchen Episoden das vorkam. Und jetzt kommt nochmal ein extra Bonbon. Ihr könnt auf eine KI-Zusammenfassung klicken. Die wird dann in dem Moment in Echtzeit erstellt und fasst für euch zusammen, wann wir dieses Thema behandelt haben, was wir da besprochen haben und was so der Stand der Diskussion irgendwie damals war.
Caspar:
Jetzt muss man dazu sagen, falls ihr auf irgendwelche kleinen Bugs oder so stoßt, das Ganze ist ein Prototyp, noch mit ein bisschen Ecken und Kanten. Das Design sieht zum Beispiel auf dem Smartphone relativ hakelig aus. Also wenn ihr irgendwie an einem Tablet oder an einem Desktop-Rechner sitzt, ist das irgendwie ein bisschen einfacher. Aber Das ist ein Prototyp und er existiert. Und jetzt kommt das Spannendste. Wir haben ihn nicht selber programmiert. Wir haben ehrlicherweise gesagt nicht eine einzige Teile Code dafür geschrieben. Früher hätten wir für sowas tatsächlich mindestens einen Webentwickler oder eine Entwicklerin gebraucht. Wir hätten ein Budget gebraucht, wahrscheinlich auch nicht zu knapp. Und vermutlich eine Woche bis hin zu Wochen an Zeit. Mit Vibe Coding haben wir das Ganze mit KI geschafft. Die KI hat drei gezielte Nachfragen gestellt, nachdem wir die Idee gegeben haben. Dann hat sie vor sich hingearbeitet, nach 30 Minuten stand das erste Gerüst und nach einer Stunde war die Web-App, so wie ihr sie seht, jetzt ungefähr fertig.
Stella:
Caspar, ich glaube, wir müssen jetzt aber, bevor das dann doch so klingt, so ja, also wir hatten so eine grobe Idee, dann hat sie drei Fragen gestellt, rötelte und das Ergebnis. Tada! Also erstens, du hast ja auch noch nachgeschärft und zweitens, wir müssen jetzt wirklich erstmal erklären, was zum Gaia-Vibe-Coding ist. Ich glaube, an dem Beispiel ist es schon ein bisschen deutlicher geworden, aber wir brauchen jetzt einmal kurz eine Definition.
Caspar:
Ja, also Vibe, ihr merkt es schon, da steckt ganz viel Gefühl mit drin. Also man folgt bei dieser Art des Programmierens eher einem Vibe, statt sich tief in Programm geholt zu runter, reinzuarbeiten und reinzuwühlen. Mit geschaffen hat diesen Begriff unter anderem Andre Capatry, das ist ein Informatiker und ehemaliger führender Entwickler unter anderem bei OpenAI und Tesla und war da für den KI-Bereich zuständig, und wie ihr an unserem Beispiel von dem T-Nabel gesehen habt, schreibt man beim Vibe-Coding eben nicht mehr selbst die ganzen Zeilen code, sondern sagt stattdessen der KI, was man genau bauen möchte und die KI macht dann den Rest für einen.
Stella:
Genau. Das heißt, zum Beispiel, baue mir irgendwie eine App, die meine Ausgaben trackt oder so. Die KI, die schreibt den Code für dich, die steckt dir Lösungen vor und die verbessert auch Fehler automatisch. Das heißt, ihr, könnt ihr euch das vielleicht so ein bisschen so vorstellen, ihr steuert quasi diesen Prozess quasi schon immer durch Feedback, Caspar Sostes ja auch gemacht, aber eben nicht wie ein Programmierer. Das heißt, ihr müsst nicht zum Beispiel sehen, oder ihr müsst beim Vibe-Coding nicht sehen, weil es funktioniert auch ohne. Ob ihr es generell nicht sehen müsst, ist eine andere Frage. Aber beim Vibe-Coding müsst ihr nicht im Code erkennen, ah, das muss ich jetzt anfügen oder das muss ich anpassen, sondern ihr sagt dann zum Beispiel, bei dem Button XY gefällt mir die Farbe nicht, passt das bitte an unser, weiß ich nicht, Markenlogo an oder so. Das heißt, ihr braucht da so gesehen keine Programmierkenntnisse.
Caspar:
Genau. Ein Beispiel. Dieser Datennebel basiert ja auf unseren Transkripten. Und wenig überraschend kommen unsere drei Namen dort sehr oft vor. Deswegen waren wir drei die größten Punkte bei der ersten Version dieses Datennebels. Und das ergibt natürlich überhaupt keinen Sinn. Wir reden ja nicht über uns. Wir kommen da nur drin vor, weil im Transkript ja immer unser Name vor Doppelpunkt steht, vor dem, was wir gesagt haben. Und das habe ich der KI da zum Beispiel gesagt, schmeiß bitte die drei Hosts aus dem Datennebel raus, das ergibt keinen Sinn. Und dann ist die KI in den Code reingegangen, den sie eben geschrieben hatte, hat das selbstständig rausgelöscht und hat mir dann gesagt, jetzt sind die drei Hosts raus, aktualisiert auch die Seite nochmal, guckt mal nach und schwupp waren unsere drei Namen aus diesem Datennebel verschwunden. Das ist so ein Beispiel mit so einem Feedback, wie man dann Stück für Stück arbeitet. Und man ist also eher so ein bisschen, um das zu veranschaulichen, man ist eher so ein Regisseur, der das Ganze steuert, statt Programmierer oder Programmiererin, die das dann vor sich hin programmiert.
Stella:
Ich glaube, jetzt ist auch klar, woher eben dieser Name, dieses Vibe-Coding kommt, weil es eben eine intuitive Arbeit ist. Du probierst aus, du veränderst was, aber du brauchst eben nicht die klassischen Fachkenntnisse eines Programmierers. Was du aber brauchst, ist das passende Tool, zum Beispiel Cursor, Cloud Code von Entropic oder eben OpenAI Codex. Das Problem, das kostet natürlich mitunter, also wahrscheinlich so mindestens 20 Euro im Monat, müsstet ihr kalkulieren. Wenn ihr mal reinschnuppern wollt, die einfachste Variante, aber wirklich sehr, sehr zum Einstieg, Google Gemini ist auch kostenlos möglich mit dem Canvas-Mode. Da habt ihr einfach mal einen Eindruck davon. Also als das neu rauskam, habe ich damals auch ein bisschen rumgespielt, aber wirklich so rudimentäre Geschichten gebaut. Zum Beispiel so ein Code damals, so ein Countdown einfach, der da ablief und sich aktualisiert hat. Bis ich in den Urlaub gefahren bin. Mittlerweile kann man da auch so, ich nenne es jetzt mal so einfache Apps, Quizzes bauen und sich da immer weiterklicken. Das ist aber nicht so etwas Komplexes wie jetzt zum Beispiel der Datennebel.
Caspar:
Gemini ist ein Large Language Model. Das heißt, das ist auf Sprache spezialisiert. Hinter Cloud Code und hinter OpenAI Codecs stehen zwar auch Large Language Modelle, aber die sind auf Programmcode spezialisiert worden und daraufhin trainiert worden. Das heißt, die sind beim Programmieren nochmal eine Spur besser. Bisschen schneller und bauen zum Beispiel auch weniger Programmfehler ein. Aber mit Gemini und auch mit ChatGPT kann man auch schon kleine Programmieraufgaben machen. Das geht natürlich auch. Also man braucht nicht so ein Spezialmodell. Die sind dann halt wirklich, wie gesagt, darauf spezialisiert und deswegen ein bisschen schneller und besser.
Stella:
Aber generell mit Vibe-Coding ohne jegliche Programmierkenntnisse, du findest einen Einstieg. Es macht es also einfacher, da reinzukommen und teilweise auch kostenlos möglich, wie gesagt. Du kommst auch so schneller von vagen Ideen, sagen wir mal, zu Ergebnissen. Also ich meine, Caspar, ich glaube, ohne Vibe-Coding hätten wir uns da bestimmt mehrere Nachmittage hingesetzt und erst mal gesagt, okay, wie könnte das Design der Seite aussehen? Wie gehen wir da überhaupt vor? Wer von uns hat die entsprechenden Skills zum Programmieren? Hätte vielleicht auch ein bisschen Frust mal aufgebracht, Texturden, wir wären nicht weitergekommen, hätten im Umfeld gefragt, hallo, wer weiß hier weiter? Und ich meine so... War das jetzt ehrlich gesagt nur ein Sparrowing zwischen Type Laptop und dir?
Caspar:
Ja, doch, mit dem Sprachmodell von Cloud Code. Und das Interessante war aber, ganz nervenfrei ist das auch nicht, weil ich habe dann zwischendrin noch einen kleinen Fehler beheben lassen und plötzlich funktioniert ja der ganze Datennebel nicht mehr, der ganze Themennebel nicht mehr. Und ich habe dann mal gefragt, was los ist. Und dann hat das Ding festgestellt, dass einfach drei große Dateien nicht mehr im Code vorhanden waren. Und dann habe ich gefragt, was ist denn da passiert? und sagte, ja, beim letzten Update habe ich das wohl scheinbar gelöscht. Also das Ding ist einfach auch kaputt gepatcht. So, und ihm dann zu sagen, dass ich das bitte wieder rückgängig machen soll und Daumen drücken und hoffen, dass nicht alles weg ist, sowas ist dann eben auch Vibe-Coding. Das kann dann halt eben auch passieren, weil, jetzt kommen wir auch so ein bisschen zu den dunklen Seiten, das ist nicht nur alles Friede, Freude, Eierkuchen, das ist halt doch immer noch eine KI und das bringt doch auch noch ein paar Sachen mit, die irgendwie Nachteile haben, Und ihr könnt euch vorstellen, wir können uns jetzt nicht hinstellen und können sagen, super, wir können jetzt alle Vibe-Coding, wir brauchen keine ProgrammiererInnen mehr. Wir können jetzt alles in kurzer Zeit selber entwickeln, denn es gibt da so einen Preis, den man bei Vibe-Coding bezahlt, der auf der normalen Rechnung des Monatsabos nicht so unbedingt mit draufsteht.
Stella:
Also, ein Beispiel zum Beispiel. Ein Beispiel zum Beispiel. Auch gut. Also, Caspar, du hast ja auch gesagt, man kann das Ganze, was du geweibcoded hast, über eine Website aufrufen. Und die hat, soweit ich weiß, nicht Cloud Code gemacht, sondern da warst du ja dann wieder dran beteiligt.
Caspar:
Genau.
Stella:
Deswegen, man braucht schon technisches Grundverständnis aus verschiedenen Gründen.
Caspar:
Also das musste jetzt bei uns auf die Webseite gehoben werden. Es musste für den Link, den ihr anklicken könnt, musste ein DNS-Eintrag erstellt werden. Also wer sich damit auskennt, weiß, worum es geht. Ich will euch nicht in die Details vertiefen, aber ohne, dass ich ein gewisses technisches Grundverständnis von Webseiten hätte und wie die funktionieren, hätte ich das auch gar nicht dort hochladen können. Also Cloud Code hat natürlich den ganzen Code übernommen und ich kann das aber auch besser steuern, wenn ich selber weiß, was ich da tue. Aber so eine gewisse Grundkenntnis braucht man halt immer noch. Ich sag mal so, für jemanden, der noch nie irgendwas mit Computern zu tun hat, ist auch Vibe Coding noch nicht fortgeschritten genug, um jetzt sämtliche Ideen umzusetzen.
Stella:
Auch das Beispiel, was du genannt hast. Gut, das war jetzt natürlich plakativ und so auch einfach zu lösen mit den Dateien, die quasi verschütt gegangen sind und du weißt nicht wie, aber es können ja auch Feinheiten sein, die vielleicht schwerer auffallen. Und wenn du gar keinen Bezug zu dem Thema hast, ich meine jetzt einfach mal die Vorstellung, weiß ich nicht, fachfremdes Thema, was du schlecht einschätzen kannst, aber ach, ich baue mal eine App, das geht ja so. Da können sich halt sehr schnell dann auch peinliche Fehler einschließen. Zweites Problem, Blackbox.
Caspar:
Blackboxen, genau. Also, wenn jetzt unser Themennebel morgen abstürzt und nicht mehr funktioniert, dann haben wir insofern ein Problem, als dass wir den Code nicht geschrieben haben. Ihr kennt ihn nicht. Ehrlicherweise, ich habe ja noch nicht mal reingeguckt. Ich könnte jederzeit reingucken, weil er auch auf meinem PC liegt. Cloud-Code hat den da ja hinterlegt. Aber um jetzt zu gucken, wo der Fehler ist, ohne dass Cloud-Code irgendwie da mithilft, müsste ich stundenlang, tagelang, wochenlang irgendwie mich durch den Code durchwühlen und versuchen, den Fehler zu finden. Das heißt, wir bauen da etwas mit KI, was wir im Zweifel selbst gar nicht reparieren und beherrschen können. Das heißt, wir sind vielleicht die BesitzerInnen von diesem Code, aber wir sind auf keinen Fall ExpertInnen oder ProgrammierInnen, die da noch irgendwas dran anpassen können.
Stella:
Das ist auch, finde ich, nochmal ein wichtiger Punkt auch aufzuführen. Was heißt das eigentlich, in welcher Abhängigkeit du dich da zu den Tech-Konzernen gibst? Weil wenn das Tool plötzlich deutlich teurer wird oder vielleicht auch bestimmte Zugänge gekappt werden oder es auch einfach so ist, dass aus irgendeinem Grund es Probleme mit dem Zugang gibt, generell mit der Firma, geht pleite. Es gibt ja zig Varianten, warum du plötzlich keinen Zugriff mehr haben kannst. Und wenn du dann auch mit deinem Cote auf dem Laptop, den du hoffentlich gesichert hast, nichts anfangen kannst, Da hast du ein großes Problem.
Caspar:
Ja, und weil wir den Code auch nicht kennen, wissen wir auch gar nicht, ob jetzt zum Beispiel irgendwelche riesigen Sicherheitslücken im Code vorhanden sind. Also hat die KI im Hintergrund irgendwas eingebaut, was so groß ist wie ein Scheuntor und jeder Hacker und jede Hackerin da irgendwie einfallen kann? Wir wissen es schlicht und ergreifend nicht, weil wir den Code nicht kennen. Jetzt kann man sagen, bei unserem Fall ist das nicht so wild, weil da liegen die Transkripte hinter, die sowieso schon veröffentlicht sind. Das heißt, wir haben nur Daten genommen, die es im Internet sowieso schon gibt. Aber ihr müsst dem unter Umständen blind vertrauen. Und wenn ihr jetzt zum Beispiel eine App baut, in der personenbezogene Daten irgendwie verarbeitet werden, macht das nicht, A, macht das entweder nicht mit Valp-Coding oder B, lasst hinterher jemanden drauf gucken, der, der nicht Ahnung davon hat. Dafür sind diese Dinger schlicht und ergreifend einfach noch nicht da, weil sie eben, wie alle KI-Modelle, Fehler machen können, hannuzionieren können. Und das kann dann unter Umständen, wie gesagt, auch zu Sicherheitslücken führen.
Stella:
Noch nicht da. Jetzt müssen wir auch mal darüber sprechen, ob sie überhaupt jemals so genutzt werden sollten, dass man sich da in eine totale Abhängigkeit begibt. Also Problem Nummer vier. Es ist ja genau das. Ich meine, wir haben jetzt selber Cloud genommen. Du hast Cloud genommen, was an einem Topic dranhängt. Es gibt OpenAI, auch Google als große Player und das sind einfach Login-Effekte. Das muss man sich ja auch vergegenwärtigen. Diese Tools haben ja dann auch nicht in Anführungszeichen nur Vibe-Coding, sondern wirklich ein ganzes Ökosystem, was insbesondere auf digitales Arbeiten auch abzielt. Also sprich auf Wissensarbeit. Wenn wir jetzt natürlich noch auf Industrial AI gucken, das klammern wir jetzt mal aus. Da gibt es ja auch viele Entwicklungen. Aber generell, da läufst du einfach Gefahr. Ich meine, man stellt sich vor, wir haben Gmail, wir haben alles bei Google, Vibe-Coden dann unsere Website mit Google. Das ist ja eine absolute Abhängigkeit von einer Firma, was ganz, ganz viele Risiken mit sich bringen kann.
Caspar:
So, dann haben wir noch ein fünftes und letztes Problem, weil nun sind wir Journalistinnen und haben dafür unseren eigenen Podcast, was vor uns hingeweibt und haben ja etwas gebaut, was euch vielleicht irgendwas bringt und uns ja vielleicht mal auch nutzen, irgendwann mal. Wir werden das ja auch ein bisschen weiterentwickeln. Aber wie das immer so bei der Menschheit ist, es gibt nicht nur gute Menschen in Anführungszeichen. Wenn es einfacher wird, mit KI zu programmieren oder auch zum Beispiel Code zu beleuchten und auf Sicherheitslücken durchzugucken, ihr Arzt schon in welche Richtung es geht, dann können natürlich auch Hackerinnen und Hacker oder sogenannte Script-Kiddies, das ist so eine abfällige Bezeichnung für Leute, die eigentlich auch nicht so wirklich programmieren können, aber sich durch Skripte irgendwie aus dem Internet besorgen und dann irgendwelche Angriffe durchführen. Die sind jetzt mit so Vibe-Coding natürlich noch viel besser aufgestellt als früher. Das heißt, es ist viel einfacher, Sicherheitsleppen aufzuspüren und die auch aktiv auszunutzen. Das heißt, Vibe-Coding kann man auch wieder mal für was Gutes, aber eben auch für schlechte Dinge einsetzen.
Stella:
Und vielleicht nochmal ausführlich zu dem letzten Problem hat The Verge auch einen ausführlichen Artikel veröffentlicht, gibt es in den Shownotes. Das klingt ehrlich gesagt, wenn wir jetzt zum Fazit kommen, gerade der letzte Punkt auch so ein bisschen nach ganz gefährlicher KI-Dystopie. Ich stelle mir gerade vor, wir bauen irgendwie Websites, Anwendungen und unser Leben ist ja auch immer mehr anwendungsbasiert. Ich meine, wie viele Apps habe ich auf meinem Handy, die ich tatsächlich brauche tagtäglich? So, weil sonst wird es deutlich unbequemer. Also sprich, wenn ich auf der einen Seite dann plötzlich gevibecodete Apps habe... Dann aber vielleicht HackerInnen, die nichts Gutes im Schildes führen, die auch nicht so richtig Ahnung haben, aber eins greift ins andere. Sprich, KI kommuniziert irgendwie mit KI, wo führt denn das hin? Also, schwierig.
Caspar:
Aber generell gibt es auch noch eine Frage, die wir bisher noch völlig ausgeklammert haben, die aber natürlich auch noch wichtig ist. Was ist denn mit Programmiererinnen und Programmierern in Zukunft? Brauchen wir die noch? Weil Vibe Coding ist ja schon etwas, was auch in diesem Bereich für eine Veränderung sorgen wird. Und aktuell ist die ganz klare Antwort auf die Frage, ob wir jetzt Programmiererinnen und Programmierer abschaffen können, ein Nein, definitiv nicht. Wir haben es ja ein bisschen schon anklingen lassen, auch bei den Problemen. Was klar ist, ist glaube ich, dass Vibe Coding die Rolle dieses Jobs verändern wird oder auch schon verändert. Das heißt, Profis, die sich wirklich auskennen, die werden durch die neuen Tools vielleicht ein bisschen schneller, weil die in Arbeit abgenommen wird. Und auch die werden eher so zu Architekten von Softwareprojekten und Architektinnen. Ihr großer Vorteil ist, sie verstehen aber auch den Code und sie verstehen, was dahinter passiert. Das heißt, sie können auch jederzeit reingucken und können das nachvollziehen, können im Zweifel eingreifen, sehen vielleicht auch, wenn da Sicherheitslücken entstehen. Das heißt, für die Profis ist das ein sinnvolles Werkzeug. Für uns Amateurinnen und Amateure, die da irgendwie vor sich hin vibecoden, ist das eher so ein bisschen wie Autofahren, ohne großartigen Führerschein zu haben. Die Programmiererinnen und Programmierer haben den, die kennen sich aus, die wissen, wie das funktioniert.
Stella:
Naja, wobei ich würde schon sagen... Dass wir vielleicht schon eher mehr kleine individuelle Tools auch bekommen, sei das jetzt irgendwie auch ein Unternehmen, hoffentlich mit entsprechenden Sicherheitsmaßnahmen. Aber wenn ich mir jetzt vorstelle, in wirklich einem begrenzten, vielleicht auch privaten Kontext, habe ich irgendwie eine App, mit der ich auch Spaß habe, die ich programmiere, in Anführungszeichen, die Vibe-Code, das ist der passende Begriff. Es kann ja auch, wie du sagst, Spaß machen, solange eben der Rahmen stimmt und da keine persönlichen Daten vor allen Dingen drin sind.
Caspar:
Genau, das ist auch unser Rat an euch. Wenn ihr ein gewisses technisches Grundverständnis habt und euch damit noch gar nicht auseinandergesetzt habt, aber ihr vielleicht zum Beispiel, und das ist das, was bei mir auch so ein kleiner Haar-Moment ausgelöst hat, ich habe immer mal schon im Hinterkopf so drei, vier kleinere Ideen gehabt, wo ich gesagt habe, es wäre cool, wenn ich programmieren könnte, dann würde ich das vielleicht mal umsetzen. Und die vergangenen Jahre ging das immer nicht, weil ich keine Zeit hatte, jetzt auch noch programmieren zu lernen. Wann sollte ich das auch noch machen? So, das war immer so eine große Lücke. Und irgendwann habe ich mir vorgenommen, irgendwann mal Urlaub, weiß ich nicht, wie heißt das, Bildungsurlaub und solche Dinge, vielleicht machst du es irgendwann mal. Jetzt konnte ich innerhalb von kürzester Zeit zwei oder drei von diesen ganzen Projekten, die ich im Hinterkopf hatte, einfach umsetzen. Und das halt in Windeseile, weil das eben ganz kleine Projekte waren, wo keine sensiblen Daten irgendwie drin waren. Und ich auch nicht Lust habe, jetzt zum Beispiel eine App in den App Store zu bringen und die zu verkaufen oder irgendwie solche Dinge. Das heißt, wenn ihr euch so ein bisschen damit auseinandersetzen wollt, macht das, probiert das mal aus, nehmt mal eure Ideen, setzt die irgendwie mal um, abonniert mal für einen Monat irgendwie eins dieser Programmiertools von OpenAI, ChatGPT, Codex, CloudCode, Gemini und wie sie alle heißen. Baut zum Beispiel eine kleine Inventur-App für eure Bücher oder was auch immer. Baut euch ein Datendashboard, wo eure Heimautomation, ob das Fenster offen ist oder nicht, irgendwie auftaucht. Baut eine Visualisierung von Daten, die ihr rumfliegen habt. Tobt euch aus, probiert es mal aus und guckt mal, was ihr da vielleicht mit erreicht und vielleicht auch, wo die Grenzen liegen von dem ganzen Ding.
Stella:
Und wo du es gerade gesagt hast, also bevor ihr quasi Geld in die Hand nehmt, gerade hier dieser Canvas-Mode von Google Gemini kostenlos, könnt ihr mit einsteigen und wenn ihr da schon merkt, oh, das geht mir vollkommen ab, ich glaube, dann wird das auch das nächste Tool, was in Anführungszeichen professioneller und tiefer ist, nicht unbedingt lösen oder auch sowas, wie Caspar gesagt hat, Visualisierung etc. Etc. Quasi so ein bisschen das Excel-Sheet lebendig machen, da auch mal im Vergleich durchaus ein Bild generieren lassen. Das geht ja auch teilweise in den Tools dann Hand in Hand. Was wir euch damit sagen wollen, es sind auf jeden Fall spannende Entwicklungen. Und wir würden sagen, hey, guckt euch das einfach an, damit ihr auch da den Anschluss nicht verliert. Und hört natürlich immer Silicon Weekly, damit ihr auf dem Laufenden seid. Kleiner Werbeblock.
Caspar:
Und guckt bei nebula.siliconweekly-weekly.de mal vorbei, wie wir gerade schon gesagt haben, falls ihr es nicht eben schon getan habt. Und schreibt uns auch gerne, was ihr davon haltet und an welchen Stellen ihr es verbessern würdet. Wie gesagt, seid gnädig. Das Ganze ist in einer Stunde entstanden.
Stella:
Aber kritisch.
Caspar:
Seid geniglich aber kritisch. Und schreibt uns vor allem auch, ob das vielleicht mit neuen Funktionen einen Mehrwert für euch bieten würde. Weil die Grundidee, dass wir jetzt schon ziemlich viele Folgen haben und so ein bisschen die Themenvielfalt zunimmt, da kann man ja sicherlich was draus bauen. Ja, und ich würde sagen, wir haben sicherlich noch ein, zwei weitere Ideen und gehen jetzt noch ein bisschen Vibe-Coding und bauen auch den Themennebel in den nächsten Wochen noch ein bisschen aus.
Stella:
Caspar, sofort. Aber vorher haben wir noch eine gute Nachricht. Und ich glaube, die wäre auch ganz gut, weil die würde auch ganz gut so zu unserem Update passen.
Caspar:
Die würde ich nicht unterschlagen.
Jingles:
Gute Nachricht.
Stella:
Wir sind ja eingestiegen mit dem Thema Kennzeichnung bei Spotify, wo wir auch überlegt hatten, ob das WTF-Potenzial hat. Da ging es ja um menschliche KünstlerInnen, wo dann eben ein Button dahinter gesetzt werden soll. Und wir bleiben jetzt in der, nicht Musikszene, aber in der Kreativbranche und haben dazu nämlich eine gute Nachricht mitgebracht. Wir wechseln mal kurz von Musik zum Film und die eigentliche Nachricht lautet, ab 2027 können nur noch Menschen einen Oscar bekommen. Für die 99. Preisverleihung hat nämlich die zuständige Filmakademie das so festgelegt und für eine Rolle nominiert werden kann, indem dann nur, wer ein Mensch ist. Und wichtig, auch die Drehbücher müssen von Menschen geschrieben sein, wenn sie sich eben für den Preis qualifizieren wollen.
Caspar:
Die Akademie schreibt auch in der Mitteilung, sie behalte sich vor, im Zweifelsfall weitere Informationen bezüglich der menschlichen Urheberschaft quasi einzufordern. Also falls da irgendwie unklar ist, oh, hat er da jetzt wirklich nur ein Mensch das Drehbuch geschrieben, dann will man das irgendwie noch überprüfen. Und jetzt, warum ist das eine gute Nachricht? Naja, wir haben ja gerade über das Musikthema gesprochen und Spotify und haben da ja auch gerade kritisiert. Irgendwie ist dieses Label irgendwie komisch. Eigentlich soll das so halb ein Gütesiegel sein und irgendwie halb nicht. Und gerade ja im Musikbereich stehen viele Künstlerinnen und Künstler einfach unter Druck, weil da eine riesige Schwämme kommt. Das mag im Filmbereich noch nicht so gravierend sein. Auch wenn es die ersten KI-Filme gibt, hat KI da noch viele Probleme. Bei Musik merkt man es schlicht und ergreifend nicht mehr. Und auch bei Film und Serien werden wir an den Punkt kommen, wo irgendwann auch aus einer Idee eine komplette Serie werden kann. Das heißt, Hollywood steht auch kommunal unter Druck und es ist eine gute Idee, kreative Menschen und Künstlerinnen dadurch zumindest so ein bisschen zu unterstützen oder zu schützen, dass sowas wie Preisverleihung wie Oscars in Hollywood in Zukunft halt nur noch wirklich von Menschen dann gewonnen werden können, wenn man das mit Blick der Künstlerinnen und Künstler sieht.
Stella:
Ja, ich finde schon, dass das so ein klares Statement eigentlich für diese menschliche Urheberschaft eben ist und dass da auch eine klare Grenze gezogen wird zu KI-generierten Inhalten. Also auch das sehe ich positiv, dass da auch einfach diese menschliche Arbeit und damit hier offensichtlich auch die Relevanz und die Leistung von SchauspielerInnen gesehen wird, dass sie zum Beispiel sich nicht einfach quasi durch rein KI-generierte Avatare ersetzen lassen. Und ich glaube schon, dass das für die Branche generell eine gute Sache ist und ich habe mich ehrlich gesagt auch gefragt, warum zum Geier, Soll KI einen Preis bekommen, so nach dem Motto.
Caspar:
Ja, vor allem wer da dran. Also wir haben ja auch bei dem Vibe-Coding gerade schon gesagt, ich habe das nicht programmiert, sondern die KI hat es programmiert. Also wir haben das jetzt natürlich veröffentlicht, weil das auch auf Grundlage unserer Daten läuft und meine Arbeit ist, die KI angesteuert zu haben, aber das ist nicht preiswürdig. Also ich würde diesen Themennebel niemals irgendwo einreichen, schlicht oder ergreifend, weil die größte kreative Schaffensart, das ist auch in Anführungszeichen, weil es ist eine Maschine, die das gebaut hat, kein Mensch, kein Lebewesen, kein Wesen mit Verstand und Kunstgedanken, das zusammen programmiert hat. Und deswegen, also so ein KI-generierter Film, man kann darüber reden, meiner Meinung nach, und das kann man vielleicht auch mal diskutieren, ob das so eine Art Special-Effect-Kategorie vielleicht mal sein könnte, weil in dem Bereich wird KI sicherlich gewisse Dinge ablösen. Aber jetzt zum Beispiel, weil es ja ganz explizit auch ist, dass die beste Schauspieler- und Schauspielerin-Kategorie jetzt nicht an die KI gehen können. Also KI-generierter Schauspieler wird erstmal nicht die Oscars gewinnen und das halte ich insgesamt für eine gute Nachricht.
Stella:
Also ich kann es mir auch nicht vorstellen, kriegen dann so drei Leute quasi einen Preis verliehen, weil sie programmiert haben, was die KI macht. Und wie kann ich dann auch als zuschauende Person damit relaten? Also ich meine, die Oscars hängen ja auch daran, dass allein wie es da um Kleidung geht, um die Dresses, die getragen werden. Da ist ja, ich finde, da muss man auch anerkennen, da ist ja eine ganze Maschinerie drumherum. Also das sind ja auch teilweise Leonardo DiCaprio. Wie lange hat der auf seinen Oscar hingearbeitet?
Caspar:
Ach du meinst, wenn der jetzt keinen gehabt hätte und vorher eine KI schon einbekommen hätte, ja? Das wäre, ja.
Stella:
Ich habe tatsächlich daran gedacht, du, also auch aus Sicht von produzierenden Firmen, von Filmfirmen, Leute sind da auch daran interessiert, weil sie mit ihrem Lieblingsschauspieler mitfiebern, weil sie sich Interviews mit der Person angucken. Also Filmbranche lebt da auch sehr viel von, es menschelt. Ich finde die Person interessant, die spielt gut.
Caspar:
Und was KI halt nicht kann, was immer sein. Also jetzt kann man natürlich argumentieren, es gibt ja auch gute KI-Kurzfilme. Ja, aber die Kreativität kommt da von den Menschen, die das gemacht haben und das angeleitet haben und entstehen lassen haben. Eine KI, und jetzt kommen wir in eine große Kunstdiskussion, die ich jetzt nicht groß aufmachen möchte, die dann irgendwann abdriftet, aber eine KI kann nur reproduzieren, sie kann nur Sachen kopieren und unter Anleitung vielleicht was schaffen, aber da ist das Schaffende dann, wie gesagt, der Mensch. Das heißt, was Künstlerisches kann von einer KI schlicht und ergreifend nicht kommen. Und wir müssen auch aufpassen, für die Studios ist das natürlich unter Umständen, da sind wir wieder bei Effizienz. Wenn jetzt zum Beispiel eine KI ein richtig gutes Drehbuch schreibt und in Zukunft die ganzen Serien, Serien werden ja sowieso nicht unbedingt immer besser teilweise, wenn jetzt eine KI das alles übernimmt, dann ist das viel günstiger als diese doofen Autoren und Autorinnen, die auch noch streiken und mehr Geld haben wollen. Und dann ist es natürlich schlecht, wenn die Branche dann sagt, ja komm, dann ist uns das auch egal. Insofern ist das auch für die zum Beispiel Autorinnen und Autoren eine gute Nachricht, dass die Oscars jetzt zum Beispiel sagen, ja, ihr könnt gerne mit KI drehbücher schreiben, aber einen Preis gewinnt ihr dann halt nicht mehr.
Stella:
Wir haben das jetzt ausgeführt, Caspar hat recht. Vielleicht gehen wir noch ein bisschen Vibe-Coden oder gehen eines Tages nochmal in einem Input darauf näher ein, falls euch das auch interessiert.
Caspar:
Das KI-Thema ist eine Sonderstaffel. Das ist, KI und Kunst ist kein Input mehr. Das ist schon, ja.
Stella:
Eine Sonderstaffel. Okay, ich merke, wir müssen nicht nur im Vibe-Coding bestimmte Sachen umsetzen, sondern vielleicht auch noch mal in unserer inhaltlichen Planung so ein paar Specials und so. Aber da müssen wir uns erstmal nochmal besprechen. Ihr schaltet einfach nächste Woche wieder ein. Dann haben wir wieder Tech News für euch. Diesmal wird es dann nicht um, oder nächstes Mal wird es dann nicht um Vibe-Coding gehen. Und wir danken euch fürs Zuhören. Es war uns wieder eine Freude. Und ja, bis nächste Woche.
Caspar:
Bis dahin. Macht's gut und viel Spaß beim Coden.
Stella:
Tschüss.
Caspar:
Tschüss.
Jingles:
Das war's schon wieder für diese Woche. Folgt oder abonniert uns gerne in eurer Podcast-App und lasst uns dort eine Bewertung da. Das hilft uns sehr. Bis zum nächsten Mal.