Elisabeth L'Orange - KI im Marketing: Was erwartet uns?
Shownotes
Elisabeth L'Orange taucht mit Till in die Welt der generativen KI ein. Mit ihrem Startup Oxolo hat sie bahnbrechende KI-gestützte Marketingvideos entwickelt – bis der European AI Act das Geschäftsmodell komplett ins Wanken brachte. Wir besprechen, warum Europa Gefahr läuft, im globalen KI-Rennen den Anschluss zu verlieren. Wo steht generative KI wirklich, und warum ist Video so eine harte Nuss? Wir geht es mit KI im Marketing weiter? Kommt jetzt die Hyperpersonalisierung und das Ende der Kampagne? Außerdem besprechen, ja verreissen wir den neuen Coke-Weihnachtsspot.
Shownotes:
Elisabeths Podcast "Tech & Tales:" https://open.spotify.com/show/7ffnraZLSBKW98Cff3RXSw?si=67b1a0bce3a74cc7
Die Idee von Oxolo: https://www.oxolo.com/solutions/video-creator/
Das Buch "Generative KI in Marketing und Sales": https://www.amazon.de/Generative-K%C3%BCnstliche-Intelligenz-Marketing-Sales/dp/3658451319
Der neue Coke-Weihnachtsspot: https://www.youtube.com/watch?v=4RSTupbfGog
Elisabeth auf LinkedIn: linkedin.com/in/lislorange
Till auf LinkedIn: linkedin.com/in/till-uhrig-4204b8198
Jobs bei Territory: https://karriere.territory.de/
Transkript anzeigen
So, es ist höchste Zeit für eine neue Folge 101.
Schön, dass ihr dabei seid.
Mein Name ist Till Uhrig.
Ich arbeite als Kreativdirektor bei der Agentur Territory in Hamburg.
Und an dieser Stelle unterhalte ich mich regelmäßig mit den interessantesten Menschen aus, so dem Kosmos, Agenturen, Marketing und Kommunikation.
Mein Gast heute ist Elisabeth Lorange.
Elisabeth ist eine der spannendsten Figuren der deutschen Tech- und KI-Szene, kann man sagen.
Ihr könnt sie regelmäßig als Keynote-Speakerin auf verschiedenen Konferenzen, wie zum Beispiel den OMR, oder auch als Co-Host ihres Podcasts Tech & Tales erleben.
Das Manager-Magazin zählt sie zu einer der Top 15 Women in AI.
Und auch auf LinkedIn ist sie eine starke Stimme aus der Tech-Welt.
Mit ihrem Startup Oxolo hat sie eines der spannendsten Geschäftsmodelle im Bereich generative Video-KI auf die Beine gestellt, das so richtig Fahrt aufgenommen hat, bevor, das muss man leider so drastisch sagen, der neue European AI Act dieses Geschäftsmodell im Herbst dieses Jahres gekillt hat.
Mit ihr will ich, nicht nur aufgrund dieser Erfahrung, darüber sprechen, was sie über die Entwicklungsperspektiven für KI in Deutschland und Europa denkt.
Und wir wollen natürlich auch über die Rolle und die Zukunft von generativer KI in Marketing und Kommunikation sprechen.
Denn Elisabeth hat gerade auch einen Fachbeitrag im gerade erschienen Buch Generative KI in Marketing und Sales mit verfasst.
Herzlich willkommen, Elisabeth.
Vielen Dank, dass ich da sein darf.
Inwieweit ist denn eigentlich dein persönliches Leben durchdrungen von KI mittlerweile?
Hast du alles schon komplett von Assistenten und Bots regeln in deinem Leben?
Oder wie sieht das aus?
Nee, I wish, ehrlich gesagt.
Ich wünsche, die künstliche Intelligenz wäre soweit, dass das ginge.
Es gibt tatsächlich Ads momentan von den Robots von Elon, die Frauen beim Shoppen helfen.
Ich finde, das ist ein sensationeller Use-Case, so einen Robot hinter sich herlaufen zu haben, der einem die Sachen rumträgt.
Achso, hinter einem herlaufen, okay.
Ja, ja.
Also es gibt viele Anwendungsfälle, glaube ich, auf die man noch nicht kommt.
Aber die sich mit der Zeit entwickeln werden.
Und so in deinem Geschäfts- und persönlichen Leben, ich meine, wir alle nutzen jetzt Chat-GPT rauf und runter und vielleicht mal Mid-Journey, um irgendwie ein LinkedIn-Bild zu generieren.
Hast du irgendwelche speziellen Tools oder sagst du, das ist alles noch nicht so weit, dass es wirklich gut benutzbar ist?
Gibt es da was, was du nutzt?
Ja, klar, ich nutze auch Chat-GPT vor allen Dingen, aber ich habe ganz viele eigene GPTs erstellt.
Das heißt, meine eigenen Daten hochgeladen und dann kleine Chat-Bots für kleine Anwendungsfälle gemacht.
Ja, das heißt, glaube ich, das ist einer der most underrated Use-Cases tatsächlich, dass man, wenn man die personalisiert, werden die halt so viel besser.
Und auch gerade für Firmen, wenn die ihre eigenen Sachen da hochladen und dann dafür spezifisch Chat-Bots generieren.
Das heißt, wenn man Marketing auf spezielle oder spezielle Personen targetieren möchte, kann man für die erstmal ein Chat-Bot erstellen und dann mit denen kommunizieren.
Und dann basieren darauf die Ads generieren und die Copy und die Assets und so.
Und es ist ja auch relativ leicht, das selbst zu machen, habe ich festgestellt.
Ich habe auch jetzt gerade für den Podcast, für die Kommunikation dieses Podcasts, einen GPT erstellt, dass der einfach meinen Stil lernt, wie ich auf LinkedIn so schreibe und wie ich auch moderiere und so weiter.
Und hat mir so einen Podcast-Assistenten-GPT quasi gebaut, alles gefüttert, weil es gibt ja irgendwie jetzt schon 44 Folgen, nein, 42 Folgen, die man da reinfüttern kann und dann lernt es.
Und das finde ich schon sehr, sehr praktisch.
Ja, eine Freundin von mir arbeitet in HR und vor schwierigen Gesprächen erstellt sie eine Persona von der Person, mit der sie das Gespräch haben wird, um dann sich direkt auf die Argumente vorzubereiten und das funktioniert hervorragend.
Das ist spannend.
Du hast ja ein Startup mitgeleitet, das sehr hoch dotiert war quasi, das auch gut Geld geraced hat und sehr vielversprechend war.
Kannst du ein bisschen erklären, was das Geschäftsmodell von Oxolo war?
Also wir haben vor ungefähr vier Jahren, ein bisschen weniger, haben wir Oxolo gegründet und haben mehrfach pivotiert, aber die Basis oder Core-Technology war immer, digitale Menschen zum Sprechen zu bringen.
Das heißt, dass wir Menschen geschutet haben im Studio, haben daraus Avatar gemacht, das gleiche, was HeyJen jetzt macht und Synthesia macht.
Und darauf basierend haben wir Marketing-Videos gemacht, beziehungsweise Produkt-Videos.
Das heißt, du konntest bei uns den Link eines Produktes eingeben und die KI hat mit dem Link ein komplettes Marketing- oder Werbevideo dann für das Produkt gemacht.
Das heißt, die KI hat die Texte gescraped des Produktes, die Assets, die Fotos, hat den Kontext verstanden, hat auch die Bewertung zum Beispiel gerankt.
Also das heißt, nur die positiven Bewertungen sind inhaltlich mit eingeflossen in die Texte und das Ganze wurde dann komponiert oder zusammengestellt in einem Video, in dem ein Avatar, also wie gesagt der Mensch, dann das beworben hat.
Und damit haben wir eben diese Videos automatisch produziert, haben Millionen an Videos produziert, die dann eben auf den jeweiligen Online-Shops hochgeladen wurden und dort für mehr Conversion gesorgt haben.
Das heißt, ihr habt Schauspieler abgefilmt oder Models abgefilmt und die haben dann quasi so ein Talking-Head erstmal mit dir gesprochen und dann wurden Produktshoots eingeblendet oder kontextuelles Video so wie Stock-Footage oder habt ihr auch mit komplett generiertem Video dann dazu gearbeitet?
Nee, weil dieses generieren, wirklich das generieren, generieren von Video ist noch viel zu teuer.
Also das heißt, da wird jeder Pixel aneinander gereiht und dann gibt es eine Wahrscheinlichkeit, welcher Pixel quasi als nächstes kommt, deswegen, die Systeme sind auch noch nicht stabil genug, also die meisten fangen an zu halluzinieren nach so einer Minute oder anderthalb.
Selbst OpenAI hat kein so stabiles Model, das über Minuten hinweg sehr guten Videocontent generieren kann, das ist noch super komplex.
Und natürlich haben wir das nicht gemacht, das wäre viel zu teuer gewesen.
Aber wir haben eben diese, wenn du so möchtest, war es ein Talking-Head und eine Slideshow hinterher, das ist alles animiert.
Und natürlich war das jetzt keine High-End-Videoproduktion, aber es war ausreichend, um die Basket-Size positiv zu beeinflussen, Conversion zu beeinflussen.
Bei uns konntest du auf den Knopfdruck das ganze dann auf Chinesisch machen oder auf Spanisch, Italienisch und die Menschen fühlen sich schon besser angesprochen, wenn es in deren Muttersprache ist.
Also wir hatten zum Beispiel spanische Supplement-Hersteller und die hatten natürlich Schwierigkeiten, on scale deren Produkte in anderen Märkten zu vermarkten, weil sie dann den gesamten Content hätten übersetzen müssen und so weiter.
Und das hat es einfach für die erledigt.
Was kannst du denn sagen über die Performance dieser Video, weil natürlich bewegen wir uns in dem Spannungsfeld von Uncanny Valley, Vertrauen, Menschen, Content, wo sie nicht so ganz wissen, ob da KI gemacht ist oder nicht.
Hast du da Zahlen, Erfahrungen, Messwerte, wie diese Videos angenommen wurden, vielleicht auch gegenüber herkömmlichen Produktvideos?
Unsere Kunden haben immer eine Conversion-Steigerung bis zu 23% gesehen.
Also das heißt, es war von bis, aber es war immer positiv.
Das hat sich immer gelohnt.
Also das hat sich sofort amortisiert.
Videocontent lohnt sich immer, weil es halt viel mehr engaging ist und viel mehr Conversion bringt.
Du musst halt nur eine Art und Weise finden, das möglichst günstig zu produzieren.
Und wie groß war das?
Naja, wir hatten so 600.000 Kunden tatsächlich.
Also wir waren ja self-serving.
Es gab immer die Diskussion, sind das Nutzer oder sind das Kunden.
Aber es waren halt User, wenn du so möchtest, die monatliche oder jährliche Abonnements abgeschlossen haben, um die Videos zu generieren.
Und dann haben die Millionen Videos generiert.
Was ist dann passiert?
Dann kam der AI-Act.
Und weil wir Avatare hatten, sind wir in eine Risikoklasse gefallen, die uns als Deepfake kategorisiert hätte.
Wahrscheinlich.
Also wie es tatsächlich ausgestaltet wird, wissen wir erst demnächst.
Aber das Risiko war halt da, dass wir als Deepfake gelten und wir hätten dann ein Wasserzeichen einbauen müssen.
Wir hätten technische Voraussetzungen schaffen müssen, die wir zu dem Zeitpunkt noch nicht hatten.
Wir hätten uns komplianztechnisch anders aufstellen müssen.
Und wir haben ja ohnehin das Problem der DSGVO.
Das heißt, irgendwann als Startup kannst du das nicht mehr leisten und liefern.
Wir hatten zu dem Zeitpunkt über 50 Mitarbeiter, also das Team war sehr klein.
Und da kannst du nicht so viele Ressourcen sowohl personell als auch finanziell auf dieses eine Problem aufwenden, wenn du eigentlich nur ein Produkt verkaufen möchtest.
Was braucht man denn eigentlich, um so ein KI-Startup zu bauen?
Klar, Geld natürlich.
Und Coder wahrscheinlich irgendwie.
Aber so einfach ist es ja wahrscheinlich nicht.
Baut man da ein eigenes LLM, trainiert irgendwie Daten in irgendeinem Machine Learning?
Wie darf man sich das vorstellen?
Man braucht vor allen Dingen Visionäre erstmal.
Man braucht Leute, die Ideen haben, die vielleicht an der Grenze des Umsetzbaren sind.
Also man braucht so ein bisschen die crazy people, um da weiterzukommen.
Und wir hatten unser Head of AI, Sydney Otten.
Grüße an der Stelle.
Sydney hatte die Idee damals, beziehungsweise hat den Prototypen gebaut.
Also die erste Idee war, dass wir quasi digitale Kopien eines Menschen erstellen, trainierend auf den Social Data, also auf den sozialen Netzwerken, auf dem was man alles über die Person weiß.
Das wurde alles im riesigen LLM gefüttert.
Und dann eben die virtuelle Version von dem Menschen.
Das kann man sehr gut machen, wenn es sehr viel Informationen über die Person gibt.
Zum Beispiel von Obama haben wir eine super digitale Kopie erstellt.
Und dann kannst du mit diesem digitalen Menschen dich halt so unterhalten, als wäre es ein echter Mensch.
Aber zu Trainingszwecken, ihr habt jetzt nicht ein Obama-Avatar veröffentlicht, den man nutzen könnte?
Nee, veröffentlicht nicht.
Er hat zum Beispiel ganz seine Bücher eingelesen.
Das heißt, es gab unendlich viel Sprachmaterial von ihm.
Damit konnte man sehr gut die Stimme klonen.
Es gab unendlich viel inhaltliches Material von ihm, durch diese Bücher und eben weil er eher eine sehr Public Persona ist.
Und dann natürlich sehr viel Videomaterial.
Das heißt, das war unser Trainingscase.
Ich hab mich dann immer über den Krieg in Afghanistan mit ihm unterhalten, in unserer Trainingsumgebung.
Fand ich ganz spannend.
Er hat immer am Anfang gesagt, so ja, das ist ein schwieriger Fall und sich versucht rauszureden.
Also war ganz cool.
Nun, abgesehen davon brauchst du diese Visionäre und dann brauchst du natürlich Entwickler, die das erstmal in erster Linie umsetzen.
Also gerade wenn du AI machst, dann kannst du nicht so viel mit Leuten wie mir, die das kommerzialisieren, anfangen.
Sondern brauchst halt wirklich die Techies, die Entwickler, die Engineers, die wirklich den Hand anlegen und das Programmieren, das Ganze.
Am Anfang hatten wir in der Tat unsere eigenen LLMs.
Unser CTO hat damals ein LLM gebaut.
Das hatte 17 Milliarden Parameter.
Das heißt, das war wesentlich kleiner als das, was OpenAI dann im November 2022 rausbrachte.
Und haben das genutzt.
Und das zu trainieren, das ist alles ziemlich herausfordernd.
Es verbraucht sehr viel an Ressourcen, also an Rechenpower auf der einen Seite, aber auch an Trainingsdatenmaterial auf der anderen Seite.
Wir hatten Gott sei Dank viele Mitarbeiter, die von den Universitäten gekommen sind, die zum Teil Trainingsdatensätze mitgebracht haben, so promovierte Mathematiker und so weiter.
Und darüber konnten wir das machen.
Aber als OpenAI dann kam, mit dem Modell, haben wir es relativ schnell abgeschaltet, weil natürlich die viel besser waren.
Und wenn das unser Produkt besser macht, dann brauchen wir nicht mehr unser eigenes LLM, nur weil es natürlich nicer ist, proprietäre Tech zu haben.
Aber wir haben dann geswitched auf die, die halt verfügbar war.
Wenn man sich jetzt seine eigenen Trainingsdaten anschaffen will, woher bekommt man die eigentlich?
Das ist in der Tat das Schwierigste.
Und das wird auch der differenzierende Faktor sein, wer dieses KI-Wettrennen gewinnen wird.
Weil die Unternehmen, die qua Natur sozusagen Daten haben, das gewinnen werden.
Das heißt Google, vor allem Meta, also Meta hat ja Zugang zu so viel Daten wie kaum einer, mit den ganzen Bilddaten und Facebook und Insta und Threads und keine Ahnung.
Das heißt, die haben durch deren Produkte natürlich wahnsinnig viele Daten.
Google hat ganze Libraries, also ganze Büchereien, ganze Bücherschätze.
Die haben hunderttausende an Büchern digitalisiert zum Beispiel, wovon man auch nicht so viel mitbekommen hat.
Aber die haben auch krassen Zugang zu Daten.
Dann OpenAI hat natürlich ohne zu fragen das gesamte Internet quasi ausgesaugt.
Und darüber hinaus haben die Programme wirklich entwickelt, um zum Beispiel YouTube zu transkribieren und daraus Daten zu machen.
Also die haben wirklich deren eigene Tech entwickelt, nur um alles quasi abzusaugen, was es irgendwo gibt.
Jetzt hat man ja gerade das Gefühl, dass wir auf so ein bisschen auf so einem Plateau sind.
Es gab natürlich, als OpenAI publik wurde, gab es den riesen Hype, den riesen Sprung nach oben.
Die Veröffentlichung, ganze Welt spricht über KI.
Jetzt ist gerade so ein bisschen das Gefühl, dass wir auf so einem Plateau angekommen sind, wo alle sonst alles kennen, aber wo der nächste große Schritt so ein bisschen noch bevorsteht.
Empfindest du das auch so?
Wenn ja, woran glaubst du, woran das liegt?
Ja, neue Technologien und Innovationen, die akzelerieren am Anfang ja immer ganz krass.
Das heißt, man sieht, und ich glaube nicht, dass es ein Hype-Cycle ist, aber man sieht immer eine starke Ansteigerung der Kurve sozusagen, also ein exponentielles Wachstum.
Und dann irgendwann verflacht es sich ein bisschen, das Wachstum.
Weil momentan sind alle Modelle eben nur am Skalieren.
Also was heißt nur, aber die versuchen größer, schneller, höher, weiter zu werden.
Und das Training dauert immer länger, weil die Datensätze immer größer sind, das Training wird immer teurer, es bedarf immer mehr Energie.
Das heißt, die nächsten Durchbrüche werden sicherlich zum Beispiel in der Robotik sein, die nächsten Durchbrüche werden in den Videomodellen sein und in den Agentensystemen.
Also ich denke, das sind die drei großen Themen für nächstes Jahr, aber das wird natürlich noch ein bisschen dauern.
Wie teuer ist es, so ein LLM auf die Beine zu stellen?
Also mittlerweile kosten die neuen Modelle bestimmt eine Milliarde Dollar im Training.
Nur eins, nur ein Modell.
Und kannst du ein bisschen plastisch machen, wie aufwendig das ist?
Ja, also das Lama 3 Modell von Meta hat 720 Millionen gekostet im Training.
Dazu brauchten die 30.000 GPUs, also 30.000, ich glaube es waren H100s oder die Generation davor.
Jeweils ein so ein Chip kostet 24.000, also ungefähr 24.000 Dollar.
Ein Chip?
Ja, aber das ist ja nicht wie so ein Chip, den du in eine Kamera hinein schiebst, sondern das Ding sieht eher aus wie so ein kleiner Schuhkarton oder wie so ein Viertelschuhkarton irgendwie.
Das ist dann ein Chip oder ein bisschen, womit kann man das vergleichen?
Mit einer Festplatte oder so?
Ja, ja, genau.
Oder eine große Tafel Schokolade.
Genau, so ist es.
Aber wie so eine große Festplatte sieht das aus.
Und die sind sehr teuer, weil die wahnsinnig komplex sind in der Herstellung und haben auch komplexe Komponenten.
Es gibt wenige Firmen, die das überhaupt herstellen können.
Nvidia ist da führend sicherlich.
Und davon brauchten die halt 30.000 Chips ungefähr und das Ganze hat zwei Wochen gedauert und ein paar Rechenzentren, die dann parallel laufen.
Die können dann auch nicht zu 100% ausgelastet werden, dann gibt es dann eine gewisse Fehlerquote im Training und so weiter.
Also es ist super herausfordernd.
Okay, jetzt hattest du ein gut laufendes Geschäftsmodell und dann kam der European AI Act oder zumindest die Ankündigung dessen, was da kommt.
Und dann hast du dich entschieden, dass dir das Geschäftsmodell so nicht mehr weiter treiben könnte.
Kannst du ein bisschen was darüber erzählen, wie diese Gesetzgebung für dich wirkt?
Also offenbar hat jetzt ein Business schon gekillt und wir sind uns in der Situation, dass es immer darum geht, kommen wir in Deutschland und Europa eigentlich hinterher, was die Entwicklung auf dem KI-Markt angeht.
Inwiefern hat dieses Gesetz für dich, wie sinnvoll ist das für dich?
Ja, AI muss reguliert werden und die Unternehmen brauchen Guardrails und die Unternehmen brauchen auch eine gewisse Sicherheit, wie sie KI letztlich implementieren.
Das heißt, ich denke, das Gesetz hat auf jeden Fall Sinn und Zweck.
Das Ganze muss irgendwie in den Rahmen gebracht werden, aber die Art und Weise ist natürlich, finde ich, schwierig, weil das nicht mehr zeitgemäß ist und dieses Gesetz hinkt halt der eigentlichen Technologie hinterher.
Das heißt, dieses Gesetz hätte viel dynamischer sein müssen, das Gesetz hätte einzelne Industrien regulieren müssen, die viel Risiko haben.
Es war in Brüssel, glaube ich, ein schwieriger Prozess, aber was dabei jetzt am Ende rausgekommen ist, ist nicht unbedingt gut.
Also wenn wir in die USA gucken, da ist es halt auf Bundesstaatsebene wird das reguliert, auch nicht viel besser, aber da werden wenigstens einzelne Industrien reguliert.
Da in den USA gibt es halt eine Executive Order, aber Executive Orders haben ja immer das Problem, dass wenn der neue Präsident kommt, dass das dann wieder nicht mehr valide ist sozusagen.
Also das wird dann zurückgezogen, dann gibt es eine neue Executive Order, also schwierig.
Dann in China ist es so, dass die Modelle zum Beispiel immer über die CCP, also über die Partei laufen müssen und dass die Inhalte der Modelle dann darüber validiert werden müssen, dass die ja nichts gegen die Partei sagen, immer der Gesinnung der Partei entsprechen.
Also es gibt keine hundertprozentige Lösung, aber diese horizontale Lösung, die wir momentan im Gesetz sehen, die einfach alles blind erstmal rüber reguliert, anstatt einzelne Use Cases oder einzelne Industrien zu regulieren, funktioniert nicht so richtig, wie man sieht.
Es ist aber natürlich traditionell in Deutschland und Europa starker Fokus eben auf Datenschutz, auf Schutz der Persönlichkeitsrechte und so weiter.
Würdest du dir eher eine Welt wünschen, wie es in den USA ist, wo ja wirklich zu einem großen Teil, man will immer sagen Wild West herrscht sozusagen oder es sehr freiheitlich geregelt ist.
Jetzt kommen ja in den USA auch noch höchstwahrscheinlich Kräfte zum Tragen, die eher libertär sind, die eher Wirtschaft entfesseln wollen, die eher weniger regulieren wollen.
Wie siehst du diesen Vergleich zwischen Deutschland und den USA, was das angeht?
Ja, ich glaube, wir sind beide am extremen Ende des Spektrums.
Ich denke, in den USA wird es schwierig werden in den nächsten Jahren, weil natürlich auch dieser Crossover zwischen Tech, also dass jetzt Elon Musk diesem Department of Government Efficiency und so weiter vorsteht.
Das Doge.
Das Doge, ja.
Und die ganzen Tech Bros, die da momentan so krass am Mitmischen sind.
Das ist natürlich extrem schwierig, weil vor allen Dingen auch die ganzen Space Ausschreibungen, womit er natürlich mit SpaceX dran teilnimmt, das ist ja ein einziger Konflikt of Interest da.
Und jetzt kommt Andreessen von Andreessen Horowitz, kommt mit in die Regierung und so weiter.
Das ist natürlich alles auf der einen Seite ein bisschen begrüßenswert, weil die da wirklich direkt aus der Wirtschaft kommen und vielleicht mal in der Lage sind so ein bisschen aufzuräumen und so ein bisschen Schwung in den Puff da zu bringen.
Auf der anderen Seite, das ist natürlich Wahnsinn, wenn man bedenkt, dass da keiner im Interesse der Menschen handelt.
Und das ist ja so ein bisschen, die Regierung hat ja einen Versorgungsauftrag, die sind ja nicht optimiert auf Profit.
Das heißt, die haben ja einen komplett anderen Ansatz.
Deswegen sieht man ja auch zum Beispiel diese ganzen Tech Unternehmen, jetzt inklusive Google, die auf atomare Energien setzen, um ihre Modelle zu trainieren und die tatsächlich kleine Atomkraftwerke bauen oder kaufen oder wie an Kraft nehmen.
Und das Risiko wird quasi externalisiert, das heißt, die amerikanische Bevölkerung hat das Risiko der einmal Entlagerung und dann natürlich auch der möglicherweise höchst unwahrscheinlich ist mir klar, aber es gibt trotzdem Unfälle.
Den einen Reaktor, den sie jetzt wieder für die zum Training letztlich der Modelle wieder ans Netz nehmen, ist Three Mile Island.
Und Three Mile Island, einer der beiden Reaktoren, hatte einen großen Incident.
Daher muss man sich schon darüber Gedanken machen letztlich, ob das so in Ordnung ist.
Und danach streben natürlich die ganzen libertären Kräfte momentan so.
In Deutschland auf der anderen Seite sind wir natürlich die Innovationsverhinderer, weil wir alles überregulieren, weil wir als Gesellschaft hyper vorsichtig sind.
Wir gründen ja zum Beispiel auch viel zu wenig und auch die ganzen Wissenschaftler gründen nicht.
Zum Beispiel gibt es von 23 gründungsinteressierten Wissenschaftler, die an der Uni sind und die vielleicht Patente haben oder interessante Technologien entwickelt haben, von denen gründen tatsächlich nur drei Prozent.
Und das liegt daran, dass die nicht genau wissen, wie es geht, dass sie keinen Zugang zu Knowledge haben, dass sie keinen Zugang zu Funding haben, dass sie auch keine Role Models haben.
Und diese ganze Kultur fehlt halt so.
Das liegt eben in Deutschland daran, dass wir nicht, also wir sind zu satt auf der einen Seite und die Infrastruktur ist nicht da.
Und Amerika ist eben viel extremer.
Also ich bin jetzt kein übermäßiger Freund von Millet und von Elon, wie er jetzt ist.
Ich denke, der hat vor fünf, sechs Jahren noch wahnsinnig innovative Dinge auf die Beine gestellt und ich meine, der hat ja irre erfolgreiche Unternehmen gegründet und auch hochgezogen.
Auch in einer Masse, wie keiner vor ihm und keiner nach ihm.
Aber ich denke eben dieses Mitmischen in den gesellschaftlichen Fragen, in der Politik und so weiter, sollte ihn überlassen am Ende.
Aber das ist nur meine persönliche Meinung.
Also ich denke, wir müssen einen Zwischenweg finden, einen Mittelweg.
USA ist zu extrem und Deutschland ist auch zu extrem auf der anderen Seite.
Jetzt ist ja so, dass in den großen Unternehmen oder in viele großen Unternehmen, ich glaube die meisten Agenturen, dürfen offiziell ja keine der amerikanischen Modelle verwenden.
Also Chats, GPT und auch bildgenerierende Tools verwenden, weil eben die Trainingsdaten zum Beispiel nicht sauber sind oder weil bestimmte andere datenschutzrechtliche Dinge nicht gegeben sind.
Ist eine safe AI eigentlich automatisch eine schlechtere AI?
Es gibt keine safe AI.
Ist eine vermeintlich safe AI oder eine rechtlich geprüfte AI, eine freigegebene AI in Deutschland eine schlechtere AI?
Also haben wir dann eigentlich schlechtere Arbeitsmittel?
Ja klar, also Mistral ist immer noch eine gute Option auf europäischer Ebene, aber keine Daten sind safe.
Das ist ja eine Utopie zu meinen, dass irgendwas safe ist.
Also irgendwann wird Google deine privaten E-Mails zum Training nutzen, noch nicht, aber vielleicht, also bin ich mir sicher, irgendwann.
Daten, die einmal erstellt worden sind, sind im Internet sozusagen.
Also da würde ich mir nicht irgendwie, also dieses Narrativ, dass irgendwas dann DSGVO safe ist und so weiter, vielleicht ein paar Jahre noch, aber irgendwann wird es das nicht mehr geben.
Trotzdem wird das ja gerade quasi versprochen, also nicht nur uns als Mitarbeitern, sondern auch Kunden, hier auf dieser KI könnt ihr arbeiten, die ist von uns freigegeben, mehr oder weniger safe.
Muss ja auch so sein.
Kannst du trotzdem mal ein bisschen erklären, warum das dann nicht safe ist?
Naja, also die Datensätze, auf denen diese KIs trainiert wurden, sind, ich würde sagen, alle die gleichen.
Aber wie willst du einen Datensatz, einen Bilddatensatz mit fünf Milliarden Parameter auf Cleanliness oder Safeness überprüfen?
Kannst du gar nicht eigentlich.
Also ich glaube der TÜV arbeitet gerade, oder weiß ich nicht, aber ich glaube der TÜV arbeitet gerade an so verschiedenen Zertifizierungen auch.
Ganz spannend, die haben so ein neues Institut gegründet vor ein paar Jahren, das sich darauf spezialisiert.
Super spannend.
Klar, aus juristischer Perspektive gibt es safe Modelle.
Du kannst vor allem on-premise die Sachen ja laufen lassen.
Also das heißt in einem geschlossenen Ökosystem, das quasi nicht ans Internet in der Form angeschlossen ist, das nicht mit Servern in Europa oder in Frankfurt, je nachdem wen du nimmst, oder eben nur innerhalb eures geschlossenen Ökosystems, klar geht das.
Aber das hält dann die Modelle auch nicht unbedingt aktuell und so.
Aber sicher, es gibt auch viele Firmen, die das machen.
Also ich möchte auf keinen Fall schlecht reden.
Da gibt es sicher Lösungen für.
Nur ultimativ oder wenn du halt absolut an der Spitze der Technologie sein möchtest, wird das dann ein bisschen schwierig.
Weil auch die herausragenden Modelle, die kommen alle aus den USA.
Also gerade die bildgebenden Modelle, die ihr vielleicht im Marketing am meisten braucht oder brauchen würdet.
Es gibt zum Beispiel eine Firma, die sehr gut ist.
Die sitzen in Freiburg, in der Nähe von Freiburg, die heißen Black Forest Labs.
Die sind weltweit bestimmt führend in der ganzen Bildgebungstechnologie.
Der Hauptinvestor ist aber in der Tat Elon Musk.
Und die sind inkorporiert in Delaware.
Das heißt, naja, so eine richtig deutsche Company sind die auch nicht unbedingt.
Und das Problem ist auch, dass man diese Dinge immer erst hinterher rausfindet.
Also in Australien gab es gerade Klagen, dass Meta tatsächlich die Daten aus Facebook fürs Training der Modelle wohl genutzt hat.
Das kommt dann immer erst hinterher raus.
Das heißt, das ist typische Strategie von Big Tech, ask for forgiveness later.
Wie ist denn jetzt die Perspektive für Europa, wenn du sagst, die Gesetzgebung ist so, dass sie uns eher behindert, dass sie eher lehmend ist.
Was siehst du denn jetzt da für eine Zukunft?
Ja, schwierig.
Wir müssen irgendwie in die Puschen kommen, glaube ich.
Also sicherlich auf regulatorischer Seite muss es einfacher gemacht werden, für Techfirmen Dinge zu entwickeln.
Ich denke zum Beispiel, die Schweiz wäre auch ein super Ort um viel Tech.
Die könnte so eine Sandbox Europas werden, auch wenn sie nicht Teil der EU ist.
Aber die haben die Ressourcen, die haben die Talente an den großen Universitäten.
ETH ist mega.
Dann haben die noch EPFL.
Die haben eine Handvoll sehr gute Tech-Universitäten.
Die haben die Ressourcen, die haben die Talente grundsätzlich.
Und haben auch die Unternehmen da im Übrigen.
Also OpenAI hat gerade in Zürich ein Office aufgemacht, vor ein paar Wochen.
Und die könnten sicherlich da etwas reißen.
Oder auch UK.
Die sind auch außerhalb der EU-Regulierung und könnten auch Dinge entwickeln, die man halt auf EU-Seite nicht so schnell entwickeln kann.
Aber wir müssen uns da ein bisschen die Karten legen und überlegen, was wir noch machen wollen.
Weil unser Kerngeschäft, wenn man so möchte, also gerade Deutschland Automotive, da sieht's auch nicht so rosig aus momentan.
Das Einzige, was wir ganz gut können, ist autonomes Fahren.
Da sind wir eigentlich die drittbesten in der Welt.
Wir haben, glaube ich, letztes Jahr die drittmeisten Patente angemeldet.
Wobei, wenn man überlegt, es waren in den USA so um die 7000 irgendwas und wir sind um die 751.
Das ist trotzdem noch ein riesen Delta.
Also wir sollten uns, wir brauchen ein anderes Mindset.
Wir brauchen mehr Kapital, mehr Investitionen.
Wir brauchen auch an der Stelle im ganzen Mittelstand, also die gesamte Wirtschaft muss anfangen, sich verantwortlich zu fühlen in der Hinsicht.
Das heißt, Produkte zu kaufen, die auch in Europa quasi gebaut werden.
Und mit den ganzen kleinen Technologiefirmen zusammenzuarbeiten.
Also ich glaube, jeder muss da so ein bisschen versuchen, das voranzubringen.
Was verdient man so als AI-Entwickler bei den Großen, bei OpenAI oder so?
Ja, so um die 900.000 Dollar.
900.000 Dollar, also als Jahresgehalt einfach so vorneweg mal direkt.
Ja, Valley ist teuer.
Das sind dann Steuern auch nur.
Nur irgendwie 500.000 wahrscheinlich, je nachdem.
Und dann geht davon wahrscheinlich die Hälfte für Living Space up in San Francisco.
Ich würde sagen, es reicht trotzdem.
Ja, gerade so.
Wenn man bei Whole Foods einkaufen will, das wird schon schwierig.
Ja, aber es ist krass.
Ich meine, wir haben so gute Leute hier.
Und die sind, also wirklich, das sind Top-Talents.
Ich hatte ganz viele deutsche Entwickler auch.
Aber der Markt in den USA ist halt interessanter für die.
Lass uns ein bisschen über KI und Marketing reden.
Ich weiß nicht, ob du den neuen Coca-Cola-Weihnachtspot gesehen hast.
Was hältst du von dem?
Boah, also ist natürlich, finde ich schade für Coca-Cola, weil die wissen, dass deren, also dass die ganze Welt immer sich auf diesen Weihnachtspot freut.
Und an der Stelle hätte ich glaube ich nicht gespart.
Also man sagt ja immer, there is no bad press.
Also das glaube ich zwar nicht, aber es war natürlich mit Sicherheit auch eine interessante Marketing-Entscheidung, das so zu machen, dass man es auch so deutlich sieht, dass es KI generiert ist.
Aber ich finde es schade, weil das ist natürlich Teil deren Brand.
Also alles rund um Weihnachten.
Ich meine, Coca-Cola hat es erfunden quasi.
Und das ist so ein großes Asset für die.
Also schade, aber das ist eben nur noch eine Frage von Zeit, bis es so wirklich ist wie der richtige Weihnachtspot.
Also dass man es dann irgendwann nicht mehr sieht.
Das sind wie gesagt die Modelle, oder diese einzelnen Videosequenzen können halt maximal eine Minute generieren und dann irgendwann wird es schwach.
Und das sieht man da auch.
Also selbst mit dem Budget von Coca-Cola.
Ja, wir können den ja in die Show nun packen und die Leute können sich den mal anschauen, den aktuellen Coke-Spot, weil der hat wirklich deutliche Qualitätseinbußen.
Also das ist ja wirklich, der Coke-Weihnachtspot ist ja eine der größten Werbegelegenheiten, die es so gibt.
Das wird man da normalerweise nicht von erwarten.
Aber kannst du ein bisschen schildern, was ist denn jetzt noch die Schwelle?
Also was ist die wirkliche Schwierigkeit, wirklich überzeugendes Bewegtbild zu machen an der Stelle?
Die technische Herausforderung ist das Schwierige, weil die Wahrscheinlichkeit von einem Pixel zum nächsten Pixel sind quasi diese Modelle, wenn du so möchtest.
Und das Problem ist auch, dass zum Beispiel wenn du ein Glas Wasser trinkst, dann weiß die KI nicht, dass das Wasserdach halb leer sein muss.
Weil so weit kann sie halt noch nicht mitdenken.
Und es ist fragwürdig, ob es überhaupt technisch möglich ist, diese Schwierigkeiten rauszubekommen.
Es gibt große Lega um Jan LeCun, das ist der Head of AI von Meta, glaube ich.
Also es ist der, die Koryphäe.
Der verfechtet zum Beispiel die Theorie, dass diese Transformer-Based-Modelle und dass grundsätzlich auch diese Bild-Modelle gar nicht mehr skalierbar sind.
Und dass wir mit der aktuellen Technologie und den aktuellen Modellen nicht dahin kommen werden, wirklich Bewegtbild zu generieren über Stunden sozusagen, weil das Verständnis für Physik fehlt am Ende.
Also das ist das Hauptproblem sozusagen.
Und dass man andere Modelle braucht.
Deswegen ist es gerade schwer zu sagen, wie sich das entwickeln wird.
Es gibt einen aktuellen Vodafone-Spot auch, der erstmal auf den ersten Blick auch ganz überzeugend funktioniert.
Wenn man genau hinschaut, fällt er, finde ich, total auseinander.
Aber auch da merkt man, es sind immer nur einzelne Sekunden, die auch nicht konsekutiv, kohärent erzählt sind.
Das heißt, über verschiedene Szenen hinweg die gleichen Charaktere zu verwenden, ist ja quasi beinahe noch unmöglich, oder?
Ja, aber vielleicht ist es das, was Generation TikTok auch anspricht.
Also vielleicht Menschen mit einer Aufmerksamkeitsspanne von der Fruchtpflege, vielleicht ist das genau das, was die sehen wollen.
Aber korrekt, ja, auch diese Kohärenz innerhalb der Charaktere zu erhalten, ist schwierig darüber.
Also ich glaube auch, dass wirklich die narrative Disziplin, also KI wirklich in total einzusetzen als Ersatz für länger laufende narrative Geschichten, da sind wir glaube ich noch lange nicht.
Glaube ich auch.
Also das wird auf jeden Fall noch dauern.
Von der Qualität her, was Menschen gewohnt sind, wird das noch dauern, aber es wird bestimmt kommen.
Aber ob das jetzt 12 oder 18 Monate ist oder 24, aber ich gehe nicht aus, dass das länger als drei Jahre dauert.
Ja, also so schnell kannst du kommen.
Punktlose Frage, werden wir in drei Jahren den ersten komplett KI generierten Hollywoodfilm sehen?
Das weiß ich noch nicht, weil das halt momentan noch unfassbar viel Rechenpower braucht, aber mit Sicherheit.
Also nicht drei, vielleicht sind es vier Jahre, aber klar, da wird ja mit Hochdruck dran gearbeitet, weil das sicherlich finanziell unendlich interessant für viele ist.
Vor allen Dingen, also gerade diese kostenintensiven Szenen wie Action Szenen, wo Hollywood halt sehr viel Geld drauf werfen muss, das wird mit Sicherheit der erste Fokus sein.
Wo man, keine Ahnung, in einer Tasse 20 Schiffe da untergehen lässt und das dann versucht hochzuziehen und was sehr schwieriger zu produzieren ist und viel Ressourcenbedarf und so weiter, das wird alles KI generiert werden.
Du hast gerade an einem Beitrag mitgeschrieben für ein Buch, das sich beschäftigt mit generativer KI in Marketing.
Kannst du ein bisschen schildern, was da so die Hauptthesen sind, die ihr da reingebracht habt?
Das war relativ fancy, weil ich zusammen mit Deloitte haben wir ein Produkt gebaut, das sich Neuroavatare schimpft und das war ganz spannend.
Wir haben quasi gemessen, wie Menschen auf verschiedene Avatare reagieren und wir haben per EEG, Hautleitfähigkeit und Eyeball Tracking halt sehr genau gemessen, wie das Gehirn reagiert.
Wenn Menschen Avatare sehen, die entweder ihnen eher entsprechen, also denen sie sich eher zugehörig fühlen oder eben denen, die ihnen eher fremd ist.
Das heißt, es gab einen Autonomie-Typ, das war dann eher so der Familienvater zum Beispiel.
Sorry, das war der Harmonie-Typ.
Aber es gab verschiedene Typen, die wir geclustert haben, die tendenziell eher andere Ansprüche hatten und nicht nur an den Avatar, sondern zum Beispiel auch an das komplette Setting des Werbevideos, was sie denen gezeigt haben.
Und zum Beispiel der Familienvater-Typ, der wollte in einem Automobilspot dann eher ein Kombi sehen mit irgendwie 15 Kindern da oben drauf und dann war die Tagline eher, du möchtest doch auch irgendwie Sicherheit für deine Lieben, deswegen geh Reifen wechseln.
Und dann gab es eher den Dominanz-Typen, der wollte lieber irgendwie einen Avatar, also einen Schauspieler sehen im Anzug, der sagte mit schnellen Reifen bist du besser drauf oder mit schnellen Reifen bist du sicherer und geh lieber Reifen wechseln.
Das heißt, das Narrativ wurde geändert, aber eben auch, wie der Avatar aussah.
Und das Ganze haben wir ja vermessen.
Und das ist super interessant, weil das ist natürlich dieses hyperpersonalisierte Targeting.
Das heißt, dass man genau die Kunden da abholt, wo sie sind und wer sie sind, die haben dann lokalen Dialekt gehört zum Beispiel und so weiter.
Und das war alles sehr effizient und das haben wir vermessen und darauf basierend auf diesen Daten und diesen Studien haben wir den Teil da geschrieben.
Wenn du mal so ein bisschen in die Zukunft blickst, zeichne mal ein Bild, wie so eine Marketingwelt in Zukunft aussehen könnte, wenn es in den Weg weitergeht.
Ist dann die Zeit der klassischen großen Kampagnen eigentlich vorbei?
Sicherlich.
Also ich glaube, das würde dahin gehen, dass es sehr viele kleine fragmentierte, hyperpersonalisierte Kampagnen für sehr viele Zielgruppen gibt.
Die dann im lokalen Dialekt mit Avataren, die so aussehen wie du im Zweifel oder Menschen, die du irgendwie attraktiv findest oder wo du dich wiedergefunden findest, siehst mit Produkten, die dir entsprechen.
Also alles das, was jetzt Meta auf Insta zum Beispiel schon macht, aber dann on steroids sozusagen.
Das heißt basierend darauf kannst du dann natürlich sofort Kampagnen fahren.
Wenn die sehen, dass du dir das Ad, weiß ich nicht, vier Sekunden angeschaut hast zum Beispiel, ist schon mega lang oder fünf, wie auch immer.
Und dann kannst du im nächsten Schritt, kriegst du dann eine komplette Kampagne mit jemand, der genauso aussieht wie du, der genauso spricht wie du, der meinetwegen ein gleiches Umfeld hat und du fühlst dich sofort wiedererkannt und dann ist die Kaufrate halt oder die Clickrate und alles viel höher sofort.
Es gibt ja momentan schon durchaus ein Backlash gegen KI generierten Content.
Also dass regelmäßig die ersten Kommentare sind, warum benutzt ihr keine richtigen Menschen, good luck with your new AI customers und so weiter.
Glaubst du, dass das verschwinden wird, weil du zeichnest gerade ein sehr homogenes Bild quasi von der Marketing Zukunft und ich kann mir auch vorstellen, dass das natürlich absolut beherrschend sein wird.
Glaubst du, dass dieser Backlash, dieses Misstrauen gegenüber KI, dieser Uncanny Valley Effekt, dass das verschwinden wird?
Ich denke schon, weil wenn man guckt, wie das in anderen Teilen der Welt ist, dann ist die Adoption Rate schon viel höher.
Also zum Beispiel Asien hat sich viel eher an diese ganzen KI generierten Inhalte gewöhnt und an die Avatare, die die Dinge kommunizieren.
Wir in Europa tun uns ein bisschen schwerer, das ist auch mit den ganzen Chatbots im Kundenservice zu reden, das dauert bei uns auch alles länger.
Aber ultimativ, wie mit jeder Innovation und neuen Innovation auch, wenn die Menschen sich nicht völlig überrumpelt fühlen, dauert es erstmal eine Zeit, bis sie sich damit identifiziert haben.
Ich meine, es gibt immer noch diese Filme, dass als der Fernseher eingeführt wurde, Leute da völlig fasziniert vorstanden und sagten, da ist doch jemand drin.
Und da haben sich Menschen auch irgendwann dran gewöhnt, dass dann jemand drin sitzt.
Also aus deiner Sicht ist das ein Gewöhnungseffekt quasi.
Was ist mit dem ethischen und politischen Aspekt der Geschichte?
Also weil ich glaube, die Gewöhnungssache ist ja nicht das Einzige.
Das ist ja nicht dieses, dass ich das schon viel gesehen habe, sondern ich kann ja auch da tatsächlich, auch sehr begründet, eine Gegenmeinung zu entwickeln, indem ich sage, der menschliche Wert, der Nachweis des Authentischen, das ist mir viel wichtiger.
Ich misstraue grundsätzlich erstmal allem Content, das sei denn, ich habe irgendwie einen Nachweis darüber, dass er echt ist.
Glaubst du nicht, dass das eine Rolle spielen wird?
Wir reden ja seit, keine Ahnung, mittlerweile seit zehn Jahren über Authentizität als wichtigsten Faktor in der Werbung und so weiter.
Wir reden über die TikTokisierung allen Contents, wo es eben nicht mehr um Produktionsqualität und Cleanliness und Sauberkeit geht und so weiter.
Glaubst du nicht, dass das Misstrauen und der ethische Aspekt bei Leuten eine Rolle spielen wird?
Schwierig, weil es geht unaufhaltsam in die Richtung, dass der gesamte Content KI generiert sein wird und wir müssen uns da einfach dran gewöhnen.
Also vielleicht wird es irgendwann später Premium-Content geben, der dann noch Menschen wirklich involviert und beinhaltet und der wird dann besonders gefeiert.
Das glaube ich schon.
Aber es geht natürlich unaufhaltsam in die Richtung.
Und ich denke es ist auch nicht nur, also natürlich ist es nervig und gerade auf journalistischer Ebene ist es auch, finde ich, sehr fragwürdig, ob das eine gute Entwicklung ist.
Es lässt sich aber nicht aufhalten, daher brauchen wir dringend neue Geschäftsmodelle, gerade in dem Kontext.
Und man sollte halt nichts mehr glauben, was man online sieht.
Das ist das Nächste.
Aber da wird es hingehen.
Auf der anderen Seite, es gibt auch so viel schrottigen, menschlichen produzierten Content und Menschen halluzinieren ebenfalls.
Und es gibt ja dieses wunderbare Beispiel, dass Maschinen oder das medizinische LLMs performanter sind als Ärzte und ebenfalls als empathischer empfunden werden.
Das heißt, vielleicht ist da auch Potenzial nach oben.
Also vielleicht ist es auch gar nicht schlecht an vielen Stellen mit einer Maschine zu reden oder zu kommunizieren als mit einem Menschen.
Daher, ich denke mal, dass KI einfach existierende Talente oder Menschen wie auch immer augmentieren kann.
Ich glaube, damit können wir alle besser werden.
Es kann nicht Menschen ersetzen, aber so Content kann es vielleicht auch augmentieren.
Vielleicht kann man immer sagen Augmented with AI oder so.
Nicht komplett KI generiert.
Wie kommen wir denn da raus?
Ich meine, du hast gerade gesagt, man darf dann nichts mehr glauben, was man online sieht oder liest, aber wir brauchen das ja.
Wir brauchen das ja auch als gesellschaftsverlässliche Informationsquellen.
Ja, ich denke, dass die einzelnen Plattformen dann wichtiger werden.
Also das heißt, dass in CNN wichtiger wird, dass man Vertrauen hat in die großen New York Times, in die ARD, in Spiegel.de.
Das sind die großen Medienhäuser, die großen Polizisten und so weiter.
Die werden durch ihren Vertrauensvorschuss dann letztlich noch mehr Traffic bekommen, weil die eben das Siegel dann haben.
Also das heißt, diese Nachrichtenbrands, glaube ich, die werden wichtiger werden.
Weil man dann eher darauf vertraut, dass die verifiziert haben, dass es wahr ist und machhaftig ist und so weiter.
Und dass sie nicht das Bild vom Papst in seiner weißen Montclairjacke da irgendwie vertreiben.
Das ist ja echt interessant.
Das heißt, so die redaktionelle Gesellschaft, die wird eigentlich irgendwie eine Renaissance erleben quasi.
Nach einer Phase, wo man sagt, Verlage, Institutionen haben kein Gewicht mehr und werden überrollt von Einzelpersonen, von einzelnen Media-Brands, von Personal-Media-Brands.
Und da glaubst du, das wird wieder wichtiger werden?
Glaube ich auf jeden Fall.
Ich seh das ja an mir, dass ich so viele Subscriptions zu verschiedenen Outlets, die ich normalerweise nicht haben würde, weil man sicher alles googeln kann.
Aber ich vertraue halt nur The Economist, The Information, Wall Street Journal und Financial Times und so weiter.
Und in Deutschland mal habe ich meine Spiegel-Subscription und so weiter.
Das heißt, Zeit, Süddeutsche, ich zahle Unmengen an jeden Monat an den Medienhäusern ab, um eben am Zahn der Zeit zu bleiben und um verifizierte Nachrichten zu haben.
Da hoffe ich mal, dass es nicht nur, sagen wir mal, zehn Prozent gebildeter Leute genauso sehen wie du, sondern dass das auch die Masse der Menschheit so sieht, dass die Inhalte gerne verifiziert sein dürfen.
Ja, unwahrscheinlich.
Vor allem die Jugend, also die Gen-Alpha, also nicht mehr Gen-Z, aber Gen-Alpha zum Beispiel, die hat glaube ich, zieht sich 75 Prozent oder 80 Prozent ihrer News und grundsätzlich ihrer Bildung halt aus Social-Medien.
Und die Generation aus TikTok.
Das heißt, da findet deren Bildung statt.
Also höchst unwahrscheinlich.
Aber ich glaube trotzdem, dass das für den Rest, also für das gebildete Gro, sagen wir mal, da werden die Medien, da werden die großen News-Häuser sozusagen wieder an Wichtigkeit gewinnen.
Ok, wir bleiben dran.
Super, herzlichen Dank, Elisabeth.
Danke dir.
Vielen Dank, dass ich da sein durfte.
Ja, es war wirklich sehr interessant.
Und euch danken wir für die Aufmerksamkeit.
Wir packen euch natürlich die gesamten Links, die wir hier besprochen haben, nochmal in die Shownotes.
Wir freuen uns natürlich, wenn ihr diesen Podcast abonniert und uns eine Bewertung hinterlasst, das hilft nämlich anderen Leuten auch diesen Podcast zu finden, das wäre gut.
Und eins noch, wie immer, wenn ihr auf Jobsuche seid oder euch vorstellen könnt, bei Territory zu arbeiten oder wenn ihr jemanden kennt, von dem ihr glaubt, dass er sehr gut zu uns passen würde, dann besucht doch bitte die Seite karriere.territory.de, da findet ihr nämlich aktuelle Stellenausschreibungen und im Prinzip alles, was ihr so über das Arbeiten bei Territory wissen müsst.
Wir freuen uns da auch über einen Besuch und in zwei Wochen geht's weiter mit dem nächsten spannenden Thema aus der Agenturwelt.
Bis dahin, macht's gut und tschüss.
Untertitel im Auftrag des ZDF für funk, 2017 Untertitel von Stephanie Geiges Untertitel im Auftrag des ZDF, 2021
Neuer Kommentar