In den USA schaltet OpenAI jetzt Werbung nach den Antworten der KI. Wo ist die Grenze zwischen Bequemlichkeit und Kontrolle?
Patrick Lenz
Inhaber von top.media, Innovationstreiber & Wissensvermittler
Personalisierte Werbung in KI? Ab wann ist es zu viel?
ChatGPT bekommt Werbung. Ab Ende Januar 2026 testet OpenAI Anzeigen für Free-User und ChatGPT-Go-Abonnenten in den USA.
Sam Altman, CEO von OpenAI, hatte noch im Oktober 2024 auf die Frage nach Werbung in ChatGPT geantwortet: „Ich persönlich hasse Werbung.“, nun ja, jetzt kommt sie in den USA.
Die Anzeigen sollen am Ende von ChatGPT-Antworten erscheinen, klar markiert als „Gesponsert“, getrennt von der eigentlichen Antwort.
Du fragst nach mexikanischen Rezepten für Deine Dinner-Party, ChatGPT antwortet und darunter steht dann: „Diese Optionen könnten Dir helfen, wenn Du Deine Zutaten aufstockst“ mit einem Link zu einem Lebensmittelgeschäft.
Die fragwürdigere Variante wäre, wenn Du Deine Blutwerte analysieren lässt und auf einmal Cholesterinsenker vorgeschlagen bekommst.
Klingt an sich harmlos. Vielleicht ist es das auch. Vielleicht aber auch nicht.
Allerdings wirft es eine größere Frage in den Raum: Wo ziehen wir die Grenze zwischen Convenience und Control? Zwischen „zeig mir, was ich brauche“ und „das geht Dich nichts an“?
Unsere heutigen Themen
OpenAI verspricht, dass ihre Werbung niemals die Antworten beeinflussen wird. Die KI soll neutral bleiben. Die Gesprächsinhalte sollen nicht an Werbetreibende verkauft werden.
Und Du kannst die Personalisierung ausschalten. Klingt alles erstmal vernünftig. Aber warum macht OpenAI das überhaupt?
Ganz einfach: Geld. OpenAI hat seinen Jahresumsatz von 2 Milliarden Euro im Jahr 2023 auf über 20 Milliarden Euro im Jahr 2025 gesteigert. Beeindruckend.
Außerdem gibt es mittlerweile hunderte Millionen Nutzer. Allerdings sind die meisten im Gratis-Tarif. Und diese kosten ein Vermögen.
Denn die Infrastrukturkosten für Rechenleistung explodieren. Allein 2025 gab OpenAI 9 Milliarden Dollar für das Training neuer Modelle aus.
Werbung scheint der logische Weg zu sein, dieses Publikum zu monetarisieren, ohne alle auf Bezahl-Abos zu zwingen.
Und hier wird es interessant. Denn personalisierte Werbung funktioniert verdammt gut. Ich zum Beispiel habe früher (als ich noch mehrere Social Media Accounts hatte) viel Kram über Meta-Werbung gekauft, den ich bis heute benutze.
Weil mir Produkte gezeigt wurden, die ich tatsächlich brauchen konnte und die nützlich waren. Du bekommst nicht irgendeine Random-Werbung für ein Musterhaus wie im Radio, die Dich einfach nur aggressiv macht, sondern Dinge, die Dich wirklich interessieren könnten.
Das ist das Paradox: Gut gemachte, personalisierte Werbung kann verkaufen und ich bin auch absolut empfänglich dafür. Auf der anderen Seite: Nervige Werbung ist eine Zumutung.
Und dann ist da noch die Sache mit der Privacy. Wie können Dir Tech-Giganten absolut auf Dich zugeschnittene Werbung ausspielen? Indem sie alles über Dich wissen und herausfinden.
ChatGPT ist ein sehr, sehr persönlicher Datenraum für viele Menschen. Fühlt sich erstmal komisch an, wenn das dann für Werbung „missbraucht“ wird.
Was das konkret bedeutet, wenn dieser Raum zu werblichen Zwecken ausgeschlachtet wird, das wissen wir noch nicht genau.
OpenAI verspricht, dass es in sensiblen Bereichen wie Gesundheit, psychischer Verfassung oder Politik keine Werbung geben wird. Gut. Aber wer definiert, was sensibel ist? Und wie lange hält dieses Versprechen?
Die Frage ist: Was ist zu viel? Wo ist die Grenze zwischen nützlicher Information und Privacy-Albtraum? Die Antwort darauf entscheidet, ob Werbung in KI funktioniert – oder das Vertrauen zerstört.
Und genau dieses Vertrauen oder besser gesagt, das fehlende Bewusstsein dafür, führt uns zum nächsten Problem: Schatten-KI im Mittelstand.
Wenn Mitarbeiter im Unternehmen künstliche Intelligenz wie zum Beispiel ChatGPT nutzen, ohne dass die IT-Abteilung oder die Geschäftsführung davon weiß, nennen wir das „Schatten-KI“.
Und dabei reden wir nicht von harmlosen Google-Suchen. Wir reden von sensiblen Unternehmensdaten: Gehälter, Kundendaten, Verträge, interne Strategien.
Privat kannst Du sagen: „Ist mir völlig egal, ob die wissen, dass ich dieses und jenes Medikament brauche.“ Das ist Deine private Entscheidung. Aber im Unternehmen?
Da gelten DSGVO, Regulatorien, Haftung. Und da wird es schnell sehr teuer, wenn etwas schiefgeht.
Das Problem ist: Schatten-KI ist ein echtes Risiko, und die meisten Unternehmen haben keinen Plan dafür bzw. dagegen.
Mitarbeiter nutzen ChatGPT, weil es praktisch ist. Sie tippen schneller Texte, lassen sich E-Mails formulieren, analysieren Daten. Alles schön und gut.
Aber wohin gehen diese Daten? Was passiert damit? Wer hat Zugriff darauf? OpenAI und Microsoft geben zwar Garantien. Aber wer kontrolliert das wirklich?
Die DSGVO sagt, Du musst einmal im Jahr mit Deinen Auftragsdatenverarbeitern ins Gespräch gehen, musst kontrollieren, ob die das auch alles so machen, wie das in deren technischen organisatorischen Maßnahmen drinsteht.
Ja, da sage ich: „Komm her, lieber Herr Gates, gib mal einen Schlüssel zu Deinem Rechenzentrum, ich will mal nachgucken.“ Das ist ja alles unrealistisch und lässt sich schwer umsetzen... Das sind Papiertiger.
Es ist die Frage zwischen Convenience und Kontrolle. Wir haben schon mal über Pizza-as-a-Service gesprochen, das Prinzip gilt hier genauso.
Du rufst an, kriegst die Pizza geliefert. Was wirklich drin ist? Keine Ahnung. Allergene? Zu viel Zucker? Weiß nicht, schmeckt halt. Bequem, aber du hast keine Kontrolle.
Oder: Du stehst auf dem Bauernhof, erntest Dein Feld, schlachtest Deine Sau, machst Deine Salami für die Pizza. Mehr Arbeit, aber Du weißt genau, was drin ist.
Bei Schatten-KI ist es genauso. SaaS-Produkte wie ChatGPT sind bequem, aber undurchsichtig. Lokale KI-Lösungen sind aufwändiger und meist auch teurer in der Unterhaltung. Und transparent? Naja, zumindest transparenter.
Und das Problem: Es wäre naiv einfach darauf zu vertrauen, dass die Tech-Giganten keine wirtschaftlichen Eigeninteressen haben.
Schatten-KI ist gefährlich, weil sie unkontrolliert ist. Du weißt nicht, wer was womit macht.
Wenn der Datenschutzbeauftragte anklopft oder ein Kunde fragt: „Warum wissen die da drüben von unserem Deal?“ – dann hast Du ein Problem.
Die Lösung? Drei Schritte:
Erstens: Richtlinien. Klar für das ganze Team kommunizieren, was erlaubt ist und was nicht.
Zweitens: Schulungen. Mitarbeiter sensibilisieren, warum das wichtig ist.
Drittens: Alternativen anbieten. Wenn Du zum Beispiel sagst „ChatGPT ist verboten“, nutzen sie es trotzdem. Aber wenn Du konkret sagst „Hier ist unsere DSGVO-konforme KI-Lösung, die genauso gut funktioniert“, dann hast Du eine Chance.
Lokale KI als Lösung? Ja, aber nicht für alles. Und das ist okay. Was heißt aber überhaupt „lokal“?
Lokal bedeutet nicht, dass alles bei Dir im Keller läuft. Es kann auch ein externes Rechenzentrum sein. Entscheidend ist: Du hast die Kontrolle über die Infrastruktur, über die Daten und darüber, wer Zugriff hat.
Viele schrecken aktuell noch vor lokaler KI zurück, weil sie denken: „Das kann ich mir nicht leisten. KI braucht doch riesige Rechenzentren.“ Und ja, KI-Modelle sind hungrig.
OpenAI, Google, Meta bauen Rechenzentren wie verrückt, weil ihre Modelle Millionen von Nutzern gleichzeitig bedienen müssen. Und Nvidia verdient sich daran aktuell eine goldene Nase, weil sie die GPUs dafür liefern, auf denen das alles läuft.
Aber – und das ist entscheidend – Du brauchst keine Infrastruktur für vier Milliarden User. Wenn Du ein kleines Unternehmen bist mit 20, 50, 100 Mitarbeitern und eine Sekunde länger warten kannst, reicht oft schon vernünftige Standard-Hardware, um ein lokales KI-Modell zu betreiben.
Dann musst Du noch Deine Anforderungen klären: Brauchst Du Voice-Funktionen wie Text-to-Speech oder Speech-to-Text? Oder einfach ein internes ChatGPT für Dein Team? Davon hängt ab, welche Hardware und welches Modell Du brauchst.
Open-Source-Modelle als Lösungen gibt es mittlerweile genug. Aber ein Modell allein reicht nicht. Du brauchst einen Rahmen drumherum. System Prompts, Konfiguration, Anpassung an Deine Prozesse. Erst das macht aus einem Modell ein nutzbares Produkt.
Was zum Beispiel OpenAI mit seiner API anbietet, ist nicht das Gleiche wie das fertige ChatGPT auf der Website. Da muss Hirnschmalz und Kontext rein.
Entweder Du beschäftigst Dich selbst damit, schaust auf zum Beispiel GitHub nach spezifischen Lösungen, oder Du fragst einen Dienstleister, der sich damit auskennt. Mittlerweile gibt es echt gut nutzbare lokale KI-Lösungen.
Nehmen wir ein Beispiel: Speech-to-Text. Ich bin des Tippens müde, obwohl ich schnell tippe. Ich diktiere lieber, und der Text erscheint im Chatfenster.
Auf dem Mac und Windows gibt es dafür zum Beispiel Super Whisper, meist mit Cloud-Anbindung. Auf Linux gibt es Open-Source-Alternativen wie VoxType. Die funktionieren noch nicht 100% perfekt, das muss ich ehrlich sagen. Aber hier gilt: So schlecht wie heute wird es nie wieder sein.
Die Entwicklung geht rasant. KI wird besser, dadurch entstehen bessere Tools mit KI, die wiederum die Entwicklung beschleunigen. Ein positiver Kreislauf.
Compositing – So funktioniert's:
Lokal für Sensibles: Kundendaten, interne Strategien, Gehaltsdaten, Verträge. Alles, was unter die DSGVO fällt oder geschäftskritisch ist.
Cloud für Unkritisches: Öffentliche Recherchen, Marketing-Texte, allgemeine Analysen. Dinge, bei denen es egal ist, ob sie irgendwo in der Cloud liegen.
Es gibt Bereiche, da macht lokale KI keinen Sinn. Wenn es einen guten Cloud-Dienst dafür gibt und die Daten unkritisch sind, dann nutze den. Und trotzdem hast Du den sensiblen Teilbereich lokal abgesichert.
Compositing heißt: Das zusammenstacken, was Du brauchst. Nicht starr für die nächsten hundert Jahre entscheiden, sondern dynamisch anpassen. Je nachdem, was gerade Sinn macht.
Und wenn Du aktuell eine Cloud-Lösung suchst, die Privacy ernst nimmt? Dann kannst Du dir zum Beispiel Confer anschauen.
Das ist ein Chat-Agent vom Signal-Gründer (der datenschutzkonformen WhatsApp Alternative). Confer funktioniert wie ChatGPT, aber ohne Werbung und ohne Kompromisse bei der Privacy.
Der Haken? Kostet etwa 50% mehr als ChatGPT Plus und ist funktional noch nicht ganz auf Augenhöhe. Ist das also für jeden die Lösung? Nein.
Aber es zeigt: Alternativen existieren und wir dürfen heute nicht mehr binär und schwarz weiß denken.
Die Frage ist: Was ist gut genug für Dich und Dein Unternehmen? Wo bist Du bereit, Kompromisse einzugehen? Und wie sieht eure langfristige unternehmerische Strategie aus?
Das war der Shortcut für diese Woche!
Hast Du eine Strategie für KI, die Privacy und Pragmatismus verbindet? Oder läuft das Ganze eher nach dem Prinzip „schauen wir mal“?
Wenn Du wissen willst, wie Compositing in Deinem Unternehmen konkret aussehen könnte, wo Schatten-KI lauert und welche Lösungen für Deine Anforderungen Sinn machen, lass uns sprechen.
Gemeinsam entwickeln wir eine Roadmap, die zu Deinem Business passt. Antworte dafür einfach auf diese E-Mail oder buche Dir direkt einen Termin.
Bis nächsten Donnerstag,
Patrick & das top.media Team