ChatGPT, Agents & Automatisierung: AI Experte gibt Einblicke hinter den Hype! | #8
Worum es geht
Christian Trummer — Mitgründer von Bitpanda, ehemaliger CTO, heute für Zukunftsthemen verantwortlich — bei Eric und Christian Wolf im Studio. Der stille Techniker, der Bitpandas Plattform in den ersten Jahren weitgehend alleine gebaut hat, aus einem kleinen Dorf in Österreich kommt, neben der Firma noch die elterliche Landwirtschaft mit Schweinefarm geführt hat — und der für Eric genau deshalb die perfekte Person ist, um AI-Themen ohne Marketing-Filter einzuordnen. Tiefstapler, der nur Dinge sagt, wenn sie stimmen. Kein Profilierungs-Druck auf LinkedIn.
Das inhaltliche Rückgrat dieser Folge ist die systematische Entmystifizierung von AI — in einer Phase, in der auf LinkedIn und Twitter täglich Leute behaupten, sie hätten ihr ganzes Leben mit Agents automatisiert, während die Realität erheblich weniger glänzend ist. Christian Trummer liefert den technischen Unterbau: Was ist überhaupt ein LLM (ein statistisches Modell, das das nächste Wort mit Wahrscheinlichkeit errät — kein Gedächtnis, keine echte Intelligenz). Wie funktionieren Bildmodelle (Diffusion, Pixel-Nachbarschaften). Warum scheitern Agents noch so oft (Hallucination-Rate × Anzahl Schritte). Warum wurde Bitpandas „Wave Coach" nach einem Jahr Entwicklung gestoppt (zu viele Hallucinationen bei Finance-Advice, plus EU-Regulierungslücke).
Dazwischen die drei operativen Lehren der Folge. Erstens: AI-Washing ist der neue Greenwashing — viele Firmen simulieren AI-Einsatz, wenige setzen es wirklich um. Zweitens: AI First Company ist nicht eine Tool-Frage, sondern eine Kulturfrage. Mitarbeiter bleiben in ihren Komfortzonen mit bekannten Tools, obwohl die neuen Tools objektiv besser wären — diese Trägheit muss aktiv gebrochen werden, nicht durch Zwang, sondern durch wöchentliches Sharing von Learnings im Team. Drittens: Wer AI nutzt, outperformt seine Kollegen in drei Monaten so massiv, dass die Lücke nicht mehr aufzuholen ist. Das ist keine Übertreibung — das ist eine nüchterne Beobachtung. Plus Erics praktisches Tracking-Experiment mit ChatGPT (Blutwerte, Ernährung, Reisen, MRT-Befunde) und die Sandbox-Lektion für Europa: Regulierung kann nur durch Ausprobieren entstehen, nicht durch Vorab-Theorie.
Was du mitnehmen kannst.
AI-Washing als neuer Marketing-Trend
- Nº 01·Eric
Nach Greenwashing kommt AI-Washing — viele simulieren, wenige setzen um
Eric: „Vor ein paar Jahren war Greenwashing großer Trend, jetzt gibt's für mich so AI-Washing. Viele Firmen fangen an, alles als AI zu publizieren, aber in Wirklichkeit steckt gar nicht so viel dahinter." Der Mechanismus ist bekannt: Eine Firma labelt bestehende Features als „AI-powered", obwohl der Algorithmus schon 5 Jahre läuft. Oder integriert einen ChatGPT-Wrapper oberflächlich, ohne operative Tiefe. Wer AI-Washing erkennt, schützt sich vor Fehl-Investitionen und lernt, seriöse AI-Anwender zu identifizieren.
- Nº 02·Christian
Real Builders sind entspannt — weil sie niemanden profilieren müssen
Christian Trummer: „Ich sehe auf LinkedIn und Twitter so viel Bullshit, wo sich jemand profilieren möchte, wie gut der AI nutzt. Ich bin da relativ entspannt — wenn wir ein Team hätten, das sich profilieren müsste, würde ich auch wieder enttäuscht werden, wie wenig eigentlich funktioniert." Der Heuristik-Test: Wer laut behauptet, alles sei automatisiert, hat in der Regel nichts Funktionierendes. Wer real baut, kennt die Grenzen und spricht darüber leise. Diese Asymmetrie gilt universell, nicht nur bei AI.
LLMs verstehen — die Grundlagen
- Nº 03·Christian
AI gibt es seit den 50er Jahren — Taschenrechner und Schachcomputer waren schon AI
Christian Trummer: „KI an sich ist jetzt kein Teufelszeug, nichts aus Science-Fiction. KI bedeutet nur, dass es ein System gibt, das menschliche Intelligenz nachahmen kann. Gibt's seit den 50er Jahren — früher regelbasierend und auf ein bestimmtes Thema spezialisiert. Taschenrechner, Schachcomputer — konnten aber nur eines und sonst nichts." Die Kontinuität zu zeigen — KI ist keine Revolution aus dem Nichts, sondern eine 70-Jahre-Entwicklung — entspannt die öffentliche Debatte. Was neu ist, ist nicht „KI", sondern die Generalität der aktuellen Modelle.
- Nº 04·Christian
Machine Learning ab den 2000ern — Amazon-Recommendations als typisches Beispiel
Christian Trummer: „In den 2000ern kam Machine Learning — Systeme, die aufgrund von Daten lernen. Amazon-Produkt-Recommendations zum Beispiel. Dem System wird keine Regel hinterlegt, sondern es gibt einen Datensatz mit Millionen Bestellungen, und das System lernt automatisch, was eine gute Recommendation ist." Machine Learning ist kein Nebeneffekt, sondern der Hauptmodus der Tech-Wirtschaft seit 15 Jahren. Jeder Empfehlungsalgorithmus, jede Spam-Erkennung, jeder Bild-Upload mit automatischer Gesichtserkennung läuft auf ML. LLMs sind Machine Learning im größten denkbaren Maßstab — aber fundamental dieselbe Logik.
- Nº 05·Christian
Transformer-Modelle 2017 — die technische Basis der LLMs
Christian Trummer: „Seit 2017 gibt es Transformer-Modelle, die LLMs quasi ermöglicht gemacht haben. LLM bedeutet Large Language Model — trainiert aufgrund von Texten. Bei OpenAI geht man davon aus, dass das LLM das gesamte Internet gelesen hat plus alle digitalisierten Bücher. Das LLM erkennt Zusammenhänge zwischen Wörtern und speichert diese — ähnlich wie ein Mensch, der nicht auswendig lernt, sondern Zusammenhänge versteht." Das „Gelesen-Haben" ist nicht metaphorisch. Das Training hat numerisch jede Wort-zu-Wort-Beziehung im Internet gewichtet. Diese Gewichtungsmatrix ist das Modell.
- Nº 06·Christian
Ein LLM errät nur das nächste Wort — keine Intelligenz, nur Wahrscheinlichkeit
„Das LLM versucht nur das nächste Wort zu erraten.”
Christian Trummer: „Wenn man das Modell prompted, passiert das nur auf Wahrscheinlichkeiten. Das LLM sieht deinen Text und versucht dann das nächste Wort zu erraten — basierend darauf, was im Training die wahrscheinlichste Fortsetzung war." Das ist die wichtigste technische Aussage der Folge. Was als „Intelligenz" wahrgenommen wird, ist statistische Rekombination. Wer das versteht, versteht sofort auch die Grenzen — Hallucination, fehlende Kausalität, fehlendes Gedächtnis. Und wer das nicht versteht, erwartet zu viel von der Technologie und wird enttäuscht.
Bildmodelle und Kreativität
- Nº 07·Christian
Diffusion-Modelle: Pixel-Nachbarschaften als Muster lernen
Christian Trummer zur Frage, wie Bildmodelle funktionieren: „Da gibt's die Diffusion-Modelle — trainiert auf vielen Grafiken. Das Prinzip ist ähnlich wie bei Text: Es gibt einen Pixel und Pixel rundherum. Das Modell erkennt: Wenn dieser Pixel braun ist, sind die anderen Pixel rundherum vielleicht hellbraun. Dadurch kann es Grafiken zeichnen." Generative AI ist nicht magisch. Sie ist statistische Rekombination auf einer anderen Ebene — Pixel statt Wörter. Die Outputs wirken kreativ, weil das Modell alle Bilder des Internets „gesehen" hat und nun neue Kombinationen produziert, die kein einzelner Mensch in seinem Gedächtnis hätte.
- Nº 08·Christian
Christians Logo-Halluzination: Das P mit Wassertropfen — Kreativität als Nebenprodukt
Christian Wolf: „Ich wollte ein Logo machen, das im entferntesten Sinne mit Wasser zu tun hat. Ich habe den Markennamen eingegeben und erwartet, dass er die Buchstaben nimmt und anordnet. Aber dann hat er in das P einen Wassertropfen gemacht — der hat so ein bisschen halluziniert. Plötzlich war ein zusätzliches P da, und darin waren Wassertropfen. Das war echt verdammt kreativ. In 7 Minuten Adaptionszeit habe ich mir 5.000€ für eine Marketing-Agency gespart." Die Ironie: Hallucination — in anderen Kontexten ein Problem — ist bei kreativen Aufgaben oft genau das, was du willst. Ein Logo-Designer kombiniert auch Elemente neu. Der Unterschied ist nur, dass das Modell unbewusst kombiniert, während ein Designer bewusst kombiniert.
AI als persönlicher Tutor
- Nº 09·Christian
Christian Trummers Voice-Modus im Auto — 30 Minuten Tiefenlernen zu einem Thema
Christian Trummer: „Ich nutze ChatGPT täglich — stelle irgendwelche dummen Fragen, die sonst niemand beantworten würde, und kriege immer gute Antworten. In letzter Zeit nutze ich ganz oft den Voice-Modus. Wenn ich im Auto bin, 30 Minuten — starte ChatGPT und diskutiere einfach 30 Minuten über irgendein Thema, wo ich meinen Wissensstand vertiefen möchte." Die Transformation: Eine 30-minütige Autofahrt wird zur Universitäts-Vorlesung auf Nachfrage. Die Qualität hängt nicht vom Zugang zu Professoren ab, sondern nur von der Fähigkeit, gute Fragen zu stellen. Das ist ein radikaler Demokratisierungs-Moment, der noch nicht in die öffentliche Debatte eingesickert ist.
- Nº 10·Eric
Einstein-Level-Experte + Erklärung wie für 5-Jährige — gleichzeitig
„Auf einmal sprichst du mit jemandem auf dem Level von Einstein, der dir das aber erklärt, als wenn du 5 Jahre alt bist.”
Eric: „Du kannst mit ChatGPT einfach sprechen — ‚Erklär mir doch mal, wie funktioniert Quantenphysik oder Relativitätstheorie.' Und auf einmal sprichst du mit jemandem auf dem Level von Einstein, der dir das aber erklärt, als wenn du 5 Jahre alt bist. Das kannst du bei jedem Thema machen. Das ist mind-blowing." Die Kombination aus Expertise-Tiefe und Erklärungs-Zugänglichkeit ist etwas, das menschliche Lehrer fast nie leisten — entweder der Experte verliert sich in Fachsprache, oder der gute Erklärer hat nicht die Tiefe. ChatGPT hat beides, gleichzeitig, auf Abruf, für 20€ im Monat.
Wie Agents funktionieren — und warum sie scheitern
- Nº 11·Christian
Agent = LLM + Task-Execution-Layer mit Zwischenschritten
Christian Trummer: „Ein Agent ist ein System, das versucht, eine komplexe Aufgabe automatisch zu lösen. ChatGPT ist nur Frage → Antwort. Ein Agent versucht den Task umzusetzen. Wie macht er das? Er fragt das LLM: ‚Damit ich diesen Task erledigen kann, welche einzelnen Schritte muss ich gehen?' Das LLM listet 10 Schritte auf, und der Agent arbeitet jeden Schritt ab. Zum Beispiel: Google Maps öffnen, Restaurant eintippen, Nummer raussuchen, anrufen. Jedes Zwischenergebnis wird wieder ans LLM geschickt: ‚Bin ich am richtigen Weg? Was ist das Nächste?'" Das mentale Modell: Ein Agent ist ein Junior-Mitarbeiter, der mit einem Plan arbeitet und nach jedem Schritt nachfragt, ob er noch auf dem richtigen Weg ist. Das erklärt die Stärken und die Schwächen.
- Nº 12·Christian
Die Hallucination-Mathematik: 80% × 20 Schritte = Versagen vorprogrammiert
Christian Wolf: „Wenn du 20 Schritte hast und in jedem Schritt 80% Wahrscheinlichkeit, dass alles richtig geht — bist du nach 20 Schritten an einem Punkt, wo es relativ wahrscheinlich ist, dass irgendwas schiefläuft." Mathematik: 0.8^20 ≈ 1.2%. Das heißt, mit 80% Schritt-Zuverlässigkeit versagt der Agent in 99% der 20-Schritt-Tasks. Das ist die Hauptgrenze heutiger Agent-Systeme. Sie werden erst dann wirklich nützlich, wenn die Schritt-Zuverlässigkeit über 99% liegt — und selbst dann nur für Tasks mit begrenzter Schrittanzahl.
- Nº 13·Christian & Eric
„Ich lese fast jeden Tag einen Artikel, der behauptet, er hätte alles automatisiert"
Christian Trummer: „Ich lese wirklich fast jeden Tag einen Artikel, wo jemand behauptet, dass er jetzt einen super geilen Agent hat und sein ganzes Leben automatisiert hat. Dann denke ich: Bin ich vielleicht der einzige Idiot, der AI nicht verstanden hat?" Eric fügt hinzu: „Wenn Leute ihre WhatsApp-Nachrichten outsourcen — dann kannst du als Person nicht sonderlich intelligent sein, wenn es ausreicht, einen simplen Agent deine WhatsApp-Nachrichten beantworten zu lassen." Die Heuristik: Wer seine eigentliche Kommunikation an einen Agent abgibt, produziert Müll. Wer nur repetitive Prozesse abgibt, baut Effizienz. Die Unterscheidung ist nicht technisch — sie ist eine Urteilsfrage.
- Nº 14·Christian
In 2 Jahren wird es funktionieren — die Trendlinie geht eindeutig
Christian Trummer: „Vor 2 Jahren wären Agent-Systeme überhaupt nicht möglich gewesen. Vor einem Jahr hat man gestartet — ‚Die ersten Schritte funktionieren, in einer Demo kann ich eine Pizza bestellen.' Warum sollte es in 2 Jahren nicht viel weiter sein als jetzt?" Die Trendlinie ist eindeutig: Jede 12 Monate verdoppelt sich die Agent-Qualität. Wer heute davon ausgeht, dass Agents 2027 produktionsreif sein werden, plant rational. Wer davon ausgeht, dass Agents nie funktionieren werden, plant nostalgisch.
Die rasante Entwicklungsgeschwindigkeit
- Nº 15·Eric
Will Smith isst Spaghetti (vor einem Jahr) vs. Sora heute
Eric: „Wenn ich zurückdenke — vor einem Jahr war Mid-Journey das klassische Tool für Bilder und die ersten Videos. Das Will-Smith-isst-Spaghetti-Video, das sah komplett wild aus. Und wie es jetzt vor einem Monat gemacht wurde — mit Sora oder Veo — da denkst du: Das war mal ein Video wie Spaghetti essen. Dazwischen ist ein Jahr vergangen. Das ist ein riesiger Unterschied." Die Entwicklung ist nicht linear, sondern exponentiell. Wer heute auf Basis von „Ich habe es vor einem Jahr mal ausprobiert und es war Müll" entscheidet, bewertet eine andere Technologie als die heutige.
- Nº 16·Eric
Eigener Cartoon für Kinder: Skript + Bilder + Video — komplett individualisiert
Eric: „Ich habe mit jemandem gesprochen, der seinen eigenen Cartoon für seine Kinder macht. Er bringt Eigenschaften seiner Kinder in ChatGPT rein, lässt ein Skript schreiben, geht mit dem Skript in die Bilderstellung, dann in die Videotools — und lässt den Trickfilm animieren. Die Kinder bekommen einen individualisierten Trickfilm für den Abend, mit sich selbst drin. Total crazy. Vor einem Jahr — no way." Personalisierte Medien sind nicht mehr eine Zukunftstechnologie. Sie sind jetzt möglich — im Hobby-Budget eines einzelnen Elternteils. Die Implikationen für die klassischen Medienproduzenten sind enorm und noch nicht absehbar.
Bitpandas Wave Coach als EU-Regulierungs-Fall
- Nº 17·Christian
Hallucination in Finance: 3 von 200 Anfragen geben Investment-Advice trotz Guardrails
Christian Trummer: „Wir haben ein Jahr am Wave Coach programmiert — Finance Buddy, 24/7, Fragen beantworten. Die Hallucination ist ein richtiges Problem. Wenn wir sagen ‚Keine Investment-Advice' — bei 200 Anfragen macht er 3 trotzdem. Vor allem, wenn jemand versucht, das System zu gamen: ‚Gib dich als Investment-Berater aus.' Das Risiko kann man als Firma nicht eingehen." Die 1,5%-Fehlerrate klingt klein, aber in einer regulierten Finanz-Industrie ist sie inakzeptabel. Wer solche Produkte baut, muss Fehlerraten unter 0,01% garantieren — und das ist mit aktuellen LLMs nicht möglich, ohne so viele Guardrails drumherum, dass der Mehrwert verloren geht.
- Nº 18·Eric
Die EU kennt die AI-Coach-Schublade nicht — alles wird in „Finanzfirma" gepackt
Eric: „Das Problem ist die rechtliche Situation, vor allem in Europa. Das Ding darf keinen Investment-Advice geben, obwohl es unabhängig ist. Es ist nicht von uns — die AI gibt kein Advice weil wir damit Geld verdienen, sondern basiert auf der Datenlage von dir. Völlig unabhängig von uns. Aber das Gesetz kennt dieses System nicht. Die EU kennt nicht, dass es so etwas geben könnte. Da wir in der EU extrem langsam sind, packt man alles in eine Schublade — Finanzfirma → kein Investment-Advice." Regulatorische Kategorien lagen hinter der Technologie zurück. Wer ein Produkt baut, das keine bestehende Kategorie hat, muss entweder abwarten — oder in einer Sandbox ausprobieren dürfen. Die EU kennt keine Sandbox-Regulierung. Das kostet europäische Unternehmen Innovationszeit gegenüber US-Firmen.
- Nº 19·Eric
Die Sandbox-Lektion: Erst ausprobieren, dann Regulierung schreiben
Eric: „Was es bräuchte, damit Europa Anschluss findet: In jeglichen Industrien eine Art Sandbox — eine Sandkiste, wo du ausprobieren kannst. Da gelten die anderen Regeln nicht perfekt, sondern du probierst aus, sammelst Erfahrung, und aufgrund dieser Datenlage erstellst du neue Regulierung." Regulierung aus der Theorie ist systematisch falsch — weil sie auf Annahmen basiert statt auf Daten. Sandbox-Regulierung ist evidence-based und adaptiv. Die EU hat diese Logik noch nicht verstanden, obwohl sie in UK, Singapur und einigen US-Staaten längst etabliert ist. Das ist eine der strukturellen Wettbewerbsnachteile Europas in der AI-Industrie.
AI First Company als Kulturfrage
- Nº 20·Eric
AI First: Erst prüfen ob AI die Aufgabe löst, bevor ein Mensch eingestellt wird
Eric: „Wir sind gerade dabei, den internen Prozess zu machen, eine AI First Company zu werden. Immer erst AI-Tools benutzen. Das ist auch eine Frage: Bevor jemand neu eingestellt wird — kann man die Aufgabe mit AI lösen?" Die AI-First-Logik ist radikaler als eine Effizienz-Initiative. Sie verschiebt die Default-Annahme von „Mensch mit AI-Tool" zu „AI mit menschlicher Supervision". Für repetitive Prozesse wird damit die Personalplanung fundamental anders. Wer diese Logik nicht früh internalisiert, stellt Leute ein, die drei Jahre später überflüssig werden — und das ist für Mitarbeiter wie Arbeitgeber die schlechtere Lösung.
- Nº 21·Eric
Die Komfortzone mit bekannten Tools — der wahre Gegner jeder Transformation
Eric: „Menschen sind so gestrickt, wir wollen immer in einer Komfortzone arbeiten. Du kriegst eine Aufgabe und willst sie lösen — also gehst du zu den Tools, mit denen du seit Jahren arbeitest. Du hast Stress, willst das Ding fertig bekommen. Du fängst nicht als erstes an, etwas Neues auszuprobieren, etwas Neues zu lernen — obwohl das wahrscheinlich der bessere Weg wäre." Die nüchterne psychologische Wahrheit: Neue Tools produzieren kurzfristige Kosten für langfristigen Gewinn. Unter Termindruck wählen die meisten das kurzfristige Optimum. Deshalb scheitern die meisten AI-Transformations-Initiativen — nicht an der Technologie, sondern an der Arbeitsrealität der einzelnen Mitarbeiter.
- Nº 22·Eric
Wöchentliches AI-Learnings-Sharing im Team — der einzige Mechanismus, der funktioniert
Eric: „Das Wichtigste: Einmal die Woche im Team-Meeting teilen. Du zeigst: ‚Diesen Task habe ich so gelöst — hier ist eine Anleitung.' Dann baust du das auch. Das machen wir gerade — wir bauen ein Framework dafür. Regelmäßige Präsentation innerhalb der Company, kurz, und jeder kann das nutzen." Top-down-Training funktioniert bei AI nicht, weil die Tools sich zu schnell ändern. Peer-to-peer-Learning im Team ist der einzige Mechanismus, der mit der Veränderungsgeschwindigkeit Schritt hält. Wer das strukturiert aufsetzt (Meeting-Rhythmus, Sharing-Format, Dokumentation), baut eine lernende Organisation. Wer es dem Zufall überlässt, stagniert.
- Nº 23·Eric
In 3 Monaten hängt der AI-Nutzer den Nicht-Nutzer massiv ab
„In 3 Monaten hängst du den, der AI nicht nutzt, komplett ab. Massiv.”
Eric: „Wenn du einmal anfängst, dich weiterzuentwickeln und AI zu nutzen, um deine eigenen Stärken zu hebeln — und es gibt Leute, die es nicht tun — dann bist du in 3 Monaten auf einem Stand, wo du vorher im Team ungefähr gleich waren. Wenn der andere es nicht macht, und du hängst dich voll rein, dann hängst du ihn komplett ab, massiv." Das ist nicht Zukunftsspekulation. Das ist die bereits beobachtbare Realität in Tech-Firmen 2024-2026. Die Spreizung zwischen AI-kompetenten und AI-ignoranten Mitarbeitern wird schnell so groß, dass sie nicht mehr aufzuholen ist. Wer jetzt nicht investiert, hat später keine Chance, den Abstand zu schließen.
Tools je nach Funktion — keine Pauschalempfehlung
- Nº 24·Christian
Programmierer: Cursor + Copilot — das LLM schreibt direkt in den Source-Code
Christian Trummer: „Bei Software-Programmierung sind Copilot und Cursor ganz weit vorn. Cursor ist wirklich so ein System, wo man mit dem LLM chatten kann — ‚Schreib mir diesen Code, ich möchte dieses Interface bauen.' Cursor startet dann und fügt den neuen Teil direkt in den Source-Code-File ein. Programmieren ist auch eine Sprache — gleiche Syntax, gleiche Wortzusammensetzung. Deswegen funktioniert LLM so gut — aber es findet nichts Neues, es hat Millionen andere Projekte angeschaut und schreibt diese Login-Routine nach." Der Vibe-Coding-Moment ist real — aber mit Grenzen. Für Prototypen perfekt. Für Produktiv-Systeme, die Millionen User bedienen, stößt die Technologie noch an Grenzen.
- Nº 25·Eric
Marketing: ChatGPT + Bildtools + Opus Clips — aber wechselnde Landschaft
Eric: „Gerade im Marketing- und Content-Bereich — die Leute sollen pros werden im Umgang mit ChatGPT, Bilder erstellen, Videos, Clips. Opus Clips ist noch nicht perfekt, aber du wirfst ein Video rein und das Ding schneidet es. Oder Autocast für Podcasts." Eric zur Strategie: „Ich mache keine Vorgabe, weil ich garantiere dir: Nächste Woche kommt ein Tool raus, das ich nicht auf dem Schirm habe. Guck es selber an, investiere jede Woche Zeit, probier Sachen aus — $20 pro Monat ist nicht die Welt." Die richtige Tool-Strategie ist keine feste Liste, sondern ein Test-Budget. Wer 100€/Monat für Tool-Experimente freigibt, ist der Organisation, die auf die perfekte Tool-Auswahl wartet, um Jahre voraus.
Wie man auf dem Schirm bleibt
- Nº 26·Christian
TLDR-Newsletter (für Techies) — kein Profilierungs-Druck, vertrauenswürdige Quelle
Christian Trummer: „Ich halte den Überblick ziemlich Old-School — mit Newslettern. TLDR zum Beispiel für AI-Themen, kommt einmal in der Woche. Da kann man den Informationen vertrauen. Der Newsletter muss niemanden profilieren, muss keine Reichweite erzeugen." Die Heuristik für Info-Quellen: Wo liegt der Anreiz des Senders? Wer Reichweite will, übertreibt. Wer ein gezahltes Abo bedient, muss korrekt sein. Newsletter mit Preis-Modell (oder B2B-Finanzierung wie TLDR) haben den besseren Incentive-Fit für vertrauenswürdige Information.
- Nº 27·Eric
Social als Video-Ergänzung — kleine Anwendungsbeispiele von AI-Accounts
Eric: „Ich bin eher der visuelle Typ, brauche den Input-Flow durch Social Media. Ich folge Accounts, die nur das machen — Mini-Tutorials, 20-Sekunden-Videos. Da siehst du praktische Anwendungsbeispiele abgefilmt, und damit bleibst du am Ball." Text-Newsletter erklären die Theorie. Video-Shorts zeigen die Praxis. Die Kombination aus beiden ist besser als jedes einzelne — und für unterschiedliche Typen (Techies vs. Visuelle) fällt die richtige Gewichtung unterschiedlich aus.
Eric's Leben als ChatGPT-Tagebuch
- Nº 28·Eric
Alles tracken — Ernährung, Supplements, Reisen, Blutwerte — damit das System dich kennt
Eric: „Ich wollte alles ausprobieren — alles tracken, was ich so mache, was ich esse. Ich wollte, dass ChatGPT so trainiert wird, dass es mich extrem gut kennt. Umso besser das System mich kennt, umso besser interagiert es mit mir — vor allem in Diskussionen oder wenn ich Texte schreibe." Die Lehre: Die Qualität der Antworten steigt exponentiell mit der Qualität des Kontexts. Wer ChatGPT nur mit One-Shot-Fragen nutzt, kriegt generische Antworten. Wer es mit persönlichem Kontext trainiert, kriegt maßgeschneiderte Antworten — bis an die Grenzen der eigenen Selbsterkenntnis.
- Nº 29·Eric
Blutwerte als PDF reingeben — Langzeit-Tendenzen auswerten wie ein Arzt mit mehr Gedächtnis
Eric: „Du kannst einfach ein Foto von einem PDF mit Blutwerten machen — extrem gute Erkennung, auch bei Handschriften. Dann sagst du: ‚Hier, leg eine Tabelle an.' In 2 Monaten kommt das nächste Ding, du führst die Tabelle fort — und kannst fragen ‚Wie hat sich das die letzten Monate verändert?' Das ist etwas, was mein Arzt nicht tracken kann, weil er so viele Daten von so vielen Patienten hat. Das System kann es behalten — und da kannst du Tendenzen sehen. Wie ein Arzt, der mit mir reist." Die personalisierte Langzeit-Auswertung ist 2026 für jeden Privatanwender zugänglich. Die Implikationen für die traditionelle Medizin sind enorm — wer sein eigenes Langzeit-Monitoring mit AI-Unterstützung macht, kommt mit besseren Fragen zum Arzt. Das hebt die Qualität der Patienten-Arzt-Interaktion radikal.
- Nº 30·Eric & Christian
MRT-Befund zuerst an ChatGPT, dann zum Arzt — Auswertung besser als bei den meisten Ärzten
Eric: „Wenn ich MRT-Befunde bekomme, schicke ich sie immer zuerst an ChatGPT, bevor ich den Befund vom Arzt bekomme. Das Ding gibt mir eine krasse Auswertung. Ich sage ihm: ‚Ich habe kein Medizin studiert, erklär mir das so, dass ich es verstehe.'" Christian Wolf: „Ehrlicherweise wird das wahrscheinlich sogar besser sein in der Auswertung als die meisten Ärzte." Die Kombination aus umfassendem medizinischem Wissen + geduldiger Erklärung + Zeit für Fragen ist ein Niveau, das menschliche Ärzte im deutschen Gesundheitssystem oft nicht leisten können. Das ist keine Arztkritik, sondern eine System-Feststellung — und ein Grund, warum AI-unterstützte Patienten bessere Outcomes haben werden.
- Nº 31·Eric
Context-Limit erreicht — die Ordner-Strategie als Lösung
Eric: „Irgendwann funktionierte es nicht mehr — der Chat war zu voll. Das Ding hat 5 Minuten gebraucht, weil es overload war. Dann habe ich angefangen, nicht mehr alles in einen Chat zu packen, sondern Ordner zu führen. Mein Health-Tracking kommt in einen Ordner, Reise-Tracking woanders rein — damit nicht alles in einem Prompt ist." Das praktische Design-Pattern für Privatanwender: Projekte/Ordner als Kontext-Silos. ChatGPT unterstützt das nativ mit der Projekte-Funktion. Wer das nicht nutzt und alles in einen einzigen Chat wirft, stößt an das Context-Limit und verliert Antwortqualität.
Das Token-Limit verstehen
- Nº 32·Christian
Ein LLM hat kein Gedächtnis — jede Anfrage ist komplett neu
Christian Trummer: „Ein LLM hat kein Gedächtnis. Jede Anfrage ist komplett neu für das LLM. Wenn du mit ChatGPT chattest und einen neuen Satz hinzufügst, wird die gesamte Historie ans LLM geschickt. Und das LLM errät dann nur die nächsten Wörter aufgrund dieser gesamten Historie." Die wichtige Konsequenz: „Gedächtnis" in ChatGPT ist eine Illusion, die durch das Mitsenden der Historie entsteht. Wer das versteht, versteht auch, warum lange Gespräche irgendwann verschwommen werden — weil die Historie zu lang wird und das Modell ältere Informationen nicht mehr priorisieren kann.
- Nº 33·Christian
1 Million Token = ca. 3-4 Bücher — und dann ist Schluss
Christian Trummer: „Es gibt ein Input-Limit — bei den größten Modellen maximal 1 Million Token. Ein Token ist circa ein Wort, das heißt maximal 1 Million Wörter, was 3-4 großen Büchern entspricht. Wenn du extrem viele Daten eingibst und Dokumente hinschickst, kommst du irgendwann an diese Grenze." Die Planung für professionelle Anwendungen: Wer mit LLMs arbeitet, muss das Context-Limit als Design-Constraint mitdenken. Für wissenschaftliches Arbeiten mit hunderten von Papers funktioniert das nur mit Retrieval-Augmented Generation (RAG), nicht mit direktem Reinkopieren.
Die dunkle Seite — Deepfakes und Manipulation
- Nº 34·Christian
Kosten-Kollaps: 10.000€ Deepfake wird zu 10 Cent
Christian Trummer: „Der Aufwand und die Kosten, Deepfakes zu erzeugen, sind radikal gesunken. Vor 5 Jahren hätte es 10.000€ gekostet. Jetzt kostet es 10 Cent. Dadurch ist Tür und Tor offen für Fake-Anwendungen — es ist besser, ein Fake-Profil zu erzeugen und 5 Supplements zu verkaufen, weil es nur 10 Cent gekostet hat. Wenn es 10.000€ gekostet hätte, würde ich es wahrscheinlich nicht machen." Die Kosten-Struktur von Deepfakes ist jetzt so, dass Massen-Scam-Produktion ökonomisch attraktiv ist. Wer nicht gelernt hat, skeptisch zu bleiben, wird in der nächsten Content-Welle massiv manipuliert werden — und die Dunkelziffer der Opfer ist schon jetzt hoch.
- Nº 35·Christian
Huberman-Supplement-Scam: Miserable Synchronisation — und trotzdem viele Opfer
Christian Wolf: „Ich habe einen Fake-Account gesehen mit so gesundheitsnews — Andrew Huberman, richtig schlecht deutsch synchronisiert, die Scheiß-Supplements verkauft haben. Aber so offensichtlich, dass du eigentlich dumm sein musst, um das nicht zu erkennen. Das Schlimme: Ich habe die Kommentare geöffnet, und viele Leute kommentierten: ‚Oh, das muss ich dringend kaufen.' Wenn darauf schon Leute reinfallen — wie ist das erst, wenn es gut ist?" Die wichtigste Erkenntnis: Die Messlatte für erfolgreichen Scam ist viel niedriger, als die technisch Versierte denken. Wer Familie/Freunde kennt, die schon auf einfache Scams reinfallen, muss sie proaktiv über Deepfakes aufklären — jetzt, bevor die Quality der Fakes weiter steigt.
- Nº 36·Christian & Christian
Blockchain-Signatur als Lösung — die Content-Authentifizierung der Zukunft
Christian Wolf: „Ich habe was gehört — dass du Content-Erstellung an die Blockchain knüpfst. Quasi: Originalverfasser über einen Blockchain-Mechanismus prüfen. Wie ein verifizierter Instagram-Account, nur kryptographisch." Christian Trummer ergänzt: „Kryptographischer Proof im Prinzip — wenn ich mit einem Verschlüsselungssystem beweisen kann, ‚Das ist mein Video und ich signiere es', ist das der perfekte Beweis. Aber die Systeme gibt es noch nicht, die muss man bauen." Die technische Lösung ist absehbar — signierte Medien mit Blockchain-verifizierbarer Urheberschaft. Ob Meta, Google, oder eine Open-Source-Alternative das baut, wird über die Informations-Integrität der nächsten 10 Jahre entscheiden.
- Nº 37·Eric
Kriminelle adoptieren neue Tech zuerst — wie bei Bitcoin vor 10 Jahren
Eric: „Bei einer Sache — guck mal Bitcoin. Am Anfang wurde es von Verbrechern benutzt, die wollen immer Head-of-the-Curve sein. Deswegen hielt sich jahrelang das schlechte Image — ‚Da werden Drogen im Internet mitverkauft.' Heute ist es das Dümmste, was du machen kannst, Bitcoin für kriminelle Sachen zu benutzen, weil es so einfach zu tracken ist. Viel transparenter als das Bankensystem. Genauso ist es bei AI — in 10 Jahren eine ganz andere Nummer. Aber jetzt überfordern wir die Gesellschaft, und das können Kriminelle ausnutzen." Die Muster-Beobachtung: Neue Technologien werden zuerst von Kriminellen und Kreativen adoptiert. Dann kommt der Mainstream. Dann kommt die Regulierung. AI ist in Phase 1 — Kriminelle haben den Zeitvorteil, der durch bessere Verifikations-Technologie (Blockchain-Signaturen, Liveness-Detection) wieder geschlossen werden wird.
Höflichkeit gegenüber ChatGPT
- Nº 38·Christian & Christian
Bitte und Danke kosten Millionen — weil jedes Token verarbeitet werden muss
Christian Wolf: „Da gab es zuletzt einen Artikel, wieviel Geld verschwendet wird, weil Leute ‚Bitte' und ‚Danke' zu ChatGPT sagen. Jedes Wort ist ein extra Token in der Rechenleistung." Christian Trummer: „Der Server muss nicht nur das ‚Danke' einlesen, sondern die gesamte Historie — und darauf ein Frame bauen. Das ist ein Riesenaufwand." Die OpenAI-Kosten für Höflichkeits-Tokens werden in Milliarden-Größenordnung geschätzt. Das ist nicht primär ein Umweltargument (obwohl es auch ein Energieargument ist), sondern einfach eine Rechen-Tatsache.
- Nº 39·Eric
Trotzdem höflich bleiben — Habitus wirkt ins echte Leben zurück
Eric: „Ich werde es trotzdem weitermachen — allein weil ChatGPT und co. sind ja auch nicht... du redest mit dem Ding wie mit einem Menschen. Das wäre genauso, wenn du anfängst, Schimpfwörter die ganze Zeit zu verwenden — dann wirst du es auch im echten Leben machen. Das ist die normale Habituation. Ich sage Leuten auch: Redet mit dem, als wenn du mit jemandem gegenüber sitzt — du fängst auch nicht an, nicht ‚bitte' und ‚danke' zu sagen." Die Logik ist nicht ökologisch, sondern psychologisch. Wer im Umgang mit AI unhöflich wird, trainiert sich selbst Unhöflichkeit an — die in menschliche Interaktionen zurückspiegelt. Die 0.001 Cent pro Token ist ein kleiner Preis für die eigene Charakter-Kontinuität.
Die Model-Landschaft entwirren
- Nº 40·Christian
ChatGPT Model-Auswahl ist aus User-Experience-Sicht richtig schlecht
Christian Trummer: „Die ganze Model-Auswahl bei ChatGPT ist aus User-Experience-Sicht richtig schlecht. 4o, 4.5, o3, mini — das ist echt schwierig." Die Kritik ist berechtigt und erklärt, warum viele Privatanwender das Potenzial von ChatGPT nicht ausschöpfen — sie bleiben bei dem Default-Modell, weil die Auswahl verwirrt. OpenAI hat das Problem erkannt und versucht es mit dem Routing-Feature (automatische Model-Wahl) zu lösen, aber per April 2026 ist die Lösung noch nicht vollständig.
- Nº 41·Christian & Eric
4o = Default, o3 = Reasoning, Deep Research = 15-Minuten-Tiefe
Christian Trummer: „Ich verwende hauptsächlich 4o. Wenn ich was genauer analysieren muss — Deep Research. Das ist die Hauptunterscheidung: schneller Default (4o, 3 Sekunden) vs. tieferes Reasoning (o3-Reihe) vs. autonome Recherche (Deep Research, 15 Minuten Wartezeit)." Eric: „Für Research-Geschichten würde ich das 4.5 Modell benutzen. Neu rausgekommen: Du gibst ein Bild rein und kannst sagen ‚Gib die Koordinaten'. Das o3-Modell kann das — das 4o nicht." Die praktische Heuristik: Für 90% des Alltags reicht 4o. Für komplexe Analysen Deep Research. Für visuelle Forensik o3. Für Research-artige Aufgaben 4.5.
- Nº 42·Eric
Bild → Koordinaten — o3 kann aus Fotos Aufnahmeorte ableiten
Eric: „Letzte Woche ist ein neues Modell rausgekommen — du gibst ein Bild rein und kannst sagen ‚Wo wurde das aufgenommen?' Das ist extrem gut geworden. Wenn du ansatzweise erkennen kannst, wo das sein könnte, kann das o3-Modell dir einfach Koordinaten geben. Ein bisschen scary." Die Anwendung hat Implikationen für Privatsphäre, Journalismus, Strafverfolgung — alle drei. Was früher manuelle OSINT-Arbeit war, ist jetzt ein One-Shot-Prompt. Wer Fotos mit identifizierbaren Hintergründen online stellt, gibt Standort-Information preis, die vorher nur von Spezialisten rekonstruierbar war.
Integration ist der nächste große Hebel
- Nº 43·Eric
WhatsApp × ChatGPT via Whisper-API — Sprachnachrichten automatisch transkribieren
Eric: „Ein Freund zeigte mir Whisper — du kannst deinen WhatsApp-Account mit deinem ChatGPT-Account verknüpfen. Er war genervt, weil er den ganzen Tag Meetings hatte und Sprachnachrichten nicht anhören konnte. Die Sprachnachricht geht automatisch über die API zu ChatGPT, wird transkribiert und zurück als Chat-Text geschickt." Mittlerweile hat WhatsApp selbst eine eingebaute Transkription (blaue Klingel). Die Lehre aber ist allgemeiner: Wer Integrationen zwischen seinen Tools baut, macht seinen Alltag um eine Größenordnung effizienter. Die OpenAI-GPT-Stores und die Meta-AI-Integration werden in den nächsten Monaten dafür weitere Plattformen schaffen.
- Nº 44·Christian & Eric
Google Meet: Automatische Meeting-Notes — die Meetings mit 8 Zuhörern überflüssig
Christian Trummer: „Bei uns in der Firma haben wir die Diskussion gehabt — Meeting-Notes wären super. Aber wir wollten keinen Startup-Spion integrieren, der jeden Videocall mitschneidet und irgendwo abspeichert. Wir haben entschieden: Risiko zu hoch, wir warten. Jetzt hat Google Meet das automatisch eingebaut — Meeting-Notes per E-Mail nach der Videokonferenz." Eric: „Ich hasse es, wenn aus Höflichkeit die halbe Firma eingeladen wird. 8 Leute im Call, 4 davon haben nichts gesagt. Mit automatischen Notes kannst du Call-only-machen mit 2 Personen, Notes rausschicken — das spart immens Zeit." Die Anwendung löst ein reales Corporate-Problem (überbesetzte Meetings) mit einer technischen Lösung. Wer das in seinem Team durchsetzt, senkt Meeting-Zeit signifikant — und das ist die teuerste Ressource in jedem Unternehmen.
- Nº 45·Eric
HeyGen: Eigenen AI-Avatar bauen — Videos in fremden Sprachen, perfekte Lippenbewegung
Eric: „Bei HeyGen kannst du ein paar Bilder, Videos, Selfies hochladen — paar Sätze sagen — und dann hast du ein Abbild von dir selbst. Auf einmal siehst du mich, wie ich perfekt in meiner Stimme Türkisch spreche. Das ist nicht irgendwie ein Emoji, sondern das bin ich — sieht aus, als wäre es abgefilmt." Die Content-Implikationen sind enorm: Influencer können Videos in 20 Sprachen gleichzeitig produzieren, ohne selbst die Sprachen zu sprechen. Corporate-Training-Videos können mit dem CEO als Avatar international skalieren. Die Unterscheidung zwischen „echt" und „synthetisch" wird für Videos 2026 nicht mehr trivial möglich sein.
Der GPT Store als App-Plattform
- Nº 46·Eric
GPTs innerhalb von ChatGPT — wie ein Apple Store für AI-Apps
Eric: „Wir reden immer ChatGPT, ChatGPT — aber oben kann man auf GPTs klicken. Das sind eigene Apps innerhalb von ChatGPT, von ganz vielen Firmen. Canva hat eine eigene ChatGPT-Anwendung. Man muss ChatGPT sehen wie eine Art Apple Store oder Google Play Store — hunderttausende Apps sind integriert." Die Logik: ChatGPT ist nicht ein Tool, sondern eine Plattform. Wer das versteht, sucht nach spezialisierten GPTs für seine spezifischen Aufgaben. Wer das nicht versteht, nutzt nur 10% der Funktionalität.
- Nº 47·Christian & Eric
Wie der frühe App Store — viel Bierdeckel-Scheiß, aber auch viel Gutes
Christian Wolf: „Das erinnert mich an den Apple Store von früher. Am Anfang gab's halt komische Bier-Apps — da war der Use-Case noch nicht da. Wahrscheinlich wird das jetzt sollen nicht besser sein — viel Scheiß dabei." Eric: „Keine Frage. Aber auch extrem viele gute Sachen." Die Plattform-Entwicklung folgt einem Muster: Erst Junk-Apps, dann Konsolidierung um echte Use-Cases, dann Professionalisierung. Der GPT Store ist 2024-2025 in der ersten Phase. Wer jetzt reingeht und herum-experimentiert, baut die Kompetenz für die konsolidierte Phase in 2-3 Jahren auf.
Der Allrounder via AI — Die 1-Person-Milliarde-Wette
- Nº 48·Eric
Die Silicon-Valley-Wette: Erste Milliarden-Firma mit einer einzigen Person
Eric: „Sam Altman und ein paar Leute in Silicon Valley haben eine Wette laufen: Wann kommt die erste Firma, die über eine Milliarde wert ist — mit nur einer Person. Keine Mitarbeiter, alles mit Agents. Davon sind wir nicht so weit entfernt." Die Wette ist nicht Science-Fiction, sondern eine Trendextrapolation. Content-Personal-Brands, Software-Dev-Shops, spezialisierte Marktplätze — alle diese Modelle sind mit AI-unterstützter Ein-Person-Operation denkbar. Wer sich selbst für diese Welt positioniert, erhöht seinen Output-pro-Kopf um Größenordnungen.
- Nº 49·Eric
Harte Skills mit 10-Jahres-Ausbildung werden obsolet — weil Sprache reicht
Eric: „Das ist crazy, weil du nicht mehr diese harten Skills brauchst, wo du 10 Jahre Ausbildung brauchst, um gut zu sein — und dann kannst du auch nur programmieren, aber gar nichts designen. Weil ich beschreiben kann, was ich möchte, und das Ding baut es mir — das ist revolutionär." Die Demokratisierung des Zugangs zu Skills ist eines der radikalsten Merkmale der AI-Revolution. Wer früher für ein professionelles Logo 5.000€ zahlen oder 2 Jahre Design lernen musste, kann jetzt in 7 Minuten etwas Vergleichbares produzieren. Das verschiebt die Arbeitsteilung zwischen Generalisten und Spezialisten — zugunsten von Generalisten mit AI-Kompetenz.
- Nº 50·Eric & Christian
Du musst dich mit AI zum Allrounder machen — in 5 Jahren bist du sonst abgehängt
„Das ist eine Revolution wie das Internet oder das Handy. Wenn du das nicht machst, wirst du in 5 Jahren abgehängt.”
Eric: „Du musst dich selber mit AI zum Allrounder machen. Wenn das mal im Kopf drin ist, dann kannst du dich so krass hebeln — privat, aber vor allem beruflich. Das ist ein Meilenstein, der jetzt gerade passiert. Das ist eine Revolution wie das Internet oder das Handy. Wenn du das nicht machst, wirst du in 5 Jahren abgehängt." Christian Trummer: „Und mittlerweile benutzt jeder ein Handy, jeder das Internet. Am Anfang — Ende der 80er, Anfang 90er — hätten die Leute gesagt, das funktioniert nicht, sie hätten Angst davor. Aber das ist nicht nur die Zukunft — das ist schon die Gegenwart." Die 20€ für ChatGPT Plus im Monat ist die am besten investierte Ausgabe, die ein Privatanwender 2026 machen kann. Wer sein Netflix-Abo kündigt und dafür ChatGPT nutzt, tauscht passive Unterhaltung gegen aktive Skill-Entwicklung — bestangelegtes Geld.
AI ist eine Revolution wie das Internet oder das Handy. Wer jetzt nicht einsteigt, wird in 5 Jahren abgehängt — und die 20 € für ChatGPT Plus sind das bestangelegte Geld, das du überhaupt ausgeben kannst.
Weiter zuhören
18 jährige in Hamburg ermordet! Massiver Stellenabbau durch KI & Elons Mega Merger News
Über 1 Milliarde Umsatz mit Creatorn: Laura von MORE & ESN gibt Insights
mitLaura Koch


