💥100.000x effizienter: Diese deutsche Forschung macht alle KI-Rechenzentren überflüssig – doch niemand investiert 🔋
Shownotes
🎙️ Über diese Episode
In dieser Folge dreht sich alles um wegweisende Entwicklungen: Von Shopping-Protokollen bei ChatGPT und Google über bahnbrechende deutsche Forschung zu energieeffizienter KI-Hardware bis hin zu neurosymbolischen Modellen, die LLMs logisches Denken beibringen. Yusuf teilt seine Erkenntnisse von der TED-AI Wien und wir diskutieren, warum Innovation oft von Underdogs kommt – und nicht von Big Consulting.
🔥 KI & Tech News-Überblick
Payment-Protokolle im Wettbewerb:
- ChatGPT Instant Checkout mit Agentic Commerce Protocol (OpenAI + Stripe)
- Google's Agentic Payment Protocol (AP2) mit Mastercard, PayPal, AmEx
- Etsy als erster Partner, Shopify folgt
- VHS vs. Betamax 2.0? Welches System setzt sich durch?
KI-Modelle & Tools:
- Claude Sonnet 4.5: 30 Stunden durchgehendes Coding möglich?
- Google AI Mode: Visual Fanout für Shopping-Integration
- OpenAI GDP-Val: Praxisnaher Benchmark für KI-Modelle
- SORA 2 + SORA App: Social Media für KI-generierte Videos
Forschungs-Highlights:
- Jülich-Studie: Analog In-Memory Computing für 100.000x Energieeffizienz
- MIT/Microsoft: Neurosymbolische KI mit logischem Denken (28% → 94% Logik)
⏱️ Kapitelmarken
00:00 - Intro & Begrüßung
00:29 - Yusufs Erkenntnisse von der TED-AI Wien
04:38 - Die wahren KI-Innovatoren: Boutique-Firmen statt Big Consulting
05:20 - Christians Wissenschafts-Moment: Heißes Eis auf Kepler-22b
08:16 - Erwartungshaltung & KI-Übersättigung
11:07 - ChatGPT Instant Checkout & Agentic Commerce Protocol
13:30 - Google's Agentic Payment Protocol (AP2): Der offene Gegenentwurf
17:32 - Sicherheit beim KI-Shopping: Wer hat das letzte Wort?
22:30 - KI's Next Topmodel: Claude Sonnet 4.5
29:50 - Google AI Mode: Visual Fanout & Shopping-Graph
37:55 - OpenAI GDP-Val: Der clevere Benchmark-Trick
43:30 - SORA 2 & SORA App: TikTok für KI-Videos?
48:46 - KI-Content-Übersättigung: Die Gegenbewegung kommt
52:37 - GAME CHANGER: Jülich-Forschung zu Analog Computing (100.000x effizienter!)
1:07:24 - Neurosymbolische KI: LLMs lernen logisches Denken
1:14:17 - Fazit: So viele Wege zur KI-Revolution wie noch nie
1:19:47 - Verabschiedung & Community-Aufruf
💡 Highlights & Key Takeaways
🎯 Von der TED-AI Wien:
- Die wirklich innovativen KI-Projekte laufen unter dem Radar
- Große Consulting-Firmen haben oft weniger Ahnung als ihre Kunden
- Spezialisierte Boutique-Firmen setzen die krassen Use Cases um
💳 Shopping-Protokoll-Battle:
- OpenAI setzt auf geschlossenes System (ChatGPT + Stripe)
- Google geht mit AP2 den offenen Weg (Mastercard, PayPal, AmEx dabei)
- Revenue-Share-Modell statt Werbung – wir hatten es vorhergesagt!
⚡ Deutsche Forschung als Game Changer:
"Aus einem Gigawatt würden 10 Kilowatt werden – das ist Faktor 100.000!" – Yusuf
- Analog In-Memory Computing kombiniert mit Gain-Cell-Technologie
- Von-Neumann-Flaschenhals wird umgangen
- GPT-5-Level auf dem Smartphone ohne Cloud möglich
- Komplette Robotik würde sich fundamental ändern
- Problem: Kaum Investoren trotz enormem Potenzial
🧠 Neurosymbolische KI:
- Kombination aus neuronalen Netzen + regelbasierter Logik
- Logik-Rate von 28% auf 94% gesteigert (bei Llama 3)
- Alte Modelle von 1% auf 99% Logik gebracht
- Löst fundamentale Schwächen von LLMs
🎬 SORA 2 Strategie:
- OpenAI baut Social-Media-App für KI-Videos
- TikTok-Konkurrent nur mit generierten Inhalten?
- Ziel: User Engagement + Agentic Commerce Integration
📊 OpenAI GDP-Val:
- Praxisnaher Benchmark mit echten Berufs-Use-Cases
- Cleverer Trick: Experten validieren kostenlos
- OpenAI lernt dabei, wie Experten bewerten
- Kann später automatisiert werden
🤔 Persönliche Erkenntnisse:
- KI-Content-Übersättigung bei Early Adopters spürbar
- Sehnsucht nach authentischen, menschengemachten Inhalten
- Erwartungshaltung ist so hoch, dass Faszination schwindet
- Gemini halluziniert bei Bildgenerierung ("Ich bin nur Textmodell")
🔗 Erwähnte Links & Ressourcen
Forschungspapiere:
- Jülich: "Analog in-memory computing attention mechanism for fast and energy efficient large language models"
- MIT/Microsoft: "Logical Chain of Thought Instruction Tuning for Neurosymbolic Planning"
Technologien & Protokolle:
- Agentic Commerce Protocol (OpenAI + Stripe)
- Agentic Payment Protocol AP2 (Google)
- Claude Sonnet 4.5 (Anthropic)
- Google AI Mode Visual Fanout
- OpenAI GDP-Val Benchmark
- SORA 2 & SORA App
Erwähnte Unternehmen/Organisationen:
- Forschungszentrum Jülich
- MIT Computer Science and Artificial Intelligence Laboratory
- Stripe, Etsy, Shopify
- Mastercard, American Express, PayPal, Salesforce
Veranstaltungen:
- TED-AI Wien
Personen:
🎭 Hosts & Gäste
- Host: Christian Kunz
- Co-Host: Yusuf Sar
💬 Deine Meinung zählt!
Was fasziniert dich mehr: Die 100.000x Energieeffizienz aus Jülich oder neurosymbolische KI mit logischem Denken? Und glaubst du, dass SORA als Social-Media-Plattform funktionieren kann? Schreib uns auf LinkedIn!
🎯 Call to Action
Wenn dir die Folge gefallen hat:
- ⭐ Abonnieren – Verpasse keine Episode mehr
- 💬 Bewerten – Hilf anderen, uns zu finden
- 🔁 Teilen – Besonders die Jülich-Forschung verdient Aufmerksamkeit!
📱 Folge uns
- Yusuf auf LinkedIn: linkedin.com/in/yusuf-sar-621351
- Christian auf LinkedIn: linkedin.com/in/christian-kunz-6a29607
- Podcast-Website:
🏷️ Hashtags
KI #KünstlicheIntelligenz #AIResearch #AnalogComputing #EnergyEfficiency #ChatGPT #ClaudeAI #GoogleAI #Sora2 #NeurosymbolicAI #AgenticCommerce #PaymentProtocol #TechPodcast #Innovation #MadeInGermany #Jülich #DeepLearning #LLM #EdgeComputing #Robotics #AIModels #MachineLearning #FutureOfAI #AIBenchmark #AINews #TechNews
📊 Episode-Details
Episode: 41
Explizit: Nein
Sprache: de
Aufnahmedatum: 2025-10-01
Veröffentlichung: 2025-10-02
Dauer: ca. 80 Minuten
Neuer Kommentar