Im Fokus: Auswirkungen der KI-Nutzung auf Kinder, "panischer" KI im Pokémon-Spiel bis zu Metas Weltmodellen

Shownotes

KI und Tech to go, der Praxispitch - Episode 26

In dieser Ausgabe tauchen Christian und Yusuf wieder tief in die aktuellen Entwicklungen rund um Künstliche Intelligenz, IT und Technologie ein. Von kuriosen KI-Beobachtungen über wegweisende Modelle bis hin zu den gesellschaftlichen Auswirkungen auf unsere Kinder – es gibt viel zu entdecken! Shownotes:

Google Gemini erlebt "Panik" im Pokémon-Spiel

  • Google Gemini zeigte beim Spielen eines 20 Jahre alten Pokémon-Spiels überraschende Parallelen zu menschlichem Stressverhalten: Das Modell geriet in "Panik", traf irrationale Entscheidungen und brachte eine schlechtere Leistung.
  • Diskussion darüber, wie diese Beobachtungen menschliche Reaktionen in Stresssituationen widerspiegeln und welche philosophischen Fragen sich daraus ergeben könnten.

Metas V-JEPA World Model: Ein neuer Weg zur AGI?

  • Yann LeCun, Metas AI-Chef, präsentiert V-JEPA 2, ein kontinuierlich lernendes Modell, das ein holistisches Weltverständnis entwickeln soll, im Gegensatz zu aktuellen pixelbasierten Modellen.
  • Das Modell lernt prädiktiv und speichert Objekte als Referenzrahmen, ähnlich der Thousand Brains Theory, was zu einer höheren Effizienz führt.
  • Einblick in Metas Strategie unter Mark Zuckerberg, der parallel ein neues "Super Intelligence Team" aufbaut und in Unternehmen wie Scale AI (Datenlieferant für KI) investiert, um im "KI-Rennen" vorne mitzuspielen.

Text-to-L (T2oRAL) von Sakana AI: Anpassung ohne aufwendiges Training

  • Vorstellung von T2L, einem innovativen Ansatz von Sakana AI, der es KI-Modellen ermöglicht, sich ohne aufwendiges, zeitintensives Training an spezifische Aufgaben anzupassen.
  • Durch die Beschreibung der Aufgabe wird ein spezialisiertes "Anpassungsmodul" erstellt, was den Bedarf an großen Trainingsdatensätzen reduziert und das Fine-Tuning vereinfacht, besonders für den Unternehmenseinsatz.

Anthropic's Self-Alignment Algorithmus (ICM): KI lernt Ethik selbst

  • Anthropic stellt "Internal Coherence Maximization" (ICM) vor. Dieser Algorithmus ermöglicht es KI-Modellen, sich selbst zu korrigieren und ethische oder hilfreiche Eigenschaften zu entwickeln, indem sie sich an einer "internen Verfassung" orientieren.
  • Ein eigener KI-Agent fungiert dabei als "Richter", der die Ausgaben des Modells überprüft. Dies reduziert den Bedarf an manuellem Data Labeling und menschlichen Vorurteilen.
  • Diskussion über die Ähnlichkeit zu Reasoning-Ansätzen und die Konzepte von Multi- versus Sub-Agenten.

Der "Talent War" um KI-Wissenschaftler

  • Ein Blick auf die hohen Gehälter von KI-Wissenschaftlern, die im ein- bis zweistelligen Millionenbereich pro Jahr liegen können, und die Gründe für diesen "Talent War" in der Branche.

Die sensible F-TAC Hand: Fühlende Roboter für den Haushalt

  • Vorstellung der F-TAC Hand, einer neuen Roboterhand, die menschliches Greifen und Fühlen nachbildet.
  • Durch den Einsatz zahlreicher Sensoren und Kameras kann die Hand den Druck und die Bewegung von Objekten wahrnehmen, wodurch sie empfindliche Gegenstände präzise handhaben kann und 33 menschliche Greifarten beherrscht.
  • Die Entwicklung ist ein weiterer wichtiger Schritt hin zu humanoiden Robotern für den alltäglichen Einsatz.

Google Cloud Ausfall am 12. Juni: Abhängigkeit und Redundanz

  • Der Ausfall der Google Cloud im Juni, verursacht durch ein fehlerhaftes Code-Update und eine Konfigurationsänderung, verdeutlicht die immense Abhängigkeit von zentralisierten Cloud-Anbietern.
  • Die Episode beleuchtet die Mechanismen eines "Crash Loops" und die Bedeutung von robustem Error Handling und Redundanz in großen Systemen.

Schwerpunkt: KI-Nutzung durch Kinder – Chancen und Risiken

  • Eine Studie der Touring Gesellschaft und Lego zeigt, dass 22% der 8- bis 12-jährigen Kinder bereits generative KI (hauptsächlich ChatGPT) nutzen, oft für Hausaufgaben, Geschichten oder Bilder.
  • Chancen: KI als personalisierter Lernassistent, Unterstützung der Kreativität, Entlastung der Lehrkräfte.
  • Risiken: Verlust kritischen Denkens, Abnahme der Fähigkeit zum selbstständigen Ausdruck, Sorgen um Fehlinformationen.
  • Langfristige Auswirkungen: Diskussion über mögliche Beeinträchtigungen der Gehirnentwicklung und des Aufbaus kognitiver Reserven durch übermäßigen KI-Gebrauch und die Notwendigkeit frühzeitiger Medienkompetenz.
  • Der Appell an Gesellschaft, Politik und Industrie, bei der Entwicklung von KI-Modellen für Kinder die neurologischen Auswirkungen zu berücksichtigen und nicht nur auf Profit zu setzen.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.