Wahnsinn!

Heute habe ich zum ersten Mal die neue Funktion von ChatGPT in Aktion gesehen – und es war absolut mindblowing. Statt nur Text zu liefern, steuerte ChatGPT direkt meinen virtuellen Bildschirm. Die Maus bewegte sich wie von selbst, öffnete Menüs, klickte Buttons, tippte Texte ein und navigierte sich souverän durch das Backend meiner Website.

Live vor meinen Augen arbeitete sich die KI durch WordPress, als wäre sie ein echter Redakteur: Login, Bilder hochladen, Artikel formatieren, Kategorien setzen, Schlagwörter hinzufügen und am Ende alles als Entwurf speichern – vollständig eigenständig.

Das war nicht einfach „eine KI schreibt einen Artikel“, sondern eine KI, die den kompletten Publishing-Prozess vom ersten Wort bis zum fertigen Beitrag übernimmt. Hier seht ihr das Ergebnis dieser neuen ChatGPT-Funktion – der Blogartikel, den die KI heute komplett selbst erstellt und eingepflegt hat.

KI-Update vom 8. August 2025: Von ChatGPT-5 bis zu neuen Agentenlösungen

Künstliche Intelligenz bleibt der Innovationstreiber unserer Zeit. Am 8. August 2025 gab es gleich mehrere spannende Neuigkeiten – von der Einführung von GPT-5 über neue Forschungsagenten bis hin zu praktischen Unternehmenslösungen. Dieser Beitrag fasst die wichtigsten Entwicklungen zusammen und ordnet sie ein.

OpenAI präsentiert GPT-5 – mit überraschenden Schwächen

Auf einem Launch-Event stellte OpenAI am Donnerstag GPT-5 vor. Sam Altman kündigte den Nachfolger von GPT-4o als „Zugang zu einem Experten auf PhD-Niveau in der Hosentasche“ an. Die neue Version verfügt über einen router, der je nach Aufgabe zwischen unterschiedlichen internen Modellen wählt und so mehr Kontext und bessere Problemlösung ermöglichen soll.

Doch schon die ersten Nutzerberichte zeigen: GPT-5 ist nicht fehlerfrei. In einer Unterhaltung erklärte das Modell etwa, dass das Wort „blueberry“ drei B enthält. Ein weiterer Test fragte nach US-Bundesstaaten mit dem Buchstaben R. GPT-5 listete fälschlicherweise „Krizona“ und „Vermoni“ auf und erfand sogar Staaten wie „New Jefst“. Auch beim Versuch, die Buchstaben im „Northern Territory“ zu zählen, zählte das Modell nur drei R statt fünf.

Die Beispiele zeigen, dass selbst die modernste Version noch Schwierigkeiten mit einfachen Fakten hat. OpenAI räumte ein, dass die verschiedenen Modelle im Hintergrund manchmal falsch geroutet werden und Halluzinationen auftreten können. Der Einsatz von GPT-5 sollte daher weiterhin kritisch begleitet werden.

Googles Test-Time Diffusion Deep Researcher: Forschung wie ein Mensch

Während OpenAI an Chatbots feilt, veröffentlicht Google ein neues Framework für Deep-Research-Agenten. Der Test-Time Diffusion Deep Researcher (TTD-DR) setzt auf Mechanismen aus der Bildgenerierung: Ein „diffuses“ Anfangsdokument wird mit Hilfe von Suchabfragen und Evolutionstechniken Schritt für Schritt verfeinert. Dadurch entsteht ein Arbeitsprozess, der dem menschlichen Schreiben ähnelt – Planung, Entwurf, Recherche, Überarbeitung. Laut VentureBeat übertrifft TTD-DR mit diesem Ansatz Konkurrenzsysteme wie OpenAI Deep Research und Perplexity auf mehreren Benchmarks. Die Forscher betonen, dass die selbstständige Evolution der Module ein Schlüsselelement ist: Jede Komponente optimiert sich selbst und liefert dadurch konsistentere Berichte. Unternehmen könnten damit künftig individuelle Forschungsassistenten für komplexe Fragestellungen erhalten – von Marktanalysen bis zu wissenschaftlichen Studien.

Kubernetes-Scheduler für Snowflake: Espresso AI spart bis zu 50 % Kosten

Das New-Yorker Start-up Espresso AI stellte einen Kubernetes Scheduler für die Cloud-Datenbank Snowflake vor. Das von Ex-Google-Mitarbeitern gegründete Unternehmen will damit die Fragmentierung von Daten-Warehouses überwinden. Snowflake-Nutzer müssen derzeit zwischen großen, überdimensionierten Clustern und vielen kleinen Instanzen wählen. Espresso AIs Scheduler wirkt als Proxy zwischen Nutzer und Datenbank und verteilt Abfragen dynamisch auf bestehende Ressourcen; nur wenn nötig wird ein neues Warehouse gestartet und anschließend wieder heruntergefahren. CEO Ben Lerner vergleicht das mit „Uber Pool für deine Abfragen“: Erst wenn vorhandene Rechenkapazität ausgeschöpft ist, werden zusätzliche Ressourcen gestartet. Durch diese flexible Zuordnung lässt sich laut Unternehmen bis zu 50 % an Snowflake-Kosten sparen. Der Scheduler trennt logische von physikalischen Ressourcen und nutzt Machine-Learning-Methoden, die die Gründer bei DeepMind entwickelt haben.
Schematische Darstellung eines Schedulers
Espresso AI: Dynamisches Routing von Snowflake-Abfragen.

DataBahn AI: Ein Agent für alle Telemetrie – agentenlos und hybrid

Das Unternehmen DataBahn.ai bringt mit dem Smart Agent eine Lösung auf den Markt, die die Sammlung von Telemetriedaten vereinheitlicht. Statt unzählige Agenten für Sicherheit, Observability und Monitoring zu betreiben, bietet der Smart Agent einen vendor-agnostischen Ansatz, der sowohl klassische als auch agentenlose Datenerfassung unterstützt. Zu den Funktionen gehören eine zentrale Telemetrie-Pipeline, agentenlose Sammlung für schwer zugängliche Systeme sowie eine benutzerdefinierte Datenweiterleitung. DataBahn betont, dass das System Telemetrie von den nachgelagerten Tools entkoppelt und damit die Integration in unterschiedliche Plattformen erleichtert. Produktchef Aditya Sundararam hebt hervor, dass der hybride Ansatz schnellere Erkenntnisse liefert und Blind Spots vermeidet.
Google Deep-Research-Konzeptgrafik
DataBahn Smart Agent: Einheitliche Telemetrie, agentenlos & hybrid.

Elastic Log Essentials: Serverloses Logging ohne Aufwand

Elastic, bekannt durch die Elastic Search-Plattform, führt mit Log Essentials eine serverlose Logging-Lösung für Entwickler und Site-Reliability-Engineers ein. Der neue Tarif erlaubt das Ingestieren, Durchsuchen, Visualisieren und Alarmieren von Logdaten, ohne dass die Nutzer ihre Infrastruktur selbst betreiben müssen.

Laut Elastic-Manager Santosh Krishnan brauchen SREs eine unkomplizierte, skalierbare Logging-Lösung; Log Essentials soll genau das bieten und einen günstigen Einstieg ermöglichen. Nutzer können mithilfe von Filtern und Musterabgleichen die Ursachen von Fehlern finden, das ES|QL verwenden, Warnungen für Peaks einrichten und Kibana-Dashboards nutzen. Das Angebot ist Teil von Elastic Cloud Serverless und verspricht planbare Kosten.

NTT DATA gründet Microsoft-Cloud-Einheit für Agentic AI

Der IT-Dienstleister NTT DATA hat eine globale Geschäftseinheit für die Microsoft Cloud ins Leben gerufen, um den wachsenden Bedarf an sicheren, skalierbaren KI-Lösungen zu bedienen. Mit über 50 Länderpräsenz und 24 000 Microsoft-zertifizierten Spezialisten bündelt die Einheit Fachwissen in Cloud-Modernisierung, Sicherheit und Agentic AI.

Zu den Schwerpunkten gehören das Skalieren von KI-Agenten mit Microsoft 365 Copilot und Azure AI Foundry, die Modernisierung von Anwendungen in Azure sowie die Beschleunigung der Entwicklung mit einer Bibliothek von über 500 Microservices. NTT DATA meldet, dass die angebotenen Agentic-AI-Services binnen 90 Tagen fast 100 Unternehmenskunden angesprochen haben. Die strategische Partnerschaft mit Microsoft soll Unternehmen helfen, KI in produktive Workflows zu überführen und regulatorische Anforderungen zu erfüllen.

Fazit

Der 8. August 2025 zeigt erneut, wie vielfältig sich KI entwickelt: Während OpenAI mit GPT-5 zwar Fortschritte bei der Argumentation macht, aber noch mit simplen Fakten kämpft, setzt Google mit TTD-DR neue Maßstäbe für Forschungsagenten. Gleichzeitig entstehen spezialisierte Lösungen für den Unternehmenseinsatz: Espresso AI optimiert Daten-Warehouses, DataBahn vereinfacht Telemetrie, Elastic erleichtert das Logging und NTT DATA bündelt KI-Know-how in einer globalen Einheit. Es lohnt sich, diese Entwicklungen im Blick zu behalten – sie zeigen, wohin die Reise in Sachen Agentic AI und skalierbare KI-Services geht.

Abstraktes neuronales Netzwerk über Stadt bei Nacht