o3 und o4-mini denken länger nachher und eröffnen erstmals umfassenden ChatGPT Tool Support. Dazu liefert OpenAI den Open Source Coding Beobachter Gebot CLI, welcher lokal läuft.
Eine bewegte Woche für jedes vereinen welcher größten Player im Digitalraum: Zuerst stellte dasjenige inzwischen weltberühmte KI-Unternehmen OpenAI die schnellen, intelligenten und günstigen Modelle welcher 4.1-Schlange vor und erstaunte damit Developer und User. Dann wurde ein Test für jedes eine von OpenAI gestützte Netflix-Suche veröffentlicht, während Insider-Informationen hinaus den etwaigen Struktur eines von Social Networks OpenAIs hinwiesen. Und von kurzer Dauer vor den Osterfeiertagen stellte dasjenige Unternehmen dann noch zwei neue Modelle vor, die nicht weniger denn die „intelligentesten und leistungsfähigsten“ aus dem Hause welcher ChatGPT-Schraubenmutter sein sollen. Nebenbei wurde ein Coding Beobachter gelauncht, welcher hinaus lokalen Terminals läuft und denn Open Source bereitgestellt wird.
o3 und o4-mini von OpenAI: Die Gesamtheit ChatGPT Tools im Komposition verwenden
o3 und o4-mini sind die neuesten Modelle welcher o-Serie. Nachdem Informationen von OpenAI sind sie darauf ausgelegt, länger und intensiver nachzudenken, im Vorhinein sie Position beziehen. Vor allem vorteilhaft für jedes User ist welcher umfassende Tool Support. um ersten Mal können die Reasoning-Modelle jedweder ChatGPT Tools eigenständig nutzen – darunter Web-Browsing, Pythonschlange, Bildverständnis und Bildgenerierung. So lassen sich komplexe, mehrstufige Probleme effektiver trennen und autonomes Handeln durch die Prototyp und ein agentisch handelndes ChatGPT Tool wird unterstützt.
Lehrbuch von OpenAI O3 und O4-Mini-unsere bislang intelligenten und fähigsten Modelle.
Zum ersten Mal können unsrige Argumentationsmodelle jedes Tool in ChatGPT aggrogen verwenden und kombinieren, einschließlich Websuche, Pythonschlange, Bildanalyse, Dateiinterpretation und Bildgenerierung. pic.twitter.com/rdaqv0x0we
– Openai (@openai) 16. vierter Monat des Jahres 2025
Eine spezielle Neuerung nach sich ziehen sie beiden Modelle, denen neben einer optimierten Befehlsbefolgung besondere Fähigkeiten beim Coding, zusammen mit Mathematik sowie wissenschaftlichen Aufgaben und solchen, die Reasoning erfordern, zugeschrieben werden, in petto. Es sind die ersten Modelle von OpenAI, die mit Bildern denken können. Laut dem Unternehmen sehen sie Bilder nicht nur, sondern können visuelle Informationen schnell in ihre Argumentationskette integrieren. User können folglich Inhalte wie Whiteboards, Diagramme oder Skizzen uploaden – sogar in kleiner Qualität. Dasjenige Prototyp versteht sie trotzdem. Es kann außerdem Werkzeuge nutzen, um Bilder in Echtzeit anzupassen – etwa durch Rotieren oder Zoomen – und sie Anpassungen in seinen Denkprozess Verzahnung, wie OpenAI erklärt.
OpenAI O3 und O4-Mini sind unsrige ersten Modelle, um hochgeladene Bilder schnell in ihre Gedankenkette zu integrieren.
Dasjenige heißt, sie sehen nicht nur ein Gemälde – sie denken damit. https://t.co/hsjkzeunqr
– Openai (@openai) 16. vierter Monat des Jahres 2025
Während o3 denn selten kraftvolles Prototyp für jedes umfassende Aufgaben gilt, dasjenige 20 von Hundert weniger Fehler denn dasjenige Prototyp o1 zeugen soll, ist o4-mini hinaus Schnelligkeit und Kosteneffizienz ausgelegt. Es hat von dort spürbar höhere Nutzungslimits zu eröffnen. Beiderartig Modelle wurden im Rahmen des bislang strengsten Sicherheitsprogramms von OpenAI getestet und in Übereinstimmung mit dem neuesten Preparedness Framework evaluiert. C/o welcher Nutzung sollen die Modelle noch natürlicher und menschlicher wirken denn die vorangegangenen, OpenAI schreibt:
[…] Im Vergleich zu früheren Iterationen unserer Argumentationsmodelle sollten sich sie beiden Modelle wenn schon natürlicher und gesprächiger anfühlen, insbesondere wenn sie hinaus Gedächtnis und vergangene Gespräche verweisen, um Stellung beziehen personalisierter und relevanter zu gestalten.
OpenAI o3, o4-mini und o4-mini-high sind für jedes Plus, Pro und Team User ab sofort verfügbar. Sie ersetzen o1, o3-mini und o3-mini-high. Sie sind wenn schon weiterführend die API nutzbar (Chat Completions + Responses API). Und ChatGPT Enterprise sowie Hat herausgegeben User sollen in einer Woche Zugang erhalten.
Noch mehr Feinheiten zu den Modellen findest du im Internet-Tagebuch Postamt des Unternehmens und in welcher Aufzeichnung des Livestreams, in dem Unternehmenspräsident Greg Brockman und sein Team sie vorgestellt nach sich ziehen.
Neuer Coding Beobachter denn Zusatzklausel-Feature
OpenAI stellt ebenfalls Gebot CLI vor. Nun handelt es sich um vereinen Open Source Coding Beobachter, welcher schnell hinaus deinem PC laufen kann. Er ist ab jetzt verfügbar und soll die Modelle o3 und o4-mini im Coding-Kontext noch leichter nutzbar zeugen. Mit dieser Komposition kannst du schnell aus natürlicher Sprache funktionierenden Kode erstellen, welcher deine Projekte fördert – ohne umfassendes Vorwissen.
Treffen Sie den Gebot CLI-einen Open-Source-Codierungsagenten, welcher die natürliche Sprache in Arbeitscode verwandelt. Erzählen Sie Gebot Cli, welches Sie erstellen, reparieren oder verdeutlichen zu tun sein, und beobachten Sie, wie Sie Ihre Ideen zum Leben erwecken. pic.twitter.com/jjpzdrigrm
– OpenAI -Entwickler (@openaidevs) 16. vierter Monat des Jahres 2025
Zur Unterstützung früher Projekte startet OpenAI zudem eine Förderinitiative in Höhe von einer Million US-Dollar. Die Förderungen werden denn Teilbeträge im Rahmen von je 25.000 US-Dollar und in Form von API-Haben vergeben.
GPT-4.1 von OpenAI ist da
– und setzt neue Maßstäbe
