- Daily Pausenbrot
- Posts
- OpenAI stellt GPT-4o vor
OpenAI stellt GPT-4o vor
PLUS: Meta entwickelt KI-betriebene Kopfhörer
GuMo! Hier ist dein Daily Pausenbrot, zurück mit einem frischen Bisschen KI Crunch.
Heute in der Brotdose 🥪
OpenAI stellt GPT-4o vor
Meta entwickelt KI-betriebene Kopfhörer
Erstelle eine Website in Sekunden mit KI
Microsofts größte Investition
Lesedauer: 3 Minuten
NEUESTE ENTWICKLUNGEN
OpenAI
OpenAI stellt GPT-4o vor
OpenAI hat gerade GPT-4o vorgestellt, ein neues fortschrittliches multimodales Modell, das Text-, Bild- und Audio-Verarbeitung integriert und neue Leistungsbenchmarks setzt - zusammen mit einer Reihe neuer Funktionen.
Das neue Modell:
GPT-4o bietet verbesserte Leistung in Text-, Bild-, Audio-, Code- und Nicht-Englisch-Generationen, schlägt GPT-4T-Leistung.
Das neue Modell ist 50 % günstiger in der Verwendung, hat 5-mal höhere Ratenlimits als GPT-4T, und rühmt sich mit einer 2-fachen Generationsgeschwindigkeit früherer Modelle.
Das neue Modell wurde auch als das mysteriöse "im-also-a-good-gpt2-chatbot" identifiziert, das letzte Woche in der Lmsys Arena gefunden wurde.
Sprache und andere Upgrades:
Neue Sprachfunktionen umfassen Echtzeit-Antworten, Erkennen und Reagieren mit Emotionen und Kombinieren von Sprache mit Text und Vision.
Die Demo zeigte Fähigkeiten wie Echtzeit-Übersetzung, zwei KI-Modelle, die ein Live-Video analysieren, und die Verwendung von Sprache und Vision für Tutoring und Coding-Unterstützung.
OpenAIs Blog beschrieb auch Fortschritte wie 3D-Generierung, Schriftartenerstellung, riesige Verbesserungen bei der Textgenerierung innerhalb von Bildern, Soundeffektsynthese und mehr.
OpenAI kündigte auch eine neue ChatGPT-Desktop-App für macOS mit einer aktualisierten Benutzeroberfläche an, die direkt in Computer-Workflows integriert wird.
Kostenlos für alle:
GPT-4o, GPTs und Funktionen wie Speicher und Datenanalyse sind jetzt für alle Benutzer verfügbar, wodurch fortschrittliche Funktionen erstmals in die kostenlose Stufe eingeführt werden.
Das GPT-4o-Modell wird derzeit für alle Benutzer in ChatGPT und über die API ausgerollt, wobei die neuen Sprachfunktionen in den kommenden Wochen erwartet werden.
Echtzeit-Sprach- und multimodale Funktionen verlagern KI von einem Werkzeug zu einer Intelligenz, mit der wir zusammenarbeiten, lernen und wachsen können. Darüber hinaus wird eine ganze neue Gruppe von kostenlosen Benutzern (die möglicherweise mit einem mangelhaften GPT 3.5 feststeckten) in Kürze das größte Upgrade ihres Lebens in Form von GPT-4o erhalten.
Wenn du es verpasst hast, kannst du hier OpenAIs vollständige Demo noch einmal ansehen.