OpenAI stellt GPT-4o vor

PLUS: Meta entwickelt KI-betriebene Kopfhörer

GuMo! Hier ist dein Daily Pausenbrot, zurück mit einem frischen Bisschen KI Crunch.

Heute in der Brotdose 🥪

  • OpenAI stellt GPT-4o vor

  • Meta entwickelt KI-betriebene Kopfhörer

  • Erstelle eine Website in Sekunden mit KI

  • Microsofts größte Investition

Lesedauer: 3 Minuten

NEUESTE ENTWICKLUNGEN

OpenAI
OpenAI stellt GPT-4o vor

OpenAI hat gerade GPT-4o vorgestellt, ein neues fortschrittliches multimodales Modell, das Text-, Bild- und Audio-Verarbeitung integriert und neue Leistungsbenchmarks setzt - zusammen mit einer Reihe neuer Funktionen.

Das neue Modell:

  • GPT-4o bietet verbesserte Leistung in Text-, Bild-, Audio-, Code- und Nicht-Englisch-Generationen, schlägt GPT-4T-Leistung.

  • Das neue Modell ist 50 % günstiger in der Verwendung, hat 5-mal höhere Ratenlimits als GPT-4T, und rühmt sich mit einer 2-fachen Generationsgeschwindigkeit früherer Modelle.

  • Das neue Modell wurde auch als das mysteriöse "im-also-a-good-gpt2-chatbot" identifiziert, das letzte Woche in der Lmsys Arena gefunden wurde.

Sprache und andere Upgrades:

  • Neue Sprachfunktionen umfassen Echtzeit-Antworten, Erkennen und Reagieren mit Emotionen und Kombinieren von Sprache mit Text und Vision.

  • Die Demo zeigte Fähigkeiten wie Echtzeit-Übersetzung, zwei KI-Modelle, die ein Live-Video analysieren, und die Verwendung von Sprache und Vision für Tutoring und Coding-Unterstützung.

  • OpenAIs Blog beschrieb auch Fortschritte wie 3D-Generierung, Schriftartenerstellung, riesige Verbesserungen bei der Textgenerierung innerhalb von Bildern, Soundeffektsynthese und mehr.

  • OpenAI kündigte auch eine neue ChatGPT-Desktop-App für macOS mit einer aktualisierten Benutzeroberfläche an, die direkt in Computer-Workflows integriert wird.

Kostenlos für alle:

  • GPT-4o, GPTs und Funktionen wie Speicher und Datenanalyse sind jetzt für alle Benutzer verfügbar, wodurch fortschrittliche Funktionen erstmals in die kostenlose Stufe eingeführt werden.

  • Das GPT-4o-Modell wird derzeit für alle Benutzer in ChatGPT und über die API ausgerollt, wobei die neuen Sprachfunktionen in den kommenden Wochen erwartet werden.

Echtzeit-Sprach- und multimodale Funktionen verlagern KI von einem Werkzeug zu einer Intelligenz, mit der wir zusammenarbeiten, lernen und wachsen können. Darüber hinaus wird eine ganze neue Gruppe von kostenlosen Benutzern (die möglicherweise mit einem mangelhaften GPT 3.5 feststeckten) in Kürze das größte Upgrade ihres Lebens in Form von GPT-4o erhalten.

Wenn du es verpasst hast, kannst du hier OpenAIs vollständige Demo noch einmal ansehen.

Anmelden und weiterlesen

Dieser Beitrag ist kostenlos, aber du musst dich bei Daily Pausenbrot anmelden, um weiterlesen zu können

I consent to receive newsletters via email. Terms of Use and Privacy Policy.

Already a subscriber?Sign In.Not now