OpenAI DevDay: Bedeutende Updates und Neuerungen bei GPT-4 und Assistants API vorgestellt
Im Rahmen der ersten OpenAI DevDay-Konferenz wurden bedeutende neue Funktionen und Updates vorgestellt, die einen großen Schritt für Entwickler und Anwender darstellen. Der neue GPT-4 Turbo wurde angekündigt und besticht durch ein größeres Kontextfenster von 128K und aktuellem Wissen bis April 2023. Die Preise wurden erheblich gesenkt, was ihn deutlich kostengünstiger macht. Außerdem wurde die Funktionsaufruf-Fähigkeit verbessert, einschließlich der Fähigkeit, mehrere Funktionen in einer einzigen Nachricht aufzurufen.
Inhaltsverzeichnis
Neuer GPT-4 Turbo im Detail
- Erweitertes Modell: GPT-4 Turbo wurde als fortschrittlichstes Modell vorgestellt, mit einem Kontextfenster von 128K und Wissen über Ereignisse bis April 2023.
- Preisreduzierung: Die Kosten wurden erheblich gesenkt, mit $0.01/1K für Eingabe-Token und $0.03/1K für Ausgabe-Token.
- Verbesserte Funktionsaufrufe: Es ist nun möglich, mehrere Funktionen in einer Nachricht aufzurufen, mit einer höheren Genauigkeit bei der Rückgabe der korrekten Funktionsparameter.
- Reproduzierbare Outputs: Modellausgaben sind durch das neue Beta-Feature “reproducible outputs” deterministischer geworden.
- Zugang und Stabilität: GPT-4 Turbo ist über die API mit dem Tag gpt-4-1106-preview zugänglich, eine stabilere, produktionsreife Version wird später im Jahr erwartet.
Aktualisierter GPT-3.5 Turbo
GPT-3.5 Turbo wurde ebenfalls aktualisiert und unterstützt jetzt standardmäßig einen 16K-Kontext zu niedrigeren Preisen und mit der Möglichkeit des Fine-Tunings. Beide Modelle, GPT-4 und GPT-3.5 Turbo, bieten nun verbessertes Funktionsaufrufen und reproduzierbare Outputs.
- 16K Kontext: Das Update bietet standardmäßig einen 16K-Kontext und ermöglicht ein viermal längeres Kontextfenster zu geringeren Preisen.
- Feintuning: Feinabstimmung ist jetzt für das 16K-Modell verfügbar und kostengünstiger.
Verbesserungen: GPT-3.5 Turbo teilt die verbesserten Funktionsaufrufe und reproduzierbaren Outputs mit dem GPT-4 Turbo.
Assistants API
Die neue Assistants API unterstützt die Entwicklung von zweckgebundenen AI-Assistenten, die spezifische Anweisungen befolgen und mit Modellen und Tools interagieren können.
- Beta-Version: Die neue Assistants API wurde eingeführt, um agentenähnliche Erfahrungen in Anwendungen zu ermöglichen.
- Vielseitige Anwendungsfälle: Unterstützt wird die Erstellung von KI-Assistenten für eine breite Palette von Anwendungen, von sprachbasierten Analyse-Apps bis hin zu KI-gesteuerten Urlaubsplanern.
- Entwicklerfreundlich: Die API bietet persistente Threads und neue Tools wie Code Interpreter und Retrieval.
- Playground-Plattform: Ermöglicht das Testen der neuen API ohne Programmieraufwand.
Multimodale Fähigkeiten
GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben in der Chat Completions API, was Anwendungsfälle wie Bildbeschriftung und visuelle Analyse ermöglicht. Zudem kann die Bildgenerierung über DALL·E 3 in Anwendungen integriert werden, und es wurden Text-to-Speech-Fähigkeiten durch ein neues TTS-Modell eingeführt.
- Visuelle Inputs: GPT-4 Turbo unterstützt nun visuelle Eingaben in der Chat Completions API, die später im Jahr vollständig integriert werden.
- DALL·E 3 Integration: Bildgenerierung kann über die Image Generation API in Anwendungen eingebunden werden.
- Text-to-Speech: Ein neues TTS-Modell mit sechs natürlichen Stimmen wurde vorgestellt.
Anpassbare GPTs in ChatGPT
- Neue Funktion: GPTs ermöglichen es, ChatGPT durch Kombination von Anweisungen, Daten und Fähigkeiten zu personalisieren.
- Erweiterbare Steuerung: Entwickler können einen größeren Teil der Erfahrung kontrollieren, indem sie Plugins und Aktionen integrieren.
Diese Aktualisierungen dürften signifikante Auswirkungen auf das Gebiet des Online Marketings und der Entwicklung KI-basierter Anwendungen haben.
Quelle: https://openai.com/blog/new-models-and-developer-products-announced-at-devday
Keine Kommentare vorhanden