Új funkciók és API frissítések a ChatGPT-hez

Az OpenAI ma hajnalban az API hozzáféréssel rendelkező ügyfeleit emailben értesítette, hogy frissítette a ChatGPT modelleket. A frissítések több fontos változást hoznak: funkcióhívás lehetősége, hosszabb kontextus, valamint bizonyos modellek árát csökkentették. Fontos megjegyezni, hogy ezek a funkciók a ChatGPT online változatában (https://chat.openai.com/) nem érhetők el, hanem csak az API hozzáféréssel rendelkező fejlesztők használhatják. Az API hívásokhoz hasonló működést a ChatGPT bővítményekkel érhetünk el az online felületen.

Az OpenAI bemutatott egy példát, amelyben egy időjárás-lekérdező funkciót használnak. Az API-ba integrált funkcióhívás segítségével a modell képes arra, hogy a felhasználó bemenete alapján meghívja a megfelelő funkciót, majd a funkció által generált adatokat felhasználja a válasz létrehozásához.

Hirdetés:

Az említett példában időjárási adatokat lekérő funkciót hívtak meg. Az első lépésben a felhasználó kérdést tesz fel az OpenAI API-jának, például „Milyen az időjárás most Bostonban?”. Az API ezután a „get_current_weather” nevű funkciót hívja meg, amelynek paraméterei között szerepel a helyszín és a mértékegység (Celsius vagy Fahrenheit). A hívott funkció az időjárási adatokat lekérő harmadik fél API-jának adatait használja, majd a választ visszaküldi az OpenAI API-jának. Végül az OpenAI API összefoglalja az időjárási adatokat a felhasználó számára, így a válasz például így hangzik: „A bostoni időjárás jelenleg napos, 22 Celsius-fokos hőmérséklettel”.

A funkcióhívásról bővebben itt írtunk:

Az OpenAI bemutatta a GPT-4 és a GPT-3.5 Turbo új verzióit. A GPT-4 új változata, a gpt-4-0613 és a GPT-3.5 Turbo új változata, a gpt-3.5-turbo-0613, magában foglalja a funkcióhívást, valamint megbízhatóbb irányítást nyújt a rendszerüzeneteken keresztül. Az új gpt-3.5-turbo-16k változat négyszeres kontextus-hosszúságot kínál a gpt-3.5-turbo verzióhoz képest, kétszeres áron.

Az OpenAI bejelentette, hogy megkezdi a gpt-4 és gpt-3.5-turbo korábbi verzióinak kivezetését. A fejlesztők, akiknek több időre van szükségük a váltáshoz, továbbra is használhatják a régebbi modelleket a gpt-3.5-turbo-0301, gpt-4-0314 vagy gpt-4-32k-0314 modellek megadásával az API-kérésük ‘modell’ paraméterében. Ezek a régebbi modellek szeptember 13-ig lesznek elérhetőek.

Az OpenAI átadja a rendszereik hatékonyságának növekedéséből származó megtakarításokat a fejlesztőknek. Az text-embedding-ada-002 beágyazási modell költségeit 75%-kal csökkentik, így már csak $0.0001-et kell fizetni 1K tokenenként. A legnépszerűbb csevegőmodelljük, a gpt-3.5-turbo bemeneti tokenjeinek árát 25%-kal csökkentették. Így a fejlesztők már csak $0.0015-öt fizetnek 1K bemeneti tokenenként és $0.002-t 1K kimeneti tokenenként, ami körülbelül 700 oldal szöveget jelent dolláronként. A gpt-3.5-turbo-16k modell ára $0.003 1K bemeneti tokenenként és $0.004 1K kimeneti tokenenként lesz.

 

Vélemény, hozzászólás?