Le incredibili novità di OpenAI: rivoluzione nell’IA!

7 Novembre 2023
Nell’ambito dello sviluppo di intelligenza artificiale, OpenAI è un nome noto e rispettato. L’azienda è riconosciuta per i suoi modelli di linguaggio avanzati e le soluzioni innovative che offre agli sviluppatori. Durante l’evento DevDay di OpenAI, sono state presentate molte nuove aggiunte e miglioramenti al loro ecosistema di prodotti, insieme a una riduzione dei prezzi per rendere l’accesso alle loro tecnologie più conveniente per tutti.
GPT-4 Turbo con finestra di contesto 128K
Uno dei punti focali dell’evento DevDay di OpenAI è stato il lancio di GPT-4 Turbo, la versione successiva del loro modello di linguaggio avanzato. Questa nuova versione è più potente, più economica e supporta una finestra di contesto di 128K. Ciò significa che può gestire l’equivalente di oltre 300 pagine di testo in un’unica richiesta. Rispetto al precedente modello GPT-4, il prezzo di input token è stato ridotto del 3x e il prezzo di output token del 2x.
Aggiornamenti per la chiamata di funzioni
OpenAI ha anche introdotto diverse migliorie per la chiamata di funzioni. Ora è possibile chiamare più funzioni in un singolo messaggio, riducendo così il numero di interazioni necessarie con il modello. Inoltre, GPT-4 Turbo è stato migliorato per restituire i parametri corretti delle funzioni in modo più preciso.
Miglioramenti per il follow delle istruzioni e la modalità JSON
GPT-4 Turbo si è dimostrato più abile nella generazione di output che seguono istruzioni specifiche. Ad esempio, può generare formati specifici come XML senza problemi. Inoltre, OpenAI ha introdotto la modalità JSON, che permette al modello di generare oggetti JSON validi. Ciò è particolarmente utile per gli sviluppatori che generano JSON tramite l’API di completamento chat al di fuori della chiamata di funzioni.
Output riproducibili e probabilità di log
Un’altra caratteristica interessante introdotta da OpenAI è la possibilità di ottenere output riproducibili grazie al parametro “seed”. Questo permette di ottenere completamenti coerenti nella maggior parte dei casi e può essere utile per scopi di debugging e test. Inoltre, OpenAI sta lavorando per introdurre la possibilità di ottenere le probabilità di log per i token di output generati da GPT-4 Turbo e GPT-3.5 Turbo, una funzionalità che sarà utile per la creazione di funzionalità come l’autocompletamento in un’esperienza di ricerca.
Aggiornamento GPT-3.5 Turbo
Oltre a GPT-4 Turbo, OpenAI ha anche presentato una nuova versione di GPT-3.5 Turbo che supporta una finestra di contesto di 16K. Questa nuova versione offre miglioramenti significativi nella generazione di formati specifici e supporta anche la modalità JSON e la chiamata di funzioni parallele. GPT-3.5 Turbo 4K, una versione precedente del modello, beneficia di una riduzione del 33% nel prezzo di input token.
Assistants API, recupero e interprete di codice
OpenAI ha presentato il nuovo Assistants API, un’interfaccia che permette agli sviluppatori di creare esperienze simili a quelle di un assistente virtuale all’interno delle proprie applicazioni. Gli assistenti sono intelligenze artificiali appositamente costruite che possono seguire istruzioni specifiche, utilizzare conoscenze extra e richiamare modelli e strumenti per svolgere compiti specifici. L’API Assistants offre funzionalità come l’interprete di codice e il recupero di informazioni per semplificare la creazione di app di intelligenza artificiale di alta qualità.
Nuove modalità nell’API
GPT-4 Turbo con visione GPT-4 Turbo è in grado di accettare immagini come input nell’API di completamento chat, aprendo così la strada a nuovi casi d’uso come la generazione di didascalie, l’analisi dettagliata di immagini reali e la lettura di documenti con figure. Ad esempio, l’app BeMyEyes utilizza questa tecnologia per aiutare le persone non vedenti o ipovedenti con compiti quotidiani come l’identificazione di un prodotto o la navigazione in un negozio. I prezzi per l’utilizzo di immagini come input dipendono dalle dimensioni dell’immagine.
DALL·E 3 OpenAI ha introdotto DALL·E 3, una versione avanzata del loro modello di generazione di immagini. Questo modello può essere integrato direttamente nelle applicazioni e nei prodotti degli sviluppatori tramite l’Images API. DALL·E 3 consente di generare immagini e design in modo programmato e può essere utilizzato in vari settori come la pubblicità, il marketing e la grafica. OpenAI ha incluso anche un sistema di moderazione per prevenire abusi nell’utilizzo di DALL·E 3.
Text-to-speech (TTS) OpenAI ha anche lanciato un nuovo modello di text-to-speech che consente di generare una voce umana di alta qualità a partire dal testo. Il modello offre sei voci predefinite tra cui scegliere, con varianti ottimizzate per l’uso in tempo reale o per la qualità. Questo modello può essere utilizzato in una varietà di applicazioni come assistenti vocali e audiolibri.
Personalizzazione del modello
GPT-4 fine tuning OpenAI sta lavorando sull’accesso sperimentale al programma di fine tuning di GPT-4. I risultati preliminari indicano che il fine tuning di GPT-4 richiede maggiori sforzi rispetto al modello base per ottenere miglioramenti significativi. Tuttavia, OpenAI sta cercando di migliorare la qualità e la sicurezza del fine tuning di GPT-4 per offrire un’opzione ancora più potente agli sviluppatori.
Modelli personalizzati Per le organizzazioni che necessitano di una personalizzazione ancora più approfondita rispetto al fine tuning, OpenAI ha lanciato un programma di modelli personalizzati. Questo programma offre alle organizzazioni selezionate la possibilità di lavorare con un team dedicato di ricercatori di OpenAI per addestrare un modello GPT-4 personalizzato per il loro dominio specifico. Questo programma è limitato e costoso, ma offre un’opportunità unica per le aziende che lavorano con grandi dataset proprietari.
Riduzione dei prezzi e aumento dei limiti di utilizzo
OpenAI ha ridotto i prezzi per rendere l’utilizzo delle loro tecnologie più conveniente per gli sviluppatori. Ad esempio, i prezzi per GPT-4 Turbo e GPT-3.5 Turbo sono stati ridotti rispettivamente del 3x e del 2x rispetto alle versioni precedenti. Inoltre, OpenAI ha aumentato i limiti di utilizzo per consentire agli sviluppatori di scalare le proprie applicazioni senza problemi.
Protezione del copyright
OpenAI si impegna a proteggere i propri clienti dai reclami di violazione del copyright. In tal senso, hanno introdotto il Copyright Shield, che coprirà i costi legali in caso di reclami di violazione del copyright. Questa protezione si applica alle funzionalità di ChatGPT Enterprise e alla piattaforma di sviluppo di OpenAI.
Whisper v3 e Consistency Decoder
OpenAI ha annunciato anche l’uscita di Whisper large-v3, la prossima versione del loro modello di riconoscimento automatico del parlato (ASR). Questa versione offre un miglioramento delle prestazioni per molte lingue diverse. Inoltre, OpenAI ha reso disponibile il Consistency Decoder come software open source. Questo decoder sostituisce il decoder Stable Diffusion VAE e migliora notevolmente la qualità delle immagini compatibili con Stable Diffusion 1.0+ VAE.
In conclusione, l’OpenAI DevDay è stato un evento ricco di novità e miglioramenti per i modelli e i prodotti per sviluppatori di OpenAI. Queste nuove funzionalità e riduzioni dei prezzi rendono l’accesso alla tecnologia di OpenAI più accessibile e conveniente per gli sviluppatori di tutto il mondo. Siamo entusiasti di vedere come gli sviluppatori utilizzeranno queste nuove funzionalità per creare esperienze di intelligenza artificiale innovative e di alta qualità.