GPT-4 Turbo è il più grande aggiornamento dal lancio di ChatGPT
OpenAI ha appena svelato gli ultimi aggiornamenti ai suoi modelli linguistici di grandi dimensioni (LLM) durante la sua prima conferenza degli sviluppatori e il miglioramento più notevole è il rilascio di GPT-4 Turbo, che è attualmente in fase di anteprima. GPT-4 Turbo si presenta come un aggiornamento dell'attuale GPT-4 , portando con sé una finestra di contesto notevolmente ampliata e l'accesso a conoscenze molto più recenti. Ecco tutto ciò che devi sapere su GPT-4 Turbo.
OpenAI afferma che il modello AI sarà più potente e allo stesso tempo più economico rispetto ai suoi predecessori. A differenza delle versioni precedenti, è stato addestrato su informazioni risalenti ad aprile 2023. Si tratta di un aggiornamento notevole di per sé: l'ultima versione ha raggiunto il limite massimo a settembre 2021. L'ho appena testato io stesso e, in effetti, l'utilizzo di GPT-4 consente a ChatGPT di ricavare informazioni dagli eventi accaduti fino all'aprile 2023, quindi l'aggiornamento è già attivo.
GPT-4 Turbo ha una finestra di contesto significativamente più ampia rispetto alle versioni precedenti. Questo è essenzialmente ciò che GPT-4 Turbo prende in considerazione prima di generare qualsiasi testo in risposta. A tal fine, ora dispone di una finestra di contesto da 128.000 token (questa è l'unità di testo o codice che i LLM leggono) che, come rivela OpenAI nel suo post sul blog , equivale a circa 300 pagine di testo.
Si tratta di un intero romanzo che potresti potenzialmente fornire a ChatGPT nel corso di una singola conversazione e di una finestra di contesto molto più ampia rispetto alle versioni precedenti (8.000 e 32.000 token).
Le finestre di contesto sono importanti per i LLM perché li aiutano a rimanere in tema. Se interagisci con modelli linguistici di grandi dimensioni, scoprirai che potrebbero andare fuori tema se la conversazione va avanti troppo a lungo. Ciò può produrre risposte piuttosto sconvolgenti e snervanti, come quella volta in cui Bing Chat ci ha detto che voleva essere umano . GPT-4 Turbo, se tutto va bene, dovrebbe tenere a bada la follia per un tempo molto più lungo rispetto al modello attuale.
GPT-4 Turbo sarà anche più economico da gestire per gli sviluppatori, con un costo ridotto a 0,01 dollari per 1.000 token di input, che arrotondano per eccesso a circa 750 parole, mentre gli output costeranno 0,03 dollari per 1.000 token. OpenAI stima che questa nuova versione sia tre volte più economica di quelle precedenti.
L'azienda afferma inoltre che GPT-4 Turbo fa un lavoro migliore nel seguire attentamente le istruzioni e gli può essere detto di utilizzare il linguaggio di codifica preferito per produrre risultati, come XML o JSON. GPT-4 Turbo supporterà anche immagini e sintesi vocale e offre ancora l'integrazione DALL-E 3.
Questa non è stata l'unica grande rivelazione per OpenAI, che ha anche introdotto i GPT, versioni personalizzate di ChatGPT che chiunque può realizzare per il proprio scopo specifico senza alcuna conoscenza di codifica. Questi GPT possono essere realizzati per uso personale o aziendale, ma possono anche essere distribuiti ad altri. OpenAI afferma che i GPT sono disponibili oggi per gli abbonati ChatGPT Plus e gli utenti aziendali.
Infine, alla luce delle continue preoccupazioni sul copyright, OpenAI si unisce a Google e Microsoft nel dire che si assumerà la responsabilità legale se i suoi clienti verranno citati in giudizio per violazione del copyright.
Con l'enorme finestra di contesto, il nuovo scudo di copyright e una migliore capacità di seguire le istruzioni, GPT-4 Turbo potrebbe rivelarsi sia una benedizione che una maledizione. ChatGPT è abbastanza bravo a non fare cose che non dovrebbe fare, ma ha comunque un lato oscuro . Questa nuova versione, sebbene infinitamente più capace, potrebbe anche presentare gli stessi inconvenienti di altri LLM, tranne che questa volta sarà sotto steroidi.