DeepSeek, startup AI con sede a Hangzhou, prevede di lanciare il suo modello V4 intorno a metà febbraio. Secondo indiscrezioni, il modello è progettato per attività di codifica e potrebbe superare le prestazioni di Claude e ChatGPT, in particolare nella gestione di istruzioni di codice molto lunghe. La notizia, diffusa da The Information, ha generato entusiasmo nella comunità degli sviluppatori.
Secondo quanto riportato, DeepSeek prevede di interrompere la produzione del suo modello V4 intorno a metà febbraio e, se i risultati dei test interni sono indicativi, il gigante dell’intelligenza artificiale della Silicon Valley dovrebbe essere nervoso.
Secondo The Information, la startup AI con sede a Hangzhou potrebbe prendere di mira il rilascio di un modello appositamente progettato per attività di codifica intorno al 17 febbraio, che naturalmente cade durante il Capodanno lunare. Le persone con una conoscenza diretta del progetto affermano che V4 supera sia la serie Claude di Anthropic che la serie GPT di OpenAI nei benchmark interni, specialmente quando si gestiscono istruzioni di codice molto lunghe.
Naturalmente, nessun benchmark o informazione su questo modello è condiviso pubblicamente, quindi è impossibile verificare direttamente tali affermazioni. Anche DeepSeek non ha confermato questa voce.
Tuttavia, la comunità degli sviluppatori non sta aspettando un annuncio ufficiale. r/DeepSeek e r/LocalLLaMA di Reddit si stanno già surriscaldando, gli utenti stanno accumulando crediti API e gli appassionati di X stanno rapidamente condividendo le loro previsioni secondo cui V4 potrebbe consolidare lo status di DeepSeek come subdolo perdente che si rifiuta di giocare secondo le regole da miliardi di dollari della Silicon Valley.
Questa non è la prima interruzione di DeepSeek. Quando la società ha rilasciato il suo modello di inferenza R1 nel gennaio 2025, ha causato un crollo di 1 trilione di dollari nei mercati globali.
Motivo? R1 di DeepSeek corrispondeva al modello o1 di OpenAI in termini di benchmark matematici e di inferenza, nonostante, secondo quanto riferito, lo sviluppo sia costato solo 6 milioni di dollari. Si tratta di circa 1/68 di quanto hanno speso i nostri concorrenti. Il suo modello V3 ha poi raggiunto il 90,2% sul benchmark MATH-500, battendo il 78,3% di Claude, e il recente aggiornamento “V3.2 Speciale” ha ulteriormente migliorato le prestazioni.
Il focus sulla codifica di V4 sarà un fulcro strategico. Mentre R1 si concentrava sul ragionamento puro (logica, matematica, dimostrazioni formali), V4 è un modello ibrido (attività di ragionamento e non ragionamento) destinato al mercato degli sviluppatori aziendali in cui la generazione di codice ad alta precisione si traduce direttamente in entrate.
Per rivendicare la supremazia, V4 dovrà battere Claude Opus 4.5, che attualmente detiene l’80,9% dei record di convalida del banco SWE. Ma se i lanci passati di DeepSeek sono un’indicazione, questo potrebbe non essere impossibile da raggiungere, anche con tutti i vincoli che i laboratori di intelligenza artificiale cinesi dovranno affrontare.
Supponendo che le voci siano vere, come potrebbe questo piccolo laboratorio realizzare un’impresa del genere?
L’arma segreta dell’azienda potrebbe essere contenuta nel documento di ricerca del 1° gennaio, “Manifold-Constrained Hyper-Connections (mHC).” Questo nuovo metodo di formazione, coautore del fondatore Liang Wenfeng, affronta un problema fondamentale nella scalabilità di modelli linguistici di grandi dimensioni: come espandere la capacità di un modello senza che il modello diventi instabile o esploda durante la formazione.
Nelle architetture AI tradizionali, tutte le informazioni passano attraverso un unico e ristretto percorso. L’mHC estende i suoi percorsi in più flussi, consentendo lo scambio di informazioni senza causare il collasso dell’addestramento.
Wei Sun, principale analista per l’intelligenza artificiale presso Counterpoint Research, ha definito mHC un “straordinario progresso” nei commenti a Business Insider. Ha affermato che la tecnologia dimostra che DeepSeek può “evitare colli di bottiglia computazionali e consentire progressi nell’intelligence” anche quando l’accesso ai chip avanzati è limitato dai controlli sulle esportazioni statunitensi.
Lian Jie Su, capo analista di Omdia, ha affermato che la volontà di DeepSeek di rendere pubblici i suoi metodi è un segno di “nuova fiducia nel settore cinese dell’intelligenza artificiale”. L’approccio open source dell’azienda è diventato popolare tra gli sviluppatori che la vedono come l’incarnazione di OpenAI prima che si orientasse verso modelli chiusi e round di finanziamento multimiliardari.
Non tutti sono convinti. Alcuni sviluppatori su Reddit si sono lamentati del fatto che i modelli di inferenza di DeepSeek sprecano calcoli su compiti semplici, mentre i critici sostengono che i benchmark dell’azienda non riflettono il caos del mondo reale. Nell’aprile 2025, un post di Medium intitolato “DeepSeek fa schifo – e ho smesso di far finta che non sia così” è diventato virale, accusando il modello di produrre “assurdità standard con bug” e “biblioteche allucinatorie”.
DeepSeek trasporta anche bagagli. Le preoccupazioni sulla privacy hanno afflitto l’azienda, con alcuni governi che hanno vietato le app native di DeepSeek. Le domande sul rapporto dell’azienda con la Cina e la censura dei suoi modelli aggiungono attriti geopolitici al dibattito tecnico.
Tuttavia, lo slancio è innegabile. Deepseek è stato ampiamente adottato in Asia e, se V4 mantiene la sua promessa di codifica, potrebbe essere adottato anche dalle aziende dei paesi occidentali.
C’è anche il tempismo. Secondo Reuters, DeepSeek aveva originariamente pianificato di lanciare il modello R2 nel maggio 2025, ma il fondatore Liang era insoddisfatto delle sue prestazioni e ha ampliato la passerella. Con la V4 attualmente prevista per febbraio e la R2 che, secondo quanto riferito, probabilmente seguirà ad agosto, la società si sta muovendo a un ritmo che mostra urgenza e quindi fiducia. Probabilmente entrambi.
DeepSeek V4 punta a prestazioni di codifica di alto livello e sarà probabilmente disponibile nelle prossime settimane.
Gli addetti ai lavori affermano che può battere Claude e ChatGPT per attività con codici di contesto lunghi.
Gli sviluppatori sono già entusiasti della potenziale interruzione.
L’arma segreta dell’azienda potrebbe essere contenuta nel documento di ricerca del 1° gennaio, “Manifold-Constrained Hyper-Connections (mHC).”
Questo nuovo metodo di formazione, coautore del fondatore Liang Wenfeng, affronta un problema fondamentale nella scalabilità di modelli linguistici di grandi dimensioni:
come espandere la capacità di un modello senza che il modello diventi instabile o esploda durante la formazione.
Wei Sun, principale analista per l’intelligenza artificiale presso Counterpoint Research, ha definito mHC un “straordinario progresso” nei commenti a Business Insider.
Ha affermato che la tecnologia dimostra che DeepSeek può “evitare colli di bottiglia computazionali e consentire progressi nell’intelligence” anche quando l’accesso ai chip avanzati è limitato dai controlli sulle esportazioni statunitensi.
Lian Jie Su, capo analista di Omdia, ha affermato che la volontà di DeepSeek di rendere pubblici i suoi metodi è un segno di “nuova fiducia nel settore cinese dell’intelligenza artificiale”.
Nell’aprile 2025, un post di Medium intitolato “DeepSeek fa schifo – e ho smesso di far finta che non sia così” è diventato virale, accusando il modello di produrre “assurdità standard con bug” e “biblioteche allucinatorie”.
DeepSeek trasporta anche bagagli. Le preoccupazioni sulla privacy hanno afflitto l’azienda, con alcuni governi che hanno vietato le app native di DeepSeek.
Le domande sul rapporto dell’azienda con la Cina e la censura dei suoi modelli aggiungono attriti geopolitici al dibattito tecnico.
Con la V4 attualmente prevista per febbraio e la R2 che, secondo quanto riferito, probabilmente seguirà ad agosto, la società si sta muovendo a un ritmo che mostra urgenza e quindi fiducia. Probabilmente entrambi.
Il suo modello V3 ha poi raggiunto il 90,2% sul benchmark MATH-500, battendo il 78,3% di Claude, e il recente aggiornamento “V3.2 Speciale” ha ulteriormente migliorato le prestazioni.
Per rivendicare la supremazia, V4 dovrà battere Claude Opus 4.5, che attualmente detiene l’80,9% dei record di convalida del banco SWE.
Ma se i lanci passati di DeepSeek sono un’indicazione, questo potrebbe non essere impossibile da raggiungere, anche con tutti i vincoli che i laboratori di intelligenza artificiale cinesi dovranno affrontare.
Deepseek è stato ampiamente adottato in Asia e, se V4 mantiene la sua promessa di codifica, potrebbe essere adottato anche dalle aziende dei paesi occidentali.
DeepSeek prevede di interrompere la produzione del suo modello V4 intorno a metà febbraio e, se i risultati dei test interni sono indicativi, il gigante dell’intelligenza artificiale della Silicon Valley dovrebbe essere nervoso.
Gli addetti ai lavori affermano che DeepSeek V4 batte Claude e ChatGPT nella codifica e verrà lanciato nelle prossime settimane
Ricevi le nostre ultime notizie da Google News
clicca su SEGUICI, poi nella nuova schermata clicca sul pulsante con la stella.

