Giovedì 18 Settembre 2025 14:09
Cina: modello open source DeepSeek svela scatola nera IA, promuove trasparenza
DeepSeek, il modello linguistico open source cinese di grandi dimensioni, ieri e’ apparso sulla copertina...
#notiziario xinhua
leggi la notizia su RomaDailyNews
DeepSeek, il modello linguistico open source cinese di grandi dimensioni, ieri e’ apparso sulla copertina di una prestigiosa rivista peer-reviewed, mettendo in evidenza il suo processo di ragionamento e segnando un passo avanti verso una maggiore trasparenza nell’intelligenza artificiale (IA).
Pubblicato su “Nature”, lo studio rivela come l’IA possa imparare ad articolare il proprio ragionamento, affinato non attraverso annotazioni umane bensi’ un processo di tentativi, errori e ricompense, ovvero l'”apprendimento per rinforzo”.
Secondo lo studio, l’architettura di DeepSeek-R1 agevola “lo sviluppo emergente di modelli di ragionamento avanzati, come l’autoriflessione, la verifica e l’adattamento dinamico delle strategie”.
Il modello supera i suoi omologhi addestrati tramite apprendimento supervisionato convenzionale a partire da dimostrazioni umane in compiti verificabili come la matematica, le competizioni di codifica e altri campi STEM.
Da quando la startup con sede a Hangzhou ha presentato DeepSeek lo scorso anno, le aziende cinesi di IA generativa hanno gareggiato con fervore per promuovere un sistema open source, presentando e aggiornando i propri modelli di base dell’IA, come Qwen, Kimi e Zhipu.AI, che i ricercatori e il pubblico possono scaricare, utilizzare, testare e sviluppare liberamente.
L’articolo, con il fondatore di DeepSeek Liang Wenfeng come autore corrispondente, e’ stato pubblicato insieme ai rapporti dei revisori e alle risposte degli autori.
“Tutto cio’ rappresenta un passo positivo verso la trasparenza e la riproducibilita’ in un settore in cui affermazioni non verificate e clamore sono fin troppo spesso la norma”, ha osservato l’editoriale di “Nature”, esortando i concorrenti a “seguire l’esempio dell’azienda”.
Pubblicato su “Nature”, lo studio rivela come l’IA possa imparare ad articolare il proprio ragionamento, affinato non attraverso annotazioni umane bensi’ un processo di tentativi, errori e ricompense, ovvero l'”apprendimento per rinforzo”.
Secondo lo studio, l’architettura di DeepSeek-R1 agevola “lo sviluppo emergente di modelli di ragionamento avanzati, come l’autoriflessione, la verifica e l’adattamento dinamico delle strategie”.
Il modello supera i suoi omologhi addestrati tramite apprendimento supervisionato convenzionale a partire da dimostrazioni umane in compiti verificabili come la matematica, le competizioni di codifica e altri campi STEM.
Da quando la startup con sede a Hangzhou ha presentato DeepSeek lo scorso anno, le aziende cinesi di IA generativa hanno gareggiato con fervore per promuovere un sistema open source, presentando e aggiornando i propri modelli di base dell’IA, come Qwen, Kimi e Zhipu.AI, che i ricercatori e il pubblico possono scaricare, utilizzare, testare e sviluppare liberamente.
L’articolo, con il fondatore di DeepSeek Liang Wenfeng come autore corrispondente, e’ stato pubblicato insieme ai rapporti dei revisori e alle risposte degli autori.
“Tutto cio’ rappresenta un passo positivo verso la trasparenza e la riproducibilita’ in un settore in cui affermazioni non verificate e clamore sono fin troppo spesso la norma”, ha osservato l’editoriale di “Nature”, esortando i concorrenti a “seguire l’esempio dell’azienda”.
DeepSeek, il modello linguistico open source cinese di grandi dimensioni, ieri e’ apparso sulla copertina di una prestigiosa rivista peer-reviewed, mettendo in evidenza il suo processo di ragionamento e segnando un passo avanti verso una maggiore trasparenza nell’intelligenza artificiale (IA).
Pubblicato su “Nature”, lo studio rivela come l’IA possa imparare ad articolare il proprio ragionamento, affinato non attraverso annotazioni umane bensi’ un processo di tentativi, errori e ricompense, ovvero l'”apprendimento per rinforzo”.
Secondo lo studio, l’architettura di DeepSeek-R1 agevola “lo sviluppo emergente di modelli di ragionamento avanzati, come l’autoriflessione, la verifica e l’adattamento dinamico delle strategie”.
Il modello supera i suoi omologhi addestrati tramite apprendimento supervisionato convenzionale a partire da dimostrazioni umane in compiti verificabili come la matematica, le competizioni di codifica e altri campi STEM.
Da quando la startup con sede a Hangzhou ha presentato DeepSeek lo scorso anno, le aziende cinesi di IA generativa hanno gareggiato con fervore per promuovere un sistema open source, presentando e aggiornando i propri modelli di base dell’IA, come Qwen, Kimi e Zhipu.AI, che i ricercatori e il pubblico possono scaricare, utilizzare, testare e sviluppare liberamente.
L’articolo, con il fondatore di DeepSeek Liang Wenfeng come autore corrispondente, e’ stato pubblicato insieme ai rapporti dei revisori e alle risposte degli autori.
“Tutto cio’ rappresenta un passo positivo verso la trasparenza e la riproducibilita’ in un settore in cui affermazioni non verificate e clamore sono fin troppo spesso la norma”, ha osservato l’editoriale di “Nature”, esortando i concorrenti a “seguire l’esempio dell’azienda”.
Pubblicato su “Nature”, lo studio rivela come l’IA possa imparare ad articolare il proprio ragionamento, affinato non attraverso annotazioni umane bensi’ un processo di tentativi, errori e ricompense, ovvero l'”apprendimento per rinforzo”.
Secondo lo studio, l’architettura di DeepSeek-R1 agevola “lo sviluppo emergente di modelli di ragionamento avanzati, come l’autoriflessione, la verifica e l’adattamento dinamico delle strategie”.
Il modello supera i suoi omologhi addestrati tramite apprendimento supervisionato convenzionale a partire da dimostrazioni umane in compiti verificabili come la matematica, le competizioni di codifica e altri campi STEM.
Da quando la startup con sede a Hangzhou ha presentato DeepSeek lo scorso anno, le aziende cinesi di IA generativa hanno gareggiato con fervore per promuovere un sistema open source, presentando e aggiornando i propri modelli di base dell’IA, come Qwen, Kimi e Zhipu.AI, che i ricercatori e il pubblico possono scaricare, utilizzare, testare e sviluppare liberamente.
L’articolo, con il fondatore di DeepSeek Liang Wenfeng come autore corrispondente, e’ stato pubblicato insieme ai rapporti dei revisori e alle risposte degli autori.
“Tutto cio’ rappresenta un passo positivo verso la trasparenza e la riproducibilita’ in un settore in cui affermazioni non verificate e clamore sono fin troppo spesso la norma”, ha osservato l’editoriale di “Nature”, esortando i concorrenti a “seguire l’esempio dell’azienda”.

Agenzia Xinhua