McKinsey: come devono investire le aziende nei data center


L’avvento dell’intelligenza artificiale sta rivoluzionando vari settori e sta generando una domanda di potenza di calcolo che si sta rapidamente affermando come una delle risorse più critiche di questo decennio. Nei data center sparsi per il globo, milioni di server sono operativi 24 ore su 24, 7 giorni su 7, con il compito di elaborare i modelli fondamentali (foundation models) e le applicazioni di machine learning che costituiscono le fondamenta dell’AI moderna.

L’insieme di hardware, processori, memoria, storage ed energia necessario per il funzionamento di questi data center è collettivamente definito potenza di calcolo. Attualmente, vi è un bisogno insaziabile di questa risorsa fondamentale.

Le proiezioni di ricerca dello studio McKinsey “The cost of compute: A $7 trillion race to scale data centers” indicano che entro il 2030, i data center a livello mondiale richiederanno investimenti per 6,7 trilioni di dollari per riuscire a stare al passo con la crescente domanda di potenza di calcolo. Questo enorme fabbisogno di capitale è suddiviso tra i data center attrezzati per gestire i carichi di elaborazione AI, che si prevede richiederanno 5,2 trilioni di dollari in spese in conto capitale, e quelli che alimentano le tradizionali applicazioni IT, per i quali sono previsti 1,5 trilioni di dollari in spese in conto capitale.

Complessivamente, ciò si traduce in quasi 7 trilioni di dollari di investimenti necessari entro il 2030, una cifra sbalorditiva sotto qualsiasi punto di vista.

AI workloads vs. non-AI workloads

È importante notare che, sebbene i carichi di lavoro legati all’AI dominino la discussione attuale, le attività di elaborazione non-AI rappresentano ancora una porzione significativa dell’attività dei data center. Questi includono compiti IT aziendali tradizionali come l’hosting web, i sistemi di pianificazione delle risorse aziendali (ERP), la gestione delle email e l’archiviazione di file. I carichi non-AI sono meno intensivi in termini di calcolo e possono operare in modo efficiente su unità di elaborazione centrale (CPU), a differenza dei carichi di lavoro AI che richiedono unità di elaborazione grafica (GPU) specializzate o acceleratori AI.

Inoltre, i modelli di utilizzo per i carichi non-AI tendono a essere più prevedibili e le loro densità di potenza sono inferiori, il che si traduce in esigenze di raffreddamento ed energia meno stringenti. Di conseguenza, i data center focalizzati sull’elaborazione non-AI presentano tipicamente esigenze infrastrutturali, intensità di capitale e considerazioni operative diverse rispetto a quelli ottimizzati per l’AI.

Le aziende alla sfida dell’investimento strategico

Per soddisfare questa domanda crescente, le aziende che operano lungo l’intera catena del valore della potenza di calcolo devono trovare un equilibrio delicato tra la rapidità nell’impiego del capitale e l’approccio prudente negli investimenti. Al fine di migliorare le probabilità che i loro investimenti nei data center producano rendimenti solidi (ROI), le aziende possono affrontare i progetti per fasi, valutando il ROI a ogni passo. Tuttavia, la mancanza di chiarezza riguardo alla domanda futura rende i calcoli precisi sugli investimenti particolarmente difficili.

La catena del valore della potenza di calcolo è intrinsecamente complessa. Essa include una vasta gamma di attori, che vanno dai costruttori immobiliari che realizzano i data center, alle aziende di servizi pubblici che forniscono l’energia, alle aziende produttrici di semiconduttori che sviluppano i chip, fino agli hyperscaler di servizi cloud che ospitano trilioni di terabyte di dati. I leader in tutti questi anelli della catena del valore sono consapevoli della necessità di investire nella potenza di calcolo per accelerare la crescita dell’AI.

Tuttavia, si trovano di fronte a una sfida formidabile: decidere quanto capitale allocare e in quali progetti, il tutto mentre permane una significativa incertezza su come la futura crescita e lo sviluppo dell’AI influenzeranno la domanda di potenza di calcolo.

Cosa faranno gli hyperscaler?

Domande cruciali rimangono aperte: gli hyperscaler continueranno a sostenere l’onere dei costi, o entreranno in gioco imprese, governi e istituzioni finanziarie con nuovi modelli di finanziamento? La domanda di data center continuerà a crescere con l’aumento dell’utilizzo dell’AI, o diminuirà man mano che i progressi tecnologici renderanno l’AI meno intensiva dal punto di vista del calcolo?

Una cosa è certa: la posta in gioco è estremamente alta. Sovrainvestire nelle infrastrutture dei data center comporta il rischio di avere asset inutilizzati, mentre sottoinvestire significa rimanere indietro nella competizione. Sebbene le previsioni si basino su ricerche rigorose, l’AI è uno spazio in rapida evoluzione, e ci sono incognite critiche che non possono ancora essere quantificate.

McKinsey: prevedere la curva di domanda di potenza di calcolo

Per prendere decisioni informate sugli investimenti nella potenza di calcolo, le aziende dovrebbero innanzitutto prevedere accuratamente la domanda futura, un compito reso difficile dalla rapidità dei cambiamenti nel settore AI. Le ricerche di McKinsey mostrano che la domanda globale di capacità dei data center potrebbe quasi triplicare entro il 2030, con circa il 70% di tale domanda proveniente dai carichi di lavoro AI. Tuttavia, questa proiezione è fortemente condizionata da due incognite chiave:

  • Casi d’uso dell’AI: Il vero valore dell’AI risiede nello strato applicativo, ovvero nel modo in cui le aziende trasformano l’AI in impatto aziendale concreto. Se le aziende non riusciranno a creare valore significativo dall’AI, la domanda di potenza di calcolo potrebbe rimanere al di sotto delle aspettative. Al contrario, applicazioni AI trasformative potrebbero alimentare una domanda persino maggiore rispetto alle proiezioni attuali.
  • Cicli di innovazione rapidi e disruption: I continui progressi nelle tecnologie AI, inclusi processori, architetture di modelli linguistici di grandi dimensioni (LLM) e consumo energetico, potrebbero migliorare significativamente l’efficienza. Ad esempio, a febbraio 2025, l’azienda cinese DeepSeek, operante nel settore LLM, ha riferito che il suo modello V3 ha raggiunto miglioramenti sostanziali nell’efficienza di addestramento e inferenza, riducendo notevolmente i costi di addestramento di circa 18 volte e i costi di inferenza di circa 36 volte, rispetto a GPT-4o. Tuttavia, le analisi preliminari suggeriscono che questi tipi di guadagni di efficienza saranno probabilmente compensati dall’aumento della sperimentazione e dell’addestramento nell’intero mercato AI. Di conseguenza, i miglioramenti dell’efficienza potrebbero non avere un impatto sostanziale sulla domanda complessiva di potenza di calcolo nel lungo termine.
  • Questo concetto si allinea con il paradosso di Jevons, che postula che miglioramenti nell’efficienza possono portare a un aumento della domanda complessiva; nel contesto dell’AI, risorse computazionali più efficienti e accessibili potrebbero stimolare una maggiore adozione e utilizzo, potenzialmente compensando le riduzioni anticipate nella domanda di calcolo.

La scala degli investimenti richiesti per l’AI

Solo la domanda di AI richiederà un investimento stimato di 5,2 trilioni di dollari. Questo calcolo si basa su un’analisi approfondita e su ipotesi chiave, tra cui una domanda proiettata di 156 gigawatt (GW) di capacità di data center legata all’AI entro il 2030, con 125 GW incrementali aggiunti tra il 2025 e il 2030. La cifra di 5,2 trilioni di dollari riflette la pura scala dell’investimento necessario per soddisfare la crescente domanda di potenza di calcolo AI.

Per illustrare l’entità di questo investimento trilioni di dollari necessario entro il 2030, si possono considerare statistiche non correlate:

  • Il valore di 500 miliardi di dollari in costi del lavoro è approssimativamente equivalente a 12 miliardi di ore di lavoro (sei milioni di persone che lavorano a tempo pieno per un intero anno).
  • 150 miliardi di dollari di fibra ottica equivalgono all’installazione di 3 milioni di miglia di cavi in fibra ottica, sufficienti a circumnavigare la Terra 120 volte.
  • 300 miliardi di dollari di generazione di energia elettrica equivalgono all’aggiunta di 150-200 gigawatt a gas, sufficienti ad alimentare 150 milioni di case per un anno, più del numero totale di famiglie negli Stati Uniti.

Questi numeri di investimento sono sbalorditivi in qualsiasi scenario. Sono alimentati da diversi fattori chiave:

  • Adozione di massa della Gen AI: I modelli fondamentali alla base della Gen AI richiedono risorse di potenza di calcolo significative per l’addestramento e l’operatività. Sia i carichi di lavoro di addestramento che quelli di inferenza contribuiscono alla crescita delle infrastrutture, con l’inferenza che dovrebbe diventare il carico di lavoro dominante entro il 2030.
  • Integrazione aziendale: Il dispiegamento di applicazioni basate sull’AI in vari settori richiede una massiccia potenza di cloud computing. Man mano che i casi d’uso si moltiplicano, le applicazioni AI diventeranno più sofisticate, integrando modelli fondamentali specializzati e adattati a domini specifici.
  • Corsa competitiva nell’infrastruttura: Hyperscaler e aziende stanno correndo per costruire capacità AI proprietarie al fine di ottenere un vantaggio competitivo. Questi “costruttori” mirano a ottenere un vantaggio competitivo raggiungendo la scala, ottimizzando le stack tecnologiche dei data center e, in ultima analisi, riducendo il costo del calcolo.
  • Priorità geopolitiche: I governi stanno investendo massicciamente nelle infrastrutture AI per migliorare la sicurezza, la leadership economica e l’indipendenza tecnologica.

McKinsey: come investono le aziende nei data center, gli archetipi degli investitori

Per qualificare la previsione di investimento di 5,2 trilioni di dollari per l’infrastruttura AI, è importante notare che l’analisi probabilmente sottostima l’investimento totale necessario. La stima quantifica l’investimento di capitale solo per tre dei cinque archetipi di investitori nella potenza di calcolo: costruttori (builders), energizzatori (energizers) e sviluppatori e progettisti tecnologici (technology developers and designers). Questi archetipi sono quelli che finanziano direttamente l’infrastruttura e le tecnologie fondamentali necessarie per la crescita dell’AI.

Circa il 15% dell’investimento previsto (0,8 trilioni di dollari) andrà ai costruttori per l’acquisizione di terreni, materiali e lo sviluppo del sito. Un altro 25% (1,3 trilioni di dollari) sarà allocato agli energizzatori per la generazione e la trasmissione di energia, il raffreddamento e le apparecchiature elettriche. La quota maggiore di investimento, il 60% (3,1 trilioni di dollari), andrà agli sviluppatori e progettisti tecnologici, che producono chip e hardware di calcolo per i data center.

Gli altri due archetipi di investitori, gli operatori (come hyperscaler e fornitori di colocation) e gli architetti AI (che costruiscono modelli e applicazioni AI), investono anche nella potenza di calcolo, in particolare in aree come l’automazione basata sull’AI e il software per data center. Tuttavia, quantificare il loro investimento nella potenza di calcolo è difficile perché si sovrappone alla loro più ampia spesa in ricerca e sviluppo (R&D).

Tempi di realizzazione lunghi

Nonostante questi requisiti di capitale proiettati, le ricerche indicano che gli attuali livelli di investimento non sono in linea con la domanda. Molti CEO intervistati mostrano esitazione nell’investire al massimo delle capacità nella potenza di calcolo a causa della visibilità limitata sulla domanda futura. L’incertezza sull’eventuale continuazione della rapida ascesa dell’adozione dell’AI e il fatto che i progetti infrastrutturali abbiano lunghi tempi di realizzazione rendono difficile per le aziende prendere decisioni di investimento informate. Molte aziende non sono sicure se grandi spese in conto capitale per l’infrastruttura AI oggi produrranno un ROI misurabile in futuro.

Cinque archetipi chiave di investitori in infrastrutture AI

Per muoversi con fiducia, le aziende possono iniziare determinando la propria posizione all’interno dell’ecosistema della potenza di calcolo. Sono stati identificati cinque archetipi chiave di investitori in infrastrutture AI:

1. Costruttori (builders)

  • Chi sono: Sviluppatori immobiliari, aziende di progettazione e imprese di costruzione che espandono e aggiornano la capacità dei data center. Esempi includono Turner Construction e AECOM.
  • Spese in conto capitale AI Workload: 800 miliardi di dollari.
  • Spese in conto capitale Non-AI Workload: 100 miliardi di dollari.
  • Investimenti chiave: Acquisizione di terreni e materiali, manodopera qualificata, sviluppo del sito.
  • Opportunità: I costruttori che ottimizzano la selezione del sito possono assicurarsi posizioni privilegiate, ridurre i tempi di costruzione e integrare precocemente il feedback operativo, garantendo un dispiegamento più rapido e una maggiore efficienza dei data center.
  • Sfide: Le carenze di manodopera potrebbero avere un impatto sulla disponibilità di tecnici e operai edili, mentre i vincoli di localizzazione potrebbero limitare le opzioni di selezione del sito. Inoltre, l’aumento della densità di potenza per rack potrebbe creare sfide di spazio e raffreddamento.
  • Soluzioni: I costruttori lungimiranti possono trovare soluzioni alle sfide principali, aumentando la certezza delle loro decisioni di investimento. Ad esempio, alcuni stanno affrontando il problema della carenza di manodopera adottando design modulari che snelliscono il processo di costruzione, come la costruzione off-site di componenti di grandi dimensioni che possono essere assemblati in loco.

2. Energizzatori (energizers)

  • Chi sono: Aziende di servizi pubblici (utilities), fornitori di energia, produttori di apparecchiature di raffreddamento/elettriche e operatori di telecomunicazioni che costruiscono l’infrastruttura di alimentazione e connettività per i data center AI. Esempi includono utilities come Duke Energy e Entergy, e fornitori di infrastrutture e attrezzature come Schneider Electric e Vertiv.
  • Spese in conto capitale AI Workload: 1,3 trilioni di dollari.
  • Spese in conto capitale Non-AI Workload: 200 miliardi di dollari.
  • Investimenti chiave: Generazione di energia (impianti, linee di trasmissione), soluzioni di raffreddamento (raffreddamento ad aria, raffreddamento a liquido direct-to-chip, raffreddamento a immersione), infrastrutture elettriche (trasformatori, generatori), connettività di rete (fibra, cavo).
  • Opportunità: Gli energizzatori che scalano l’infrastruttura energetica e innovano in soluzioni energetiche sostenibili saranno nella posizione migliore per beneficiare della crescente domanda di energia da parte degli hyperscaler.
  • Sfide: L’alimentazione dei data center potrebbe subire rallentamenti a causa delle debolezze esistenti della rete, e risolvere le sfide della gestione del calore derivanti dall’aumento delle densità dei processori rimane un ostacolo. Gli energizzatori affrontano anche i requisiti di transizione all’energia pulita e i lunghi processi di approvazione per la connessione alla rete.
  • Soluzioni: Con oltre un trilione di dollari di investimenti in gioco, gli energizzatori stanno trovando modi per fornire energia affidabile ottenendo nel contempo un ROI. Stanno effettuando investimenti sostanziali in tecnologie emergenti per la generazione di energia, tra cui nucleare, geotermico, cattura e stoccaggio del carbonio e stoccaggio di energia a lunga durata. Stanno anche raddoppiando gli sforzi per portare online quanta più capacità possibile nel minor tempo possibile, sia da fonti rinnovabili che da infrastrutture energetiche tradizionali come gas e combustibili fossili. La novità è la pura scala di questa domanda, che impone una nuova urgenza nel costruire capacità energetica a velocità senza precedenti. Con l’aumento della domanda, specialmente di energia pulita, la generazione di energia è prevista crescere rapidamente, con le rinnovabili proiettate a rappresentare circa il 45-50% del mix energetico entro il 2030, rispetto a circa un terzo di oggi.

3. Sviluppatori e progettisti tecnologici (Technology Developers and Designers)

  • Chi sono: Aziende di semiconduttori e fornitori IT che producono chip e hardware di calcolo per data center. Esempi includono aziende di semiconduttori come NVIDIA e Intel, e fornitori di hardware di calcolo come Foxconn e Flex.
  • Spese in conto capitale AI Workload: 3,1 trilioni di dollari.
  • Spese in conto capitale Non-AI Workload: 1,1 trilioni di dollari.
  • Investimenti chiave: GPU, CPU, memoria, server e hardware per rack.
  • Opportunità: Gli sviluppatori e i progettisti tecnologici che investono in tecnologie scalabili e pronte per il futuro, supportate da una chiara visibilità sulla domanda, potrebbero ottenere un vantaggio competitivo nel settore del calcolo AI.
  • Sfide: Un piccolo numero di aziende di semiconduttori controlla l’offerta del mercato, soffocando la concorrenza. La costruzione di capacità rimane insufficiente per soddisfare la domanda attuale, mentre allo stesso tempo, i cambiamenti nei metodi di addestramento dei modelli AI e nei carichi di lavoro rendono difficile prevedere la domanda futura di chip specifici.
  • Soluzioni: Gli sviluppatori e i progettisti tecnologici hanno il massimo da guadagnare nella corsa alla potenza di calcolo perché sono coloro che forniscono i processori e l’hardware che eseguono il calcolo effettivo. La domanda per i loro prodotti è attualmente alta, ma le loro esigenze di investimento sono anche le maggiori, superando i 3 trilioni di dollari nei prossimi cinque anni. Un piccolo numero di aziende di semiconduttori ha un’influenza sproporzionata sull’offerta del settore, rendendole potenziali colli di bottiglia nella crescita della potenza di calcolo. Questi attori possono mitigare questo rischio espandendo la capacità di fabbricazione (fab) e diversificando le catene di approvvigionamento per prevenire strozzature.

4. Operatori (operators)

  • Chi sono: Hyperscaler, fornitori di colocation, piattaforme GPU-as-a-service e aziende che ottimizzano le proprie risorse di calcolo migliorando l’utilizzo e l’efficienza dei server. Esempi includono Amazon Web Services, Google Cloud ed Equinix.
  • Spese in conto capitale AI Workload: Non incluse in questa analisi.
  • Spese in conto capitale Non-AI Workload: Non incluse in questa analisi.
  • Investimenti chiave: Software per data center, automazione basata sull’AI, silicio personalizzato.
  • Opportunità: Gli operatori che scalano in modo efficiente bilanciando ROI, prestazioni e uso dell’energia possono guidare la leadership a lungo termine del settore.
  • Sfide: Le applicazioni AI ospitate immature possono oscurare i calcoli del ROI a lungo termine. Le inefficienze nelle operazioni dei data center stanno aumentando i costi, ma l’incertezza nella domanda di AI continua a interrompere la pianificazione e le decisioni di approvvigionamento delle infrastrutture a lungo termine.
  • Soluzioni: Sebbene i data center operino oggi a livelli di alta efficienza, il rapido ritmo dell’innovazione AI richiederà agli operatori di ottimizzare sia il consumo energetico che la gestione dei carichi di lavoro. Alcuni operatori stanno migliorando l’efficienza energetica nei loro data center investendo in soluzioni di raffreddamento più efficaci e aumentando la stackability dei rack per ridurre i requisiti di spazio senza sacrificare la potenza di elaborazione. Altri stanno investendo nello sviluppo stesso di modelli AI per creare architetture che richiedano meno potenza di calcolo per essere addestrate e operate.

5. Architetti AI (AI architects)

  • Chi sono: Sviluppatori di modelli AI, fornitori di modelli fondamentali e aziende che costruiscono capacità AI proprietarie. Esempi includono OpenAI e Anthropic.
  • Spese in conto capitale AI Workload: Non incluse in questa analisi.
  • Spese in conto capitale Non-AI Workload: Non incluse in questa analisi.
  • Investimenti chiave: Infrastrutture per l’addestramento e l’inferenza dei modelli, ricerca algoritmica.
  • Opportunità: Gli architetti AI che sviluppano architetture in grado di bilanciare le prestazioni con requisiti di calcolo inferiori guideranno la prossima ondata di adozione dell’AI. Le aziende che investono in capacità AI proprietarie possono guadagnare competitività sviluppando modelli specializzati e adattati alle loro esigenze.
  • Sfide: Le questioni di governance dell’AI, tra cui bias, sicurezza e regolamentazione, aggiungono complessità e possono rallentare lo sviluppo. Nel frattempo, l’inferenza rappresenta una componente di costo importante e imprevedibile, e le aziende incontrano difficoltà nel dimostrare un ROI chiaro dagli investimenti in AI.
  • Soluzioni: Le crescenti richieste computazionali dei modelli AI su larga scala stanno aumentando i costi per il loro addestramento, in particolare per quanto riguarda l’inferenza, il processo in cui i modelli AI addestrati applicano la conoscenza appresa a dati nuovi e mai visti per fare previsioni o prendere decisioni. Modelli con capacità di ragionamento avanzate, come l’o1 di OpenAI, richiedono costi di inferenza significativamente più elevati. Ad esempio, l’inferenza su o1 di OpenAI costa sei volte di più rispetto al modello GPT-4o non orientato al ragionamento della stessa azienda. Per ridurre i costi di inferenza, le aziende AI leader stanno ottimizzando le architetture dei loro modelli utilizzando tecniche come le attivazioni sparse e la distillazione. Queste soluzioni riducono la potenza computazionale necessaria quando un modello AI genera una risposta, rendendo le operazioni più efficienti.

Considerazioni critiche per la crescita dell’infrastruttura AI

Mentre le aziende pianificano i loro investimenti in infrastrutture AI, dovranno navigare in una vasta gamma di risultati possibili. In uno scenario di domanda contenuta, la capacità dei data center legata all’AI potrebbe richiedere 3,7 trilioni di dollari in spese in conto capitale, limitata da vincoli della catena di approvvigionamento, disruzioni tecnologiche e incertezza geopolitica. Queste barriere sono mitigate, tuttavia, in uno scenario di domanda accelerata, portando a investimenti fino a 7,9 trilioni di dollari. Rimanere aggiornati sul paesaggio in evoluzione è fondamentale per prendere decisioni di investimento strategiche e informate. Alcune delle incognite che gli investitori devono considerare includono:

  • Disruzioni tecnologiche: Scoperte nelle architetture dei modelli, compresi i guadagni di efficienza nell’utilizzo del calcolo, potrebbero ridurre la domanda prevista di hardware ed energia.
  • Vincoli della catena di approvvigionamento: Le carenze di manodopera, i colli di bottiglia nella catena di approvvigionamento e gli ostacoli normativi potrebbero ritardare le connessioni alla rete, la disponibilità di chip e l’espansione dei data center, rallentando l’adozione e l’innovazione complessiva dell’AI. Per affrontare i colli di bottiglia nella catena di approvvigionamento per i chip critici, le aziende di semiconduttori stanno investendo capitale significativo per costruire nuove strutture di fabbricazione, ma questa costruzione potrebbe bloccarsi a causa di vincoli normativi e lunghi tempi di realizzazione da parte dei fornitori di attrezzature a monte.
  • Tensioni geopolitiche: Le fluttuazioni delle tariffe e i controlli sull’esportazione di tecnologia potrebbero introdurre incertezza nella domanda di potenza di calcolo, potenzialmente impattando gli investimenti in infrastrutture e la crescita dell’AI.

La corsa al vantaggio competitivo

I vincitori dell’era del calcolo guidata dall’AI saranno le aziende che anticiperanno la domanda di potenza di calcolo e investiranno di conseguenza. Le aziende lungo l’intera catena del valore della potenza di calcolo che si assicureranno proattivamente le risorse critiche (terreno, materiali, capacità energetica e potenza di calcolo) potrebbero ottenere un vantaggio competitivo significativo. Per investire con fiducia, possono adottare un approccio su tre fronti:

Primo, gli investitori dovranno comprendere le proiezioni di domanda in un contesto di incertezza. Le aziende dovrebbero valutare precocemente le esigenze di calcolo AI, anticipare potenziali cambiamenti nella domanda e progettare strategie di investimento scalabili che possano adattarsi all’evoluzione dei modelli e dei casi d’uso dell’AI.

Secondo, gli investitori dovrebbero trovare modi per innovare sull’efficienza del calcolo. Per farlo, possono dare priorità agli investimenti in tecnologie di calcolo efficienti in termini di costi ed energia, ottimizzando le prestazioni e gestendo al contempo il consumo energetico e i costi dell’infrastruttura.

Terzo, possono costruire resilienza sul lato dell’offerta per sostenere la crescita dell’infrastruttura AI senza eccedere nell’impiego di capitale. Ciò richiederà agli investitori di assicurarsi input critici come energia e chip, ottimizzare la selezione del sito e costruire flessibilità nelle loro catene di approvvigionamento.

Trovare il giusto equilibrio tra crescita ed efficienza del capitale sarà cruciale. Investire strategicamente non è solo una corsa per scalare l’infrastruttura dei dati, è una corsa per plasmare il futuro dell’AI stessa.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link