Intel fa sul serio su SambaNova: un segnale forte sull’inferenza LLM e sulla filiera dei chip

Intel fa sul serio su SambaNova: un segnale forte sull’inferenza LLM e sulla filiera dei chip

Intel ha firmato un term sheet per acquisire la startup di chip AI SambaNova Systems. L’accordo non è vincolante e dovrà superare due diligence, analisi legali e approvazioni regolatorie: possono volerci settimane o mesi. Ma il messaggio al mercato è chiaro: Intel vuole accelerare sull’AI, in particolare sull’inferenza dei modelli di grandi dimensioni.

Perché proprio SambaNova (e perché adesso)

SambaNova è nata nel 2017 a Palo Alto e sviluppa una piattaforma di chip per l’inferenza AI, cioè la fase in cui i LLM trasformano input in predizioni. Negli ultimi anni l’azienda ha raccolto 1,14 miliardi di dollari, raggiungendo nel 2021 una valutazione di 5 miliardi, poi ridimensionata. Proprio questo calo, insieme al fatto che Intel ha faticato più di altri a imporsi nel segmento AI, rende l’operazione più plausibile dal punto di vista finanziario e strategico.

Al netto dei dettagli che scopriremo, il punto tecnico è l’economia dell’inferenza: costi per token, latenza prevedibile, footprint energetico e semplicità di integrazione nello stack MLOps. Se Intel vuole giocare un ruolo credibile contro i soliti noti, la via più rapida è acquisire una competenza end-to-end su hardware, runtime e toolchain mirati all’inferenza LLM.

Schema concettuale di un cluster per inferenza LLM con acceleratori dedicati e pipeline di serving

Per chi progetta piattaforme, la domanda pratica è: quanto è “drop-in” una nuova piattaforma di inferenza? La risposta dipende da compilatori, copertura operatori, compatibilità ONNX/PyTorch, scheduler e tooling di serving. In generale, più è facile spostare modelli e prompt flow esistenti senza rifattorizzazioni dolorose, più l’adozione diventa realistica su grandi volumi.

Incastri societari e sorveglianza regolatoria

Ci sono dettagli societari che alzeranno l’attenzione dei regolatori. Il CEO di Intel, Lip-Bu Tan, è anche executive chairman di SambaNova. Intel Capital — oggi in via di spin–off — aveva investito in SambaNova, così come SoftBank (che di recente ha investito anche in Intel). Sono incroci da gestire con estrema trasparenza: governance, conflitti d’interesse, valutazioni eque. E infatti il term sheet è solo il primo passo.

“Non è un deal fatto finché non è chiuso: la due diligence può cambiare le priorità, specialmente nel software stack e nella supply chain.”

Implicazioni per chi costruisce stack AI

Se l’operazione andrà in porto, mi aspetto un focus sul runtime d’inferenza e sul TCO per token. In pratica: batch dinamico, KV cache gestita in modo efficiente, profilazione automatica per scegliere il miglior layout del modello, autoscaling più prevedibile. L’obiettivo sarebbe ridurre il divario tra “benchmark da laboratorio” e latenza p95/p99 in produzione.

# Esempio (astratto) di configurazione per passare a un backend di inferenza accelerato
RUNTIME=accelerator
MODEL=llm-7b-instruct
BATCH_SIZE=8
MAX_TOKENS=512
# fallback su CPU se l'acceleratore non è disponibile
if ! runtime_available "$RUNTIME"; then
  RUNTIME=cpu
fi
serve --model "$MODEL" --runtime "$RUNTIME" --batch "$BATCH_SIZE" --max-tokens "$MAX_TOKENS"

Le migrazioni che ho visto funzionare meglio riducono l’effort in tre aree: conversione del modello, osservabilità nativa (tracing, token throughput, costo per richiesta) e compatibilità con i tool di orchestrazione esistenti. Se Intel-SambaNova offrirà tutto questo out-of-the-box, allora vedremo POC diventare produzione molto più in fretta.


La partita industriale: USA e India sullo sfondo

Intel ha ricevuto 8,9 miliardi di dollari dal governo USA per espandere la produzione domestica di semiconduttori. In parallelo, in India Tata Electronics sta costruendo una fabbrica di semiconduttori in Gujarat e un impianto di assemblaggio e test in Assam, con Intel come potenziale cliente per le strutture in arrivo; le due aziende esploreranno anche soluzioni AI PC per il mercato indiano, atteso tra i primi cinque al mondo entro il 2030. Tradotto: la catena del valore dell’AI si sta ribilanciando tra progettazione, produzione e integrazione, con nuovi poli geografici che entrano nel gioco.

Interno di una fabbrica di semiconduttori e mappa stilizzata che collega USA e India

Per i team di piattaforma questo si traduce in disponibilità più prevedibile, alternative di fornitura e, si spera, prezzi meno volatili. Ma non illudiamoci: la transizione richiederà tempo e gli ecosistemi software restano il vero moltiplicatore.

Cosa terrò d’occhio

  • Chiarezza su licenze, SDK e copertura operatori per l’inferenza LLM.
  • Numeri pubblici su latenza p95/p99, throughput per watt e costo per 1M token serviti.
  • Compatibilità con formati standard (es. ONNX) e strumenti di serving già in uso.
  • Segnali dalle autorità su governance e conflitti potenziali legati ai ruoli incrociati.
  • Evoluzione della capacità produttiva tra USA e India e impatto sui lead time.

Se Intel chiuderà davvero con SambaNova, non sarà solo un’acquisizione: sarà un test di maturità sull’inferenza enterprise. E, per noi che costruiamo piattaforme, una possibile nuova leva per ridurre costi e complessità in produzione.

Ti sei iscritto con successo a Innovazione e Tecnologia: Tra AI e Programmazione
Grande! Successivamente, completa il checkout per l'accesso completo a Innovazione e Tecnologia: Tra AI e Programmazione
Ben tornato! Hai effettuato l'accesso con successo.
Successo! Il tuo account è completamente attivato, ora hai accesso a tutti i contenuti.
Successo! Le tue informazioni di fatturazione vengono aggiornate.
Aggiornamento delle informazioni di fatturazione non riuscito.