La memoria è uno degli elementi più critici in un chip moderno: più è vicina al processore, più lavora velocemente e permette al sistema di elaborare dati in tempo reale. Ma questo comporta costi più elevati, maggiore consumo energetico e superfici di silicio occupate più ampie. Allontanandosi dal core di calcolo, le memorie diventano più capienti ed economiche, ma anche più lente, e vengono utilizzate soprattutto per l’archiviazione a lungo termine.

Da oltre sessant’anni lo standard delle memorie on-chip è la SRAM, la memoria “statica” la cui cella di base per memorizzare un singolo bit richiede sei transistor. Senza SRAM, i processori dovrebbero attendere continuamente i dati provenienti dalle memorie più lente, con un impatto devastante sulle prestazioni. L’SRAM ha quindi tre ruoli fondamentali: alimentare i core di calcolo con dati ad altissima velocità, ridurre la latenza e i consumi derivanti dall’uso di DRAM esterna e garantire il parallelismo delle operazioni. Tuttavia, la tecnologia SRAM presenta limiti strutturali: è costosa, occupa molto spazio e consuma energia anche quando è inattiva.

La domanda crescente di SRAM

Oggi chip per AI, machine learning, automotive, 5G e high-performance computing richiedono quantità sempre maggiori di memoria on-chip. In molte architetture, l’SRAM rappresenta oltre il 50% della superficie totale del chip. Con la fine della legge di Moore (Vedi Box) l’SRAM non può più scalare nei “nodi CMOS” avanzati.

Secondo le stime più recenti, il mercato globale dei sensori quantistici nel 2023 è stato valutato tra i 200 e gli 800 milioni di dollari, un intervallo che riflette l’eterogeneità dello sviluppo tecnologico e commerciale lungo tutta la filiera. Le previsioni indicano un tasso di crescita medio annuo (CAGR) del 10% fino al 2032, una dinamica che potrebbe portare il mercato a superare diversi miliardi di dollari, a seconda dei tassi di adozione e della maturazione dei segmenti applicativi. Già oggi, il solo segmento dei sensori inerziali per l’aviazione potrebbe valere fino a 5 miliardi di dollari, a dimostrazione della vastità del potenziale indirizzabile.

Il “nodo CMOS” indica una generazione tecnologica di processo produttivo di transistor all’interno dei chip: di fatto, si tratta del livello di miniaturizzazione raggiunto dall’industria dei mircoprocessori in un dato momento, catalogato dal 1999 in nano millimetri. Ogni nuovo nodo comporta un aumento dei costi e della complessità produttiva.

Nonostante ciò, la presenza della SRAM rimane indispensabile: è integrata in CPU e GPU, nei chip per intelligenza artificiale (per esempio nell’elaborazione di immagini e riconoscimento vocale), nei sistemi real-time come droni e veicoli autonomi, e in dispositivi compatti come smartwatch e sensori.

Il mercato della Static RAM resta quindi di nicchia rispetto a DRAM e NAND Flash, ma è vitale per l’informatica ad alte prestazioni e i sistemi embedded. L’adozione crescente di edge AI, ASIC personalizzati e architetture a chiplet fa sì che l’SRAM mantenga un ruolo strategico, anche se “dietro le quinte”: compatta, critica, insostituibile.

L’opportunità di RAAAM

È in questo scenario che si inserisce RAAAM Memory Technologies, con la sua tecnologia brevettata GCRAM, in grado di garantire fino al 50% di riduzione di area e fino a 10 volte meno consumi rispetto all’SRAM ad alta densità. Una soluzione che promette di affrontare i limiti di costo, consumo e scalabilità che oggi affliggono i chip più avanzati, soprattutto nel campo dell’AI.

Il modello di business di RAAAM non prevede la vendita di chip, bensì di blocchi IP, vale a dire moduli di design elettronico ready to use al comparto progettuale e produttivo dei semiconduttori. La società concede dunque in licenza la propria tecnologia a chi progetta semiconduttori: fabless come Nvidia o NXP, fonderie e IDM (Integrated Device Manifacturer), e fornitori di strumenti EDA (Electronic Design Automation, in pratica software avanzati che permettono di progettare chip prima della loro produzione fisica). Questo approccio rende la tecnologia scalabile e adottabile su larga scala, senza la necessità di costruire una catena produttiva propria.

Dimensioni di mercato

Secondo i dati di mercato, il Total Addressable Market (TAM) è legato al mercato globale dei processori, valutato in circa 250 miliardi di dollari. Con un modello di royalty al 2%, questo equivale a un potenziale di 5 miliardi di dollari.

Il Serviceable Available Market (SAM) si restringe ai nodi di processo in cui la tecnologia sarà disponibile (22 nm, 5 nm e 2 nm), pari a circa 2,5 miliardi di dollari.

Il Serviceable Obtainable Market (SOM), ossia la quota realmente conquistabile nel medio periodo, è stimata intorno al 5% del SAM, ovvero circa 125 milioni di dollari, in linea con le previsioni di fatturato della società fino al 2030.

Driver e limiti

I principali driver di mercato sono chiari: l’aumento dei carichi di lavoro per AI e Machine Learning (ML) e per le applicazioni data-intensive, la crescente criticità del “memory wall” (il divario tra capacità di calcolo e banda della memoria), e la necessità di migliorare l’efficienza energetica riducendo la dipendenza dalla DRAM esterna, la memoria dinamica non integrata nel chip principale.

I limiti dell’attuale SRAM – costi per bit elevati, occupazione di area e mancanza di scalabilità – rendono ancora più urgente l’adozione di nuove soluzioni.

In sintesi, l’innovazione proposta da RAAAM si colloca in un mercato altamente specializzato ma in forte tensione evolutiva. Se riuscirà a validare industrialmente la propria tecnologia e ad allinearsi alle roadmap dei grandi player dei semiconduttori, RAAAM avrà la possibilità di trasformare un collo di bottiglia critico in un vantaggio competitivo per l’intera industria dei chip di nuova generazione.

“La legge di Moore”

Gordon Moore è stato il co-fondatore di Intel, ed è di diritto considerabile uno dei “padri” dei microprocessori. Nel 1965 formulò una legge empirica che ha preso il suo nome così declinata: “Il numero di transistor su un chip raddoppia circa ogni 18-24 mesi, mentre il costo per transistor si dimezza”. Chip sempre più potenti, ma sempre meno costosi: una legge che ha guidato per oltre 50 anni l’industria IT, trovando conferma puntuale nei numeri: se nel 1971 un chip Intel conteneva 2.300 transistor, nel 2024 un chip Nvidia ne contiene oltre 100 miliardi. È evidente come questa dinamica, questa miniaturizzazione costante, abbia raggiunto il limite fisico della materia, decretando di fatto la fine della Legge di Moore: da qui la necessità di esplorare ed intraprendere nuove strade per assecondare uno sviluppo tecnologico che cresce costantemente divorando, letteralmente, sé stesso.