Sono le 23:54 di venerdì 27 Marzo 2023, e questo è il primo long format che ho deciso di scrivere per il mio blog malvag.io. Non è una lettura breve come quelle che passo su Linkedin, e non penso neanche sia una lettura semplice. Armatevi di patatine e bibite gassate, si parte.
La traiettoria dell’informatica moderna
Più guardo la direzione che sta prendendo il mondo digitale, che pure ho contribuito a costruire, più mi rendo conto che stiamo andando verso una fase di transizione difficile da evitare e che, secondo me, porterà alla fine del personal computing inteso come possesso di hardware sovrano e software che gira sulla tua macchina, aprendo invece la strada a un ritorno spiacevole, simile a quei mainframe dai quali ci siamo affrancati nei primi anni ottanta con il personal computing. Il motivo che sta accelerando questa transizione è l’intelligenza artificiale.
Abbiamo già avuto un primo assaggio di questa nuova epoca tra la fine della seconda decade del secolo e l’inizio della terza, quando abbiamo cominciato a scambiare sempre più massicciamente il software che girava interamente sui nostri PC — di cui eravamo proprietari — con quello “as a service” che gira nei datacenter cloud.
- Il CRM lo fai con Salesforce
- La musica la prendi in streaming
- L’editor di documenti lo puoi avere solo se paghi un abbonamento a Google Docs oppure a Microsoft
- E via andare…
Poi è arrivata l’AI e la metamorfosi sta accelerando, non come risultato di una singola innovazione tecnologica, ma piuttosto per la convergenza di dinamiche economiche aggressive, scarsità strutturale di semiconduttori e una situazione geopolitica che rende il mondo sempre più frammentato e sempre meno globalizzato. Quello che succede negli Stati Uniti, e i suoi riflessi in Ucraina e in Iran, ne sono semplicemente un sintomo, ma i segnali sono un po’ dappertutto, se vi guardate bene intorno.
Il fatto è che con l’AI anche la potenza di calcolo — oltre al software — sta tornando ad appartenere ai datacenter e non al tuo PC. Ad esempio, guardando quello che sta avvenendo nel mercato delle RAM e degli hard disk, è facile ipotizzare uno scenario in cui il dispositivo fisico diventa un mero terminale di accesso, privo di autonomia operativa, mentre il potere computazionale e il controllo dei dati si spostano irreversibilmente verso le infrastrutture cloud proprietarie.
L’Economia dell’Obsolescenza: Il Modello Hardware-as-a-Service
D’altronde, non mi sembra si sia sorpreso nessuno alla notizia che fornitori storici del mercato consumer di hard disk e RAM — rispettivamente Western Digital e Micron — hanno recentemente segnalato la totale uscita dal mercato consumer a favore di quello enterprise e dei datacenter in particolare.
La minore disponibilità di componenti quali hard disk, memorie SSD e chip RAM sta cominciando a spingere verso l’alto i prezzi dell’hardware per uso personale, per via della riduzione della catena di fornitura e delle pratiche oligopolistiche che inevitabilmente ne emergono.
Inoltre, il passaggio dai modelli di spesa in conto capitale (CapEx) a quelli di spesa operativa (OpEx) ha trasformato il modo in cui le organizzazioni e, progressivamente, i singoli utenti interagiscono con l’hardware. Sta emergendo il modello Hardware-as-a-Service (HaaS), non tanto come scelta di nicchia, ma come strategia dominante per i produttori che cercano di stabilizzare i ricavi attraverso abbonamenti ricorrenti, come già era successo con il SaaS nel mondo software.
Sotto il regime HaaS, l’utente finale smette di essere proprietario dell’hardware e ne diventa un affittuario perpetuo. Il fornitore gestisce l’intero ciclo di vita del dispositivo, dall’installazione alla manutenzione fino alla dismissione e, sebbene questo venga commercializzato come un modo per ridurre i costi iniziali e garantire accesso a tecnologie aggiornate, la realtà implica una perdita sostanziale di controllo sulla longevità e sull’uso del dispositivo e del software che ci gira sopra.
Si crea un effetto lock-in attraverso il bundling di hardware, software proprietario e servizi di manutenzione che moltiplica i profitti per i vendor e riduce la libertà per gli utenti.
L’integrazione tra software proprietario e hardware specifico rende poi difficile intervenire in modo indipendente. La conoscete la storia dei trattori John Deere che, pur costando una fortuna, avevano protezioni software tali per cui i fattori non potevano ripararli autonomamente, costringendoli a contratti di manutenzione costosi? Ecco, immaginate questa situazione portata nelle nostre case.
Ma davvero abbiamo bisogno di farci chiudere fuori dai nostri dispositivi e perdere le competenze che ci permettono di mantenerli? Le foto che facciamo, le relazioni che creiamo, la musica che ascoltiamo, i nostri ricordi… tutto in mano ad altri.
Il Cavallo di Troia dell’Intelligenza Artificiale
L’ascesa dell’intelligenza artificiale sta diventando il catalizzatore più potente dello smantellamento del personal computing come lo abbiamo conosciuto negli ultimi 40 anni. Le cosiddette “leggi di scala” dell’AI implicano che la potenza necessaria per addestrare e utilizzare modelli avanzati supera sempre più le capacità dei dispositivi locali.
Figure di spicco del settore, come Jeff Bezos, hanno descritto il PC tradizionale come un “pezzo da museo”, suggerendo che il lavoro pesante verrà spostato verso grandi server farm.
Questo segna un ritorno ciclico all’era dei “dumb terminals” degli anni ‘60 e ‘70, dove la potenza risiedeva nel mainframe e l’utente aveva solo una tastiera e uno schermo. In questo nuovo scenario, il laptop diventa un ricevitore di streaming.
La promessa è rendere un vecchio computer potente quanto una workstation moderna, ma il prezzo è la dipendenza totale dalla connettività e la perdita di controllo sui dati.
Le strategie di Microsoft, con Windows 365 e Copilot, vanno chiaramente in questa direzione: il sistema operativo diventa un servizio e la macchina locale un punto di accesso.
La Diversificazione delle Intelligenze e il Rischio di Omogeneizzazione
Mentre esiste un movimento verso la “Personal AI” (PAI), che prova a mantenere l’intelligenza sui dispositivi locali per migliorare privacy e personalizzazione, le forze di mercato spingono nella direzione opposta, cioè verso la centralizzazione. Il rischio di questo modello è l’omogeneizzazione del pensiero e la propagazione istantanea di errori o pregiudizi (bias) lungo tutto l’ecosistema digitale. Se un singolo modello cloud commette un errore sistematico, quell’errore non resta confinato ma si riflette su ogni utente connesso, creando una fragilità che nel mondo del calcolo distribuito e indipendente semplicemente non esisteva.
Scarsità Strutturale e il “RAMmageddon” del 2026

La fine del computing personale è accelerata anche da un problema molto concreto: la disponibilità fisica di componenti. Tra il 2025 e il 2027 il mercato globale è entrato in una fase di scarsità di memoria senza precedenti, ribattezzata dai media “RAMmageddon” o “RAMpocalypse”. A differenza della carenza di chip tra il 2020 e il 2023, causata principalmente da problemi logistici legati alla pandemia, questa crisi è strutturale: i produttori stanno spostando la capacità produttiva verso memorie ad alta marginalità destinate ai datacenter AI, lasciando in secondo piano i componenti per PC e smartphone.
Questa dinamica crea una barriera economica sempre più difficile da superare per chi vuole possedere hardware potente in locale. Secondo Gartner e IDC, i laptop entry-level sotto i 500 dollari diventeranno economicamente non sostenibili entro il 2027, anche perché il costo della memoria può arrivare fino al 35% del costo totale di un PC, rispetto al 15–18% di pochi anni fa. Produttori come Dell e Lenovo hanno già iniziato a trasferire questi aumenti sui clienti finali, con rincari che possono arrivare al 15%. In alcuni casi si sono visti anche sistemi venduti senza RAM, lasciando agli utenti il problema — spesso irrisolvibile — di procurarsi i moduli in un mercato dominato dagli scalper e dalle priorità dei grandi player cloud.
Il Paradosso dell’AI PC
Nel frattempo, l’industria spinge forte sugli “AI PC”, macchine con NPU integrate che richiedono quantitativi importanti di RAM (almeno 16GB, idealmente 32GB o più) per funzionare come promesso. Il problema è che la stessa domanda di AI che giustifica questi dispositivi è anche la causa della scarsità di memoria che li rende sempre meno accessibili. Il risultato è un paradosso: macchine pensate per l’AI che, nella pratica, rischiano di essere sottodimensionate, costringendo comunque l’utente a tornare sul cloud per compensare i limiti hardware.
Sicurezza o Controllo?
L’architettura hardware moderna sta integrando meccanismi di sicurezza che, pur essendo efficaci contro il malware tradizionale, spostano sempre più il controllo dal lato dell’utente a quello del fornitore. Tecnologie come TPM 2.0, Secure Boot e il processore di sicurezza Microsoft Pluton creano un contesto in cui l’hardware può attestare verso terzi lo stato del proprio software.
TPM 2.0 e l’Attestazione Remota
Il TPM 2.0 è diventato un requisito per Windows 11 e funziona come una cassaforte crittografica per chiavi e certificati. La parte più delicata è il “Measured Boot”: ogni fase dell’avvio viene registrata e, se qualcosa non torna — un kernel modificato o un bootloader non firmato — il TPM può rifiutarsi di rilasciare le chiavi necessarie per accedere ai dati. Attraverso l’attestazione remota, servizi esterni (streaming, anti-cheat, piattaforme varie) possono verificare queste misure e decidere se concedere o meno l’accesso.
Microsoft Pluton spinge questo modello ancora più in là. Integrando il processore di sicurezza direttamente nella CPU, elimina alcune classi di attacchi hardware ma introduce anche un controllo diretto sul firmware gestito tramite Windows Update. Pluton utilizza un sistema operativo basato su Rust (Tock OS) per la sicurezza della memoria, ma il punto centrale è un altro: la possibilità di aggiornare continuamente firmware e politiche di sicurezza senza passare dall’utente o dal produttore del PC. Di fatto si crea una continuità tra chip e cloud in cui il controllo sull’hardware non è più realmente tuo.

La Politica del “Bricking”: Firmware come Strumento di Coercizione
Quando il controllo passa dal lato firmware, diventa possibile anche disabilitare dispositivi da remoto. Il “bricking” — trasformare un dispositivo in un oggetto inutilizzabile — non è più un incidente ma uno strumento.
Un esempio concreto è HP con la “Dynamic Security”: aggiornamenti firmware che bloccano le stampanti se rilevano cartucce non ufficiali. Nel marzo 2025 un aggiornamento difettoso ha mandato in blocco numerose LaserJet anche con cartucce originali, mostrando un generico “Errore 11” e rendendo le stampanti inutilizzabili. HP ha giustificato la scelta parlando di possibili “virus” nelle cartucce non ufficiali, una tesi accolta con parecchio scetticismo dagli esperti di sicurezza.
La Resistenza Legislativa e il Diritto alla Riparazione
In risposta a queste dinamiche, l’Unione Europea ha introdotto la direttiva sul diritto alla riparazione, entrata in vigore nel luglio 2024 e destinata a diventare pienamente operativa entro il 31 luglio 2026. L’obiettivo è contrastare l’obsolescenza programmata e allungare la vita dei dispositivi.
Tra le misure principali:
- disponibilità di parti di ricambio per 5–10 anni
- accesso a manuali e strumenti diagnostici
- divieto di blocchi software che impediscono la riparazione
- indice di riparabilità visibile al momento dell’acquisto
Il problema è che queste norme si scontrano con architetture come Pluton. Se un blocco viene giustificato come necessario per la sicurezza, esistono margini per aggirare la normativa. E poi c’è un altro tema: la maggior parte dei fornitori è americana o cinese, mentre in Europa la produzione è marginale. Questo rende l’applicazione reale di queste regole tutt’altro che scontata. Il rischio è il solito compromesso al ribasso, con regole che esistono ma vengono piegate strada facendo.
AI on the Edge: La Frontiera della Sovranità Digitale
Come reazione a questa deriva verso la centralizzazione, sta emergendo un movimento che punta a riportare l’AI sul dispositivo locale: AI on the edge. L’idea è semplice: meno dipendenza dal cloud, più controllo, più privacy.
Ho testato software gratuiti e open source come Ollama, che permette di eseguire modelli linguistici anche su PC normali con GPU moderne, evitando di mandare dati a OpenAI o Google. Ho provato anche progetti come OpenClaw, che consentono di installare agenti AI direttamente in locale.
Funziona, ma con dei limiti chiari: servono RAM e VRAM in quantità, cioè proprio i componenti che stanno diventando sempre meno accessibili. E serve anche una certa dimestichezza con ambienti di sviluppo e sistemi Unix. Alla fine, le configurazioni più semplici restano quelle remote. E quindi si torna sempre allo stesso punto.
Considerazioni Finali: La Transizione verso un Dualismo Tecnologico
Il futuro del computing non sarà uniforme. Si stanno delineando due modelli distinti.
Da una parte un mondo consumer fatto di dispositivi economici ma chiusi, fortemente dipendenti dal cloud, gestiti tramite abbonamenti e protetti da sistemi di sicurezza che impediscono qualsiasi intervento non autorizzato. Qui l’utente è un consumatore, non un proprietario.
Dall’altra un modello più autonomo, basato su hardware costoso, software open source e AI locale, accessibile a chi ha competenze e risorse per permetterselo. Questo secondo gruppo dovrà fare i conti con costi crescenti e con una pressione costante da parte degli ecosistemi chiusi.
La fine del personal computing non sarà un evento netto, ma un’erosione progressiva, venduta ogni volta come comodità, sicurezza o risparmio. Mantenere il controllo sui propri strumenti digitali diventerà sempre più una scelta attiva, non lo stato di default.
Se esiste una strategia, sta nel ridurre la dipendenza dal cloud dove possibile, sostenere il diritto alla riparazione e mantenere uno sguardo critico su tecnologie che, sotto la promessa della sicurezza, spostano il controllo altrove. La fine del personal computing non è inevitabile, ma evitarla richiede uno sforzo consapevole.


Commenti