Malvag.io
Uomo in ufficio moderno con vista notturna sulla città, con le mani su un server locale illuminato in blu con scritto "LOCAL AI SERVER", pannello di controllo con "TRUST CONTROL PRIVACY"

Local AI. Portiamo a casa il potere computazionale

Ma veramente stiamo normalizzando l’assurdità di mandare dati personali, documenti aziendali e contenuti sensibili a server AI remoti — anche quando non serve — per farci delle elaborazioni che avremmo benissimo potuto completare localmente?

Ultimamente ho letto diversi articoli molto interessanti sulla Local AI e secondo me evidenziano benissimo il livello di c@77@t@ apocalittica che stiamo commettendo non adottando una policy di ’local first’ per tutto il software AI che stiamo sviluppando.

Il problema: cloud everywhere, senso comune nowhere

Oggi integriamo API di OpenAI o Anthropic ovunque, spesso per task semplici come:

  • Riassumere note
  • Classificare documenti
  • Organizzare email
  • In generale trasformare testo

Ma per fare queste operazioni relativamente semplici, inviamo dati fuori dai nostri dispositivi. E con questo creiamo:

  • Dipendenze inutili dal cloud
  • Aumento di costi e latenza (i dati devono viaggiare da noi al cloud e ritorno)
  • Rischi nuovi (se cade la rete, se GPT non risponde, che fai?)
  • Problemi di privacy e compliance
  • Uno stack operativo fragile

Ma ci siamo bevuti il cervello?

Lo sapevate che avete già il potere computazionale?

Eppure smartphone e laptop moderni hanno già una potenza AI enorme onboard: GPU dedicate e spesso abbastanza RAM per eseguire dei modelli di near-frontier (opportunamente quantizzati). Tutto hardware potentissimo che spesso resta inutilizzato.

Ma se è vero che la gran parte delle feature AI non hanno bisogno della superintelligenza di un modello di frontiera e devono solo trasformare dati locali in modo affidabile, perchè non ci affidiamo a un buon SLM (small language model)?

Questa strategia ha più senso perchè gli SLM:

  • Sono più veloci
  • Costano solo l’energia per eseguirli
  • Funzionano offline
  • Sono più prevedibili
  • Proteggono meglio la privacy

La storia che avrebbe dovuto raccontarci tutto

C@778, ma lo sapete che c’è un tizio che si è fatto un volo di 10 ore con un Mac abilitato con uno SLM e durante il volo si è vibe-codato un tool di analisi di fatturazione?

Ma che figo è? E quanta libertà e privacy in più ci offre?

(Leggetelo qui: https://lnkd.in/dZXj9fQf)

Quella è la strada. Quella è la libertà che dovremmo inseguire.

Due strade completamente diverse

Secondo me nei prossimi anni vedremo due direzioni molto diverse:

  1. AI cloud per reasoning complesso e conoscenza globale
  2. AI locali per produttività, automazione personale e trasformazione dei dati

E probabilmente la seconda categoria crescerà molto più velocemente di quanto immaginiamo e più della prima, perchè — come fu quarant’anni fa per il passaggio dai mainframe al personal computing — la flessibilità dello strumento si manifesta in pieno solo quando siamo liberi di usarla a nostro piacimento, senza i vincoli di una condivisione forzata ed evitando di mandare dati in giro quando non è necessario.

Allora, ce lo vogliamo riportare in casa questo potere computazionale?

Commenti

Caricamento commenti...