Ricercatore di Google DeepMind nel loro ufficio, simboleggiando la ricerca che affronta il problema dei dati inconsistenti negli agenti AI

I Vostri Sistemi Prendono Decisioni Con Dati Sbagliati, Ogni Giorno

Il CRM senza golden record ha dati duplicati, un ERP sotto migrazione che presenta un’inconsistenza, un datawarehouse a cui fallisce un consolidamento.

Senza una logica adeguata tutte le automazioni costruite su questi dati falliscono.

Due anni fa non sarebbe stato un problema — era tutto per lo più manuale o automatizzato tramite lavoro batch.

Ma ora ci sono gli agenti, automatici, sempre attivi. Quindi se il dato diventa inconsistente: big problemz(!).

Come lo risolve il problema un agente che non è in grado di ragionare su contraddizioni? Non lo risolve. Crolla.

C’è una via d’uscita

Questa settimana ho letto un paper di logica formale che affronta esattamente questo problema, e lo fa in un modo che trovo utile anche fuori dall’accademia.

L’idea centrale è semplice: evidenza e verità sono due cose diverse.

Tramite l’evidenza posso avere indizi che puntano in una direzione, e queste informazioni sono comunque parzialmente utilizzabili anche in presenza di un’evidenza contraria.

Per evitare che il sistema collassi perché i dati sono contraddittori, i ricercatori hanno costruito una logica basata su un “timbro di classicità”: questo, applicato a una proposizione logica, dice che quell’informazione è affidabile e che si può ragionare con la normale logica if-then-else.

Senza quel timbro, invece, il sistema gestisce l’incertezza riducendola fino a ricondurla a una situazione logica classica.

L’algoritmo che termina

I ricercatori hanno anche dimostrato che esiste sempre un algoritmo che termina con una risposta “classica”: decidibile, automatizzabile.

Perché mi interessa come dirigente nel mondo della tecnologia per il marketing?

Perché stiamo costruendo sistemi AI e di automazione su fondamenta logiche che non sempre reggono il mondo reale e la frammentazione dei dati nelle aziende.

Questo garantisce che grazie a questo algoritmo gente come me potrà costruire automazioni anche su dati che non sono sempre puliti e con fonti che presentano inconsistenze.

Tutto eventualmente diventerà decidibile per un LLM, e ora è la logica a garantirlo.

La mossa strategica

Chiunque stia progettando motori di regole, knowledge graph, o sistemi di inferenza su dati aziendali dovrebbe leggere questo paper di Google Deepmind al più presto: https://lnkd.in/dmvDzKqb

Non vi sto dicendo di andare a diventare luminari di logica paraconsistente, ma solo che da oggi potete smettere di fingere che i vostri dati siano coerenti per far contento un batch job.

Non appena questo teorema verrà importato nelle logiche decisionali degli LLM i vostri tool cambieranno e saranno in grado di trattare gran parte delle inconsistenze a prescindere che il problema rimanga o meno.

Enjoy. 😈

Commenti

Caricamento commenti...