
Aggiungi ai preferiti
Sempre più aziende europee cercano garanzie sulla protezione dei dati: tra rischi di fughe e utilizzo non controllato di GenAI, cresce l’attenzione verso soluzioni che mantengono i dati all’interno dell’azienda
Negli ultimi mesi è emerso un dato preoccupante: secondo un rapporto di LayerX, il 45% dei dipendenti utilizza strumenti di GenAI senza alcun controllo da parte dell’azienda, e in 3 casi su 4 copia e incolla direttamente nei chatbot informazioni interne, ed è stato stimato che circa il 40% dei file caricati contenga dati sensibili.
Non solo, l’82% di queste attività avviene tramite account personali, fuori da ogni supervisione. Questo crea per le imprese un enorme punto cieco, infatti non solo non sanno quali informazioni vengono condivise, ma rischiano fughe di dati, problemi di conformità e la dispersione di contenuti proprietari.
Pericolo già messo in evidenza da un noto caso internazionale, in cui alcuni dipendenti, nel tentativo di velocizzare operazioni quotidiane, hanno inconsapevolmente caricato su un chatbot pubblico codice sorgente, note riservate e altri file interni.
L’episodio ha costretto la multinazionale coinvolta a vietare l’uso di strumenti di GenAI su dispositivi aziendali, mostrando quanto sia facile perdere il controllo dei dati quando si usano piattaforme pubbliche senza adeguate tutele.
Non sorprende quindi che, secondo un’indagine OCSE, oltre la metà delle aziende europee abbia rallentato o sospeso i propri progetti di intelligenza artificiale, proprio a causa delle incertezze legate alla gestione dei dati e airischiche ne derivano.
La soluzione? “Privacy by design” come nuova frontiera dell’AI aziendale
Di fronte a questi rischi, il nodo centrale non è tanto se utilizzare l’intelligenza artificiale ma come farlo senza perdere il controllo sui propri dati.
Deloitte infatti riporta che nei mercati europei la fiducia nelle soluzioni di AI cresce solo quando le aziende che la adottano operano in contesti di governance robusta, trasparenza nelle fonti e uso responsabile dei dati.
In questa direzione si stanno muovendo le soluzioni di intelligenza artificiale “a circuito chiuso”, progettate per coniugare innovazione e tutela della privacy.
Tra i modelli più promettenti figurano i sistemi di Retrieval-Augmented Generation (RAG) interni, in cui l’assistente AI interroga esclusivamente documenti aziendali indicizzati in motori di ricerca privati, e i dati non lasciano mai l’infrastruttura aziendale. L’intelligenza artificiale diventa così uno strumento di accesso e valorizzazione del patrimonio informativo interno, non una minaccia per la riservatezza.
Un approccio simile si sta diffondendo anche nella formazione aziendale, dove modelli linguistici privati analizzano e generano contenuti a partire da documentazione proprietaria.
Questi sistemi non condividono alcuna informazione con servizi esterni, operano solo su materiali interni e garantiscono la tracciabilità delle risposte alle fonti originali. Oltre a ridurre i rischi di dispersione dei dati, questi modelli permettono alle imprese di personalizzare i processi di conoscenza e aggiornamento, mantenendo il pieno controllo sui propri dati.
Questo cambio di paradigma sta dando forma a un nuovo approccio progettuale, che considera la privacy come un requisito ingegneristico, non come un vincolo a posteriori.
Un orientamento condiviso da diversi centri di ricerca e realtà tecnologiche europee, tra cui Grid+, startup della Sapienza Università di Roma, che applica questi principi nello sviluppo di modelli e architetture di intelligenza artificiale, ponendo la protezione dei dati al cuore del processo progettuale.
“La soluzione non è rinunciare all’AI, ma progettarla diversamente. Unendo soluzioni tecniche avanzate con un approccio rigoroso alla governance dei dati, è possibile offrire alle aziende strumenti realmente utili senza compromettere la sicurezza e la conformità normativa. Non si tratta di rallentare l’innovazione ma di orientarla verso modelli proprietari e affidabili. In questo modo, le aziende possono davvero possedere la propria AI, controllando i dati e l’innovazione in modo sicuro e responsabile”
Andrea Ceschini – CEO e co-founder di Grid+
Grid+ è una startup innovativa nata nell’Università “La Sapienza” di Roma, attiva nel campo dell’intelligenza artificiale con l’obiettivo di trasferire le conoscenze scientifiche dal mondo accademico a quello aziendale. Fondata a fine 2023 da un team di sei ricercatori che operano in vari ambiti, ha già proiettato una crescita del 269% nel 2025. Il numero di clienti è cresciuto costantemente, con una previsione di 30 clienti entro fine anno, mentre il team è cresciuto da 7 a 13 risorse stabili più 6 collaboratori, puntando a raggiungere almeno 15 risorse stabili entro la fine del 2025. Tra i progetti strategici, Grid+ ha concluso con successo un proof of concept di 3 mesi con Italferr, coordinato da Elis Innovation Hub, consolidando la propria presenza nel settore delle infrastrutture e dei trasporti; per tale progetto, Grid+ allo SMAU di Novembre 2025 ha ritirato insieme ad Italferr il Premio Innovazione 2025.
