Microsoft Copilot+ PCs e Recall: privacy a rischio?

Microsoft ha recentemente presentato una nuova linea di notebook, definendo il suo paradigma di “Copilot+ PCs”, ovvero sistemi portatili dotati di hardware dedicato all’IA per sfruttare più efficacemente il proprio assistente virtuale Copilot e le nuove funzionalità avanzate delle quali verrà dotato.

Tali sistemi sono caratterizzati da requisiti hardware specifici: processore con architettura ARM (forniti dal partner Qualcomm) e coprocessori dedicati all’IA da almeno 40 TOPS (Trilioni di Operazioni per Secondo), e sono stati da subito posti in diretta concorrenza con le agguerrite CPU Apple Silicon in versione M3, superate, secondo Microsoft, del 40% in prestazioni. Più un claim che una realtà al momento, visto che ad oggi nessun benchmark reale è stato divulgato da terze parti: ad oggi esiste solo una corposa presentazione, ricca di slide e con poche unità di misura a corredo: malignamente si potrebbe osservare che, almeno nel modus operandi, hanno sicuramente raggiunto gli avversari.

Qui il video della presentazione

Ciò che tuttavia è balzato agli occhi dei più attenti sono le nuove funzioni IA dedicate alla quality of life dell’utente, tra le quali spicca Recall. Questa si propone come una sorta di cronologia interattiva per l’utente, una raccolta dinamica di tutte le attività recenti recenti, con una profondità temporale dipendente dallo spazio di memoria che l’utente sceglie di dedicare a questa funzione. L’efficacia del sistema si basa dunque sulla raccolta dei dati relativi alle attività svolte dall’utente stesso: telemetria dei programmi utilizzati, elenco dei file aperti, cronologia dei siti web visitati. Ma non solo: per una maggior efficacia contestuale, è stato spiegato che il sistema registra uno screenshot (una istantanea dello schermo) ogni secondo, e la elabora attraverso i propri algoritmi di IA per fornire all’utente una maggiore efficacia contestuale.

Privacy a rischio

Inutile sottolineare che questo comportamento fa sorgere più di una perplessità in ambito privacy, sia sul piano tecnico sia sul piano legale. Le istantanee raccolte infatti conterebbero certamente dati riservati anche di un certo peso, considerando che sarebbero inclusi tutti quelli inseriti nelle pagine web. Sebbene il sistema sia impostato per filtrare i campi riservati (quelli normalmente oscurati appena dopo l’inserimento con pallini o asterischi), un sito web mal configurato potrebbe, ad esempio, accidentalmente e automaticamente dare in pasto al sistema gli estremi di un metodo di pagamento, ad insaputa dell’utente. Allo stesso modo è necessario considerare che qualsiasi dato riservato consultato finirebbe irrimediabilmente a far parte di tale raccolta, sollevando più di un dubbio non solo sull’opportunità di utilizzo tout court di tale sistema in ambito aziendale, ma anche sulle potenziali conseguenze relative a un dato riservato trattato con leggerezza da un dipendente sul proprio dispositivo personale.

Oltre a ciò, pur essendo chiara la modalità di raccolta e conservazione esclusivamente locale della cronologia di Recall, non si può escludere che questi dati, una volta aggregati o elaborati, vengano comunque comunicati a Microsoft o a terzi in qualche forma. Anche se così non fosse, costituirebbero in ogni caso una base di dati destinata ad attirare le attenzione di malintenzionati desiderosi di esfiltrare dati riservati, diventando bersaglio prediletto di virus e malware: un componente, dunque, che in virtù della sua stessa esistenza aumenterebbe di molto la superficie di attacco nei confronti dell’utente.

Le reazioni a caldo

Se da una parte è evidente che Microsoft non possa aver concepito un sistema di tale portata senza aver previsto misure di mitigazione per le criticità evidenziate, dall’altra al momento la comunicazione è stata sicuramente deficitaria, limitandosi fondamentalmente a indicare che il componente potrà essere disattivato. Oltre a ciò, vale la pena ricordare che i moderni assistenti digitali basati su IA si comportano come delle c.d. black box, ossia dato un preciso input (in questo caso i nostri dati) non è possibile spiegare (e dunque, in parte, controllare) i passaggi che sottendano alla produzione di un determinato output (suppostamente, i nostri dati “sanificati” dai dettagli riservati).

In ultima istanza, inoltre, si noti come in ogni caso una eccessiva sanificazione di quanto registrato andrebbe di fatto ad inficiare l’efficacia del sistema stesso, che sarebbe così privato degli elementi utili fondamentali per il proprio l’apprendimento.

È dunque evidente la grande fiducia che si debba riporre nel produttore prima di affidarsi ad un sistema così invasivo, che da molti con ironia è già stato criticato e classificato al pari di un keylogger (un programma malevolo che legge l’input da tastiera e lo trasmette a malintenzionati), ma ben più evoluto.

L’opinione di Malwarebytes, noto player nell’ambito della sicurezza

In ambito legale i primi a porsi alcuni dubbi sulla legittimità dello strumento sono le autorità del Regno Unito, che sono in procinto di avviare un’indagine formale prima che il prodotto sia disponibile sul mercato.

Sviluppi futuri

Il debutto è previsto infatti tra alcuni mesi, probabilmente con il rilascio dell’aggiornamento autunnale del sistema operativo Windows 11. Ci si augura che per allora Microsoft sia in grado di fornire precisi chiarimenti e rassicurazioni circa le modalità di funzionamento avanzate del proprio assistente IA, e in particolare per la funzionalità Recall. Il rischio, oltre a possibili censure da parte delle autorità garanti, è quello di generando timore nell’utenza pregiudicando all’origine il successo di uno strumento di produttività potenzialmente molto utile.

Il caso è emblematico di quanto gli assistenti dotati di IA possano essere molto utili ma potenzialmente anche molto pericolosi. Per tale motivo è importante, sia in ambito privato sia in ambito aziendale, conoscere i vantaggi e i rischi degli strumenti utilizzati al fine di stabilire un perimetro efficace e valutare non solo i benefici ma anche i costi in termini di sicurezza e rischi, oltre che economici. NetworkLex accompagna l’azienda nella valutazione dei sistemi di intelligenza artificiale attraverso consulenze ad hoc, grazie a professionisti certificati ISO 42001. Scopri di più