testata ADUC
I tuoi dati saranno manipolati
Scarica e stampa il PDF
Articolo di Redazione
15 ottobre 2017 16:49
 
 In occasione della conferenza Strata Data che si e’ tenuta a fine settembre a New York, la ricercatrice Danah Boyd, autrice di “E’ complicato” ha, come sempre, fatta una presentazione rimarchevole sulla fragilita’ dei dati, nell’ambito di una loro massiccia analisi.
La manipolazione dei media e’ sempre esistita e il digitale l’ha certamente favorita rendendo porosa la frontiera tra propaganda e marketing, ci ricorda puntando il dito sul rapporto pubblicato da Data&Sociey a maggio del 2017, l’istituto di ricerche di cui lei e’ fondatrice e presidente. Ma il gioco non e’ quello di spiegarci cio’ che e’ gia’ accaduto ma cio’ che accade oggi, e di guardare a cio’ che si presume dovra’ accadere. Nell’epoca di Big data e dell’intelligenza artificiale, se noi pensiamo che i dati debbano e possano essere utilizzati per informare le persone e contribuire alla tecnologia, dovremmo cominciare a costruire le infrastrutture per limitare la corruzione, gli angoli oscuri e l’abuso dei dati. Dobbiamo riconsiderare la sicurezza in un mondo di dati.
I motori di ricerca e i social network sono diventati i canali preferiti della manipolazione. Un piccolo gioco al quale tutto il mondo ormai partecipa. Dopo i primi Google Bombing, le persone hanno appreso dalla pratica a far diventare virali i contenuti e ad aggirare i sistemi. Hanno sviluppato delle pratiche strategiche di manipolazione dell’attenzione che hanno potuto avere conseguenze gravi sull’immagine del pizzagate, che e’ stato prodotto da una larga rete di persone che si prendeva gioco dell’ecosistema dell’informazione ed ha creato degli “effetti boomerang” dove la contestazione e la verifica servono prima di tutto dei canali di amplificazione della manipolazione. I manipolatori cercano di aprire la finestra di Overton, cioe’ la gamma di idee accettabili dall’opinione pubblica.
Rimane il fatto, constata la ricercatrice, che fino ad oggi, gli attacchi ai sistemi algoritmici, quando sono stati a livello massiccio, sono rimasti molo “manuali”. Ora e’ questo che rischia di cambiare.
Formare un sistema di apprendimento necessita’ di molti dati. Il problema, oltre questo bisogno insaziabile e massiccio, e’ che tutti i dati sono di parte, spiega la ricercatrice portando ad esempio uno studio che ha osservato i particolari di ImageNet, una base di dati di immagini, che mostra per esempio che i sistemi di raccolta automatizzati replicano i particolari degli umani, classificando piu’ facilmente gli oggetti secondo le loro forme che non secondo i loro colori. Latanya Sweeney ha mostrato che la pubblicita’ proposta da Google cambiava secondo i connotati etnici dei nomi degli utenti, sottolineando che per questo il motore ha tendenza ad amplificare il razzismo per opera degli Stati Uniti. Per Danah Boyd, indirizzare i problemi dei particolari culturali impliciti ed espliciti dei dati, costituisce un enorme sfida per coloro che cercano di costruire dei sistemi.
Per la ricercatrice, il problema e’ che questi particolari rischiano di essere amplificati dall’uso di dati formativi provenienti un po’ dovunque sul web Gli informatici utilizzano i dati di Twitter o i Reddit per costruire dei modelli che comprendano il linguaggio naturale per esempio, identificare dei atti sociali rilevanti, costruire dei modelli per identificare la depressione o l’impegno, senza una selezione visto che questi dati non sono rappresentativi, pensando che possano essere puliti per rimuovere ogni contenuto problematico. E questo per l’appunto non accade. Noi siamo preparati male nei confronti di coloro che vogliono prendersi gioco di noi. Non e’ una questione di incidente o di specifica culturale, sottolinea Danah Boyd, il fatto che ci sono sempre delle persone pronte a giocare con il contenuto in modo strategico -cosi’ come e’ accaduto sulla vicenda della pubblicita’ antisemita di Facebook rilevata di recente da Propublica.
Danah Boyd porta un altro esempio: quello dell’esperienza di Nicolas Papernot. Per comprendere la vulnerabilita’ degli algoritmi del riconoscimento dell’immagine, Papernot e i suoi colleghi hanno cercato di alterare delle immagini di cartelli segnaletici per trasformare degli stop in via libera, senza che il cambiamento fosse percettibile agli umani. Quello che spiegano i ricercatori, e’ come queste manipolazioni che portano ad alterare una serie di dati possano essere semplici. “Pensate a cio’ che significa per delle vetture senza autista”, dice la ricercatrice. Al momento questi attacchi sono amichevoli e sono fatti dai ricercatori… Ma questo non durera’, dice. Ed invita le anziende a prendere seriamente in considerazione la questione.
Ci sono -ci dice- numerose imprese che, malgrado le innumerevoli perdite e fughe di dati a ripetizione, continuano a non prendere sul serio la vulnerabilita’ dei loro dati. Le imprese devono rifletterci e costruire degli “anticorpi tecnici”. “Dovete pensare come se i vostri dati possano essere alterati, da chi e a quale scopo”. L’industria della tecnologia ha perso la cultura del test a vantaggio della cultura del beta perpetuo e della co-individuazione della qualita’ con gli utenti. Ma si e’ dimenticata che la cultura del test non si limita alla ricerca del bug. Essa ha anche la funzione di integrare degli effetti contrari nel processo di concepimento e di sviluppo. Ormai, sono i giornalisti che umiliano gli sviuppatori mostrando loro i “buchi” dei loro sistemi. E non sono i soli. Anche i ricercatori ci si mettono, tentando di costruire dei sistemi di apprendimento per rilevare i buchi dei sistemi. E Danah Boyd ricorda i ricecatori nell’ambito delle reti degli avversari generativi (generative adversarial networks). Il metodo, riassume la ricercatrice, e’ di far generare dei contenuti da due algortimi, in modo che uno valuti cio’ che fa l’altro. Uno tenta di abbindolare il secondo perche’ accetti delle “cattive” informazioni allo scopo di trovare dei limiti ai modelli sviluppati.
Per la ricercatrice e’ il momento di reintegrare dell’antagonismo nella costruzione dei modelli. “Dobbiamo integrare attivamente ed intenzionalmente una cultura della valutazione, della verifica e dell’apprendimento, fondata sul confronto”.Dobbiamo imparare ad apprendere e valutare gli errori e costruire degli strumenti per seguire l’evoluzione dei sistemi con altrettanti sforzi di quelli utilizzati per costruire dei modelli. L’artista e ricercatore Matthew Goerzen va ancora piu’ lontano: per lui bisogna invitare i trolls ad immischiarsi nei sistemi per comprendere la vulnerabilita’ di questi ultimi.
E Danah Boyd conclude: “L’industria della tecnologia non puo’ essere solo un terreno di gioco passionale di un gruppo di geeks che tentano di fare della merda fresca per il resto del mondo. Ormai essa e’ il fondamento delle nostre democrazie, delle nostre economie, dei nostri paesaggi informativi” Il mondo ideale che si cerca di costruire non vive in modo autarchico. E’ piu’ che mai necessario impedire che altri lo vogliano manipolare e seminare il caos, e prendere questo fatto sul serio.

(articolo di Hubert Guillaud, pubblicato sul quotidiano le Monde del 15/10/2017)
 
 
 
ADUC - Associazione per i Diritti degli Utenti e Consumatori