Applicazioni realistiche di privacy differenziale?

3

Differentially private techniques guarantee privacy while often permitting accurate answers

... questo è qualcosa che ho letto ultimamente come mezzo per preservare la privacy degli utenti / l'anonimato. A tutt'oggi, tuttavia, non ho trovato alcun esempio di applicazione in un contesto reale. Invece, lo vedo nei documenti accademici e discusso matematicamente.

Qualcuno è a conoscenza di come esattamente questo sarebbe applicato ai dati del mondo reale o, in effetti, conosce qualche esempio? Sto trovando molto difficile passare da una lettura a questa, a come potrei effettivamente applicarla. Se nessun altro lo sta applicando, dubito che abbia le capacità per essere il primo e quindi non voglio sprecare il mio tempo a fustigare un cavallo morto.

    
posta Philip O'Brien 01.09.2014 - 16:24
fonte

3 risposte

3

Ecco un articolo di Scientific American alla fine del 2012 che menziona un esempio del mondo reale - "OnTheMap" e fa riferimento alla ricerca in altri:

link

"Un'applicazione del mondo reale utilizza già la privacy differenziale: un progetto del Census Bureau chiamato OnTheMap , che consente ai ricercatori di accedere ai dati dell'agenzia. Inoltre, i ricercatori sulla privacy differenziale hanno messo in campo le indagini preliminari da Facebook e centro iDASH finanziato presso l'Università della California, a San Diego, il cui mandato in gran parte è quello di trovare modi per i ricercatori di condividere dati biomedici senza compromettere la privacy. "

    
risposta data 01.09.2014 - 16:33
fonte
3

Meccanismi differenzialmente privati sono stati implementati nei prototipi. Questi prototipi solitamente richiedono un set di record (ad esempio una tabella di database) e una query, quindi restituiscono il risultato della query sulla tabella con una piccola quantità di rumore aggiunto per garantire la privacy differenziale. Pur dimostrando che un meccanismo è differenzialmente privato è matematicamente impegnativo, i meccanismi di implementazione sono in genere semplici e comportano semplicemente l'aggiunta di rumore al risultato della query da parte di una distribuzione ben definita.

Il progetto PINQ di Microsoft Research consente di definire query in una sintassi simile a LINQ e le eseguirà e proteggerà i risultati utilizzando un meccanismo diferenzialmente privato. Il tutorial è qui: link

Il sistema Airavat utilizza il meccanismo Differenziale di esempio e aggregato per proteggere i risultati delle query di riduzione della mappa utilizzando la privacy differenziale. Il codice del prototipo può essere trovato nella parte inferiore della pagina del progetto: link

Un altro paio di sistemi (con codice disponibile) includono Fuzz (UPenn) e GUPT (Berkeley).

    
risposta data 24.09.2014 - 01:06
fonte
0

Il più grande dispiegamento di privacy differenziale, ad oggi (che qualcuno sta parlando pubblicamente), è il progetto RAPPOR di Google, che viene utilizzato per segnalare le statistiche di utilizzo per Google Chrome.

Puoi leggerlo qui: link

    
risposta data 07.01.2016 - 20:32
fonte

Leggi altre domande sui tag