Un cliente vuole che controlliamo le macchine da lavoro per la pornografia. È possibile?

30

Un cliente di vecchia data ci ha chiesto di aiutare a schermare le macchine da lavoro per la pornografia. Sono preoccupati per la responsabilità se sono stati trovati materiali sensibili. Le loro preoccupazioni principali (per ovvi motivi) sono i file video, audio e di immagine. Se possibile, vorrebbero anche scansionare documenti basati su testo per contenuti inappropriati. Hanno una gerarchia di contenuti non lavorativi che iniziano con palesemente illegali (non devo elencare i dettagli), spostandoti verso ovviamente offensivi, e includendo anche cose che potrebbero essere offensive per alcuni - pensate che gli annunci di lingerie, le carte di battute che caratterizzano crepe di testa e qualsiasi cosa relativa a Howie Mandel.

Le mie domande sono:

  • Questo è etico? Penso che sia da quando ogni dipendente accetta legalmente che la propria macchina da lavoro appartiene alla società ed è soggetta alla ricerca. Le proiezioni non devono avvenire su macchine personali portate a lavoro.
  • È fattibile? Ho fatto un sacco di elaborazione / indicizzazione delle immagini, ma questo mi sembra un mondo completamente nuovo di complessità.
  • Qualche riferimento a tecniche di successo per la scoperta del porno?
  • È appropriato per me archiviare i risultati quando qualcosa viene scoperto?
posta Scant Roger 03.03.2011 - 06:46
fonte

17 risposte

125

Puoi farlo con il 90% Headology , il 10% del software.

In primo luogo, esegui la scansione silenziosa dei computer dei dipendenti, crea un database di file e dimensioni per ciascun dipendente.

Quindi lascia un promemoria che tutti i PC saranno scansionati per contenuti discutibili, ad esempio I capi hanno un Shazam programma simile che può identificare il porno ecc.

Poi un paio di giorni dopo, scansiona nuovamente i computer per file e dimensioni. Guarda tutti i file cancellati, sono filmati o file di immagini? Allora quelli sono gli impiegati che devi tenere d'occhio.

Esegui periodicamente la scansione di quei PC dei dipendenti per immagini e filmati e verificali manualmente per ottenere contenuti discutibili.

    
risposta data 08.07.2013 - 14:46
fonte
75

Questo è un chiaro compito di rete neurale. Per prima cosa hai bisogno di un ampio set di formazione di immagini selezionate da esperti nella tua azienda .....

Una soluzione più efficace è annunciare che controllerai tutti i computer porno per NEXT della settimana / mese / qualsiasi cosa, quindi scrivi una semplice app che semplicemente esercita il disco. Garantisco che le macchine saranno state pulite da allora.

ps - Un paio di punti "seri": in realtà non vuoi trovare qualcosa.

Se trovi un paio di immagini in una cache del browser, allora forse hanno colpito un link non valido o un popup non sicuro - ricorda l'insegnante licenziato su whitehouse.com? Se li licenzi / li disciplina per questo, ci sarà una reazione da parte dei lavoratori / sindacati. Come funzionerebbe la tua azienda se ogni clic dovesse essere sottoposto a un'approvazione legale prima che i tuoi dipendenti abbiano effettuato una ricerca o controllato un prezzo online?

Se trovi una pila di porno su una macchina, come hai intenzione di provare che è stata messa lì da quel dipendente? Avete il tipo di sistemi di sicurezza e di controllo che resisterebbero in tribunale? Usi (o addirittura conosci) un sistema operativo in cui un amministratore di sistema non può inserirli e farlo sembrare come i file dell'utente?

Inoltre, in base alla mia esperienza, le posizioni più comuni per le presentazioni pornografiche sono sui laptop di CxO e VP senior.

È molto meglio organizzare semplicemente che i file spariscano prima del tempo.

    
risposta data 03.03.2011 - 18:25
fonte
8

Questo approccio al controllo è certamente doloroso sia per i dipendenti che per i responsabili IT. Una volta che qualcosa entra nella macchina dei dipendenti, non esiste un modo sicuro per individuarlo. Devi smetterla di entrare nella macchina al primo posto.
La pratica più conosciuta per questo è ovviamente il controllo sui siti / domini che possono essere visitati. Tale elenco deve essere disponibile da qualche parte sulla rete. Oltre a questo puoi anche tenere traccia del numero di immagini, dei video che il dipendente ha scaricato e da dove è arrivato.
Ci sono possibilità che il materiale possa provenire da siti diversi dal web, ad esempio da un disco rigido esterno. Ci potrebbe essere una volta al mese una scansione casuale del sistema in cui è possibile selezionare casualmente alcuni video e immagini e controllarli manualmente. Non sei sicuro di come possa essere fatto. Ma l'automazione del controllo delle immagini e dei video è sicuramente fuori dal campo di applicazione e sicuramente sarà errata.
In realtà non mi piace l'idea di limitare i dipendenti a fare cose personali. Dovresti fidarti dei tuoi dipendenti per questo. I tuoi dipendenti dovrebbero essere abbastanza occupati in ufficio in modo da non avere tempo per questo. Più le preoccupazioni sono che il dipendente non lavori correttamente? O ha installato un software rotto o hackerato?

    
risposta data 03.03.2011 - 08:20
fonte
7

Ci sono numerosi prodotti sul mercato che eseguono il "filtro dei contenuti" di varie forme. (Una ricerca su Google in alcuni termini ovvi solleva alcuni ovvi candidati.) Probabilmente è un'idea migliore utilizzare uno di questi prodotti piuttosto che creare un sacco di software di scansione / filtraggio da zero. Un'altra opzione è solo guardare i confini; per esempio. monitorando le e-mail esterne e il traffico web. Ancora una volta ci sono prodotti che fanno questo genere di cose.

Anche se non c'è dubbio che sia etico per un'azienda scansionare i suoi computer per "cose cattive", questo non significa che non ci siano problemi.

Primo problema:

  • Determinare cosa è e cosa non è "contenuto discutibile" è soggettivo.
  • Il software per rilevare immagini, video contenenti (diciamo) "raffigurazioni del corpo nudo" è (AFAIK) probabilmente inaffidabile, con conseguente falsi positivi e falsi negativi.

Quindi ... questo significa che qualcuno nell'organizzazione del cliente deve rivedere gli "hit". Ciò costa denaro.

Secondo problema: può esserci una spiegazione innocente. Il file potrebbe essere stato scaricato per sbaglio o potrebbe essere stato piantato da un collaboratore vendicativo. Se c'è una spiegazione innocente, l'organizzazione del cliente deve stare attenta a quello che fanno / dicono. (OK, questo non è in realtà il tuo problema tuo , ma potresti fare il backwash.)

Terzo problema: nonostante il fatto che la società abbia il diritto di monitorare materiale discutibile, molti dipendenti lo ritengono disgustoso. E se sono troppo lontani, questo avrà un impatto sul morale dei dipendenti. Alcuni dipendenti "camminano". Altri possono prendere azioni di protesta ... ad es. cercando di creare molti falsi positivi. (Di nuovo, non proprio il tuo problema, ma ...)

Quarto problema: le persone possono nascondere materiale discutibile crittografandolo, trasferendolo su un supporto rimovibile o rimovibile, ecc. Le persone possono simulare i metadati per far sembrare che qualcun altro sia responsabile.

    
risposta data 03.03.2011 - 10:42
fonte
6

Informazioni sugli aspetti legali, in Francia:

Il capo possiede i computer e la connessione a Internet: può fare tutto ciò che gli piace.

MA, la privacy dei dipendenti non può essere violata. Se una directory sul computer è etichettata come PERSONAL, al boss non è permesso scansionarlo.

L'unico modo per aggirare questo è ottenere elementi di prova che i dipendenti memorizzino materiale illegale e chiedere a un tribunale di richiedere una scansione del computer (nota che la pornografia non è illegale in Francia.)

    
risposta data 03.03.2011 - 12:47
fonte
5

Se i dipendenti hanno concordato che la loro macchina da lavoro appartiene alla società ed è soggetta a ricerca, allora sì, questo è legale. Per prova, l'archiviazione dei file sarebbe molto probabilmente necessaria.

Per quanto riguarda come trovare effettivamente il materiale. Potresti:

  1. Prima di tutto, scansiona i nomi dei file per un determinato set di parole (porno, lesbiche, ecc.)
  2. Scansiona documenti di testo per lo stesso set di parole
  3. Per le immagini, potresti trovare il colore medio dell'immagine e se quel colore si trova all'interno di un intervallo che più si riferirebbe a "carne" colorato, quindi contrassegna l'immagine (qualcuno che controlla due volte queste immagini contrassegnate probabilmente necessario). Non vorrei segnalare qualcuno per un'immagine che finisce per essere una foto di famiglia dalla spiaggia.

Se esegui la scansione dei file mentre entrano nel computer (ad esempio, se il programma è caricato su ogni macchina di lavoro e registra i casi contrassegnati in un database centrale), allora non penso che sarebbe troppo invadente (a parte il sfacciata sfiducia che il datore di lavoro ha chiaramente per i propri dipendenti).

Con i file video, non sono sicuro al 100%. Forse un approccio simile a quello della scansione dell'immagine (scegli fotogrammi casuali e scansiona per un certo livello di colore "carne").

La scansione dei file audio sembra come se si trattasse del riconoscimento vocale, che è un intero "nother" di worm. La scansione del nome del file, tuttavia, sarebbe facile e potrebbe essere eseguita come con documenti, immagini e video.

    
risposta data 03.03.2011 - 07:07
fonte
4

Come ha detto @Ryan, l'analisi delle immagini può concentrarsi sull'analisi del colore.

di fattibilità? Mia sorella lavora in un'area del governo dove riceve qualche forma di controllo ogni anno, e una volta era per il porno. Lei (geofisica) aveva diversi falsi positivi (rocce rosa).

    
risposta data 03.03.2011 - 23:28
fonte
4

Esiste una ricerca significativa e recente sul rilevamento della pornografia mediante metodi di classificazione convenzionali. Esempi sono disponibili qui e qui

.     
risposta data 30.06.2011 - 23:31
fonte
3
  • Is this ethical?

Dipende dall'implementazione e dalle ragionevoli aspettative dei dipendenti. Ad esempio, se il tuo software esegue la scansione di qualsiasi macchina collegata alla rete , c'è un ulteriore requisito che infra deve impedire il collegamento di macchine non autorizzate. (Forse dovrebbe essere ovvio, ma è spesso trascurato sulle reti Ho visto.)

  • Is it feasible? I've done a lot of image processing/indexing but this seems like a whole new world of complexity.

È possibile sottoporre a test antidoping ogni dipendente? Forse sì, ma ne dubito. Lo randomizzerei. Fai sapere ai dipendenti che le loro macchine possono essere scansionate per contenuti inappropriati in qualsiasi momento.

  • Any references to successful techniques for discovering porn?

Non sto toccando questo. Non penso di poter tenere sotto controllo il mio senso dell'umorismo. Ma attenzione per Il problema di Scunthorpe durante la ricerca di testo.

  • Is it appropriate for me to archive the results when something is discovered?

Questo mi interessa di più, e vorrei chiedere ad un avvocato. Sospetto che se trovi contenuti illegali potresti tecnicamente essere legalmente obbligato a rivelarli. Questo è male, soprattutto se l'utente è stato esposto da nessun vero difetto. Tu (cliente) avrai bisogno di una vera consulenza legale su come gestirlo. Ricevi le risorse umane e gli avvocati coinvolti.

    
risposta data 03.03.2011 - 18:41
fonte
2

Da un punto di vista puramente tecnico: sembra un problema di riconoscimento di una categoria di oggetti. Non ho mai fatto nulla del genere, ma da quello che ho letto, i sistemi di riconoscimento di categoria all'avanguardia funzionano così:

  • In primo luogo si cerca un numero elevato di punti di interesse (ad esempio utilizzando un Harris Corner Detector, punti estremali di filtri LoG / DoG nello spazio della scala, alcuni autori suggeriscono addirittura di selezionare punti casuali)
  • Quindi applichi una funzione di trasformazione a ciascun punto (qualcosa come SIFT, SURF, GLOH o molti altri)
  • Unisci tutte le funzionalità che hai trovato in un istogramma (Bag-Of-Features)
  • Utilizza algoritmi di apprendimento automatico standard (come le macchine di supporto del vettore) per imparare la distinzione tra le categorie di oggetti utilizzando un gran numero di immagini di addestramento.
risposta data 03.03.2011 - 09:04
fonte
2

Probabilmente il sistema operativo del computer di tutti è stato installato da un'immagine del disco.

  1. inizia con l'immagine del disco e ottieni un elenco di file che probabilmente non hai bisogno di scansionare.
  2. ottieni un elenco di tutti gli altri file su ciascun PC.
  3. estrae i file effettivi da 10-20 macchine casuali e li usa come banco di prova
  4. cerca gli elementi in una parola volgare e discutibile (hotties, jugs, dizionario "barely legal", joke, ecc.)
  5. Visualizza il video - qualcuno dovrebbe avere video?
  6. Guarda le foto
  7. Qualsiasi file video o di immagine che sia discutibile può essere utilizzato per cercare nelle altre macchine

Ci vorranno uno o due dipendenti per farsi prendere prima che qualcuno metta qualcosa sul proprio computer di lavoro.

Carica una quantità oscena di denaro per questo servizio. Sarò Zappos non lo farei mai ai loro dipendenti.

    
risposta data 03.03.2011 - 11:03
fonte
2

Supponendo che tu sia un amministratore di dominio sulla rete.

  1. C $ in ogni computer desktop degli utenti.
  2. Copia i file porno in una condivisione privata personale.
  3. Elimina dalla posizione originale.
  4. Crea popcorn.
  5. Analisi dettagliata completa di tutte le "prove".
risposta data 03.03.2011 - 22:32
fonte
1

Volevo solo commentare, ma ho solo 1 rappresentante, quindi non posso.

Nel caso di Gravatar, è possibile aggiungere una funzione per filtrare da un elenco di siti puliti nelle posizioni della cache Internet. OSSIA Gravatar e altri siti da cui non vuoi ricevere falsi positivi. Puoi anche filtrare cose come lo sfondo del desktop. Se visualizzano porno sul desktop, penseresti che le persone lo noterebbero al di fuori del tuo controllo.

    
risposta data 03.03.2011 - 08:16
fonte
1

Queste cose non funzionano mai in modo affidabile. È possibile utilizzare un blocklist per bloccare i domini sul nome o sull'essere inclusi in alcuni elenchi (una pratica comune). Ma questi elenchi non sono mai completi e bloccare il nome in base a criteri può portare a molti falsi positivi.

È possibile bloccare parole che appaiono nel testo dei siti, ma anche in questo caso si possono avere falsi positivi (e diventa molto lento in quanto è necessario analizzare ogni singolo bit di dati che passa attraverso la rete per rilevare "bit" cattivi ").

puoi bloccare le immagini (e forse i siti che le contengono) che mostrano più di una certa percentuale di skintones. Ma di nuovo porta a molti falsi positivi. Un dipartimento medico universitario che blocca un'enciclopedia medica con immagini di arti e torsi che mostrano ferite e condizioni della pelle è un esempio ben noto di ciò. E naturalmente sarebbe razzista perché bloccherebbe solo alcuni skintones. Se blocchi i colori che corrispondono alla pelle caucasica, c'è sempre del porno che usa attori neri, per esempio.

Meglio affidati solo ai tuoi dipendenti e disponi di politiche in vigore in caso di violazione del trust.

    
risposta data 03.03.2011 - 09:21
fonte
1

Non lo so, ci deve essere una risposta centrale, che non è così invasiva, ma risolve il vero problema, RESPONSABILITÀ.

Chiedi loro di firmare una rinuncia, che libera la compagnia da qualsiasi responsabilità per materiale illegale trovato sul pc di lavoro, che non è correlato al lavoro.

    
risposta data 03.03.2011 - 15:32
fonte
1
  1. informa l'utente che un URL è considerato adulto - lo fa il proxy bluecoat .
  2. Licenza che Google fa nella ricerca di immagini link http://www.google.com/search?q=google+image+recognition+api
  3. esegue la scansione del computer per gli elementi non inclusi in un elenco pre-concordato.
risposta data 03.03.2011 - 16:44
fonte
1

Analisi di immagini e contenuti per determinare le differenze tra una fotografia di buon gusto di una persona, una fotografia di costume da bagno, una fotografia di nudo, raffigurazioni di pornografia ... per quanto ne so non è affatto sofisticata da fare nel solo software.

Fortunatamente il crowdsourcing dovrebbe essere utile qui, come suggerito da @ammoQ in un commento. Tuttavia, non credo che i membri di 4chan o di qualsiasi altro forum apprezzerebbero il vasto numero di immagini non -pornografiche, come la grafica web generica per pulsanti, cornici, pubblicità, ecc. p>

La mia raccomandazione sarebbe di esaminare le soluzioni di crowdsourcing esistenti, come Amazon Mechanical Turk . (Tuttavia, i termini del servizio potrebbero proibire esplicitamente il coinvolgimento di contenuti pornografici, quindi ti consigliamo di trovare un'altra soluzione o di eseguire il rollover.)

Per rendere fattibile il crowdsourcing, il tuo software dovrebbe essere pronto a svolgere alcune o tutte le seguenti operazioni:

  • Memorizza le informazioni che collegano il contenuto al computer da cui proviene
  • Identifica i duplicati esatti in tutto l'inventario e rimuovili (ma le informazioni sull'origine vengono conservate)
  • Riduci le immagini ad alcune dimensioni, forse 320x200, che sono sufficienti per identificare il contenuto dell'immagine senza conservare dettagli inutili e sprecare spazio di archiviazione / larghezza di banda
  • Crea immagini fisse di contenuti video a intervalli regolari e applica la stessa regola di downsampling

Infine, il database delle immagini ridotte che rappresentano l'immagine originale e il contenuto video viene controllato dagli utenti (o da un team designato se si dispone delle risorse) in base al codice di condotta della propria azienda. Il programma o l'interfaccia potrebbe mostrare una singola immagine alla volta o una schermata di miniature, qualunque cosa tu ritenga migliore per ottenere informazioni accurate.

L'identità del computer da cui provengono le immagini deve essere assolutamente segreta e sconosciuta alle persone che valutano i dati. Inoltre dovrebbe essere randomizzato e ogni immagine probabilmente viene controllata più volte per rimuovere i bias.

La stessa tecnica potrebbe essere utilizzata per il testo, ma prima il contenuto potrebbe essere valutato con classifiche di parole chiave che rimuovono la maggior parte del testo dalla recensione di crowdsourcing. Naturalmente la classificazione di un documento lungo richiede più tempo rispetto alla classificazione di un'immagine.

    
risposta data 03.03.2011 - 16:53
fonte

Leggi altre domande sui tag