Che cos'è "Intentionally misting Intelligence Artificiale per creare un risultato fuorviante"?

2

Sto scrivendo di un sistema informatico che si basa sull'intelligenza artificiale e sulle minacce che questo può includere. Un vettore di minaccia (per esempio) consiste nel seminare l'IA bayesiana con contenuti per distorcerne l'esito.

Domanda

Supponendo che l'intelligenza artificiale non sia in grado di distinguere tra un fatto e una finzione, qual è il termine usato per forzare intenzionalmente il sistema in modo da ottenere un risultato desiderato?

  • " Hacking " è troppo ampio

  • " phishing " riguarda gli utenti fuorvianti di rivelare informazioni.

  • Gli "umani di Fox-Newsing" sembrano essere l'analogia più appropriata, ma ho bisogno di un termine che esiste già ... o posso inventarne uno, dato che definisco il termine all'inizio del carta.

La mia bozza sta usando il termine "Foxing A.I." per ora

    
posta random65537 07.10.2015 - 16:24
fonte

1 risposta

1

Questa domanda potrebbe essere più adatta per English.SE .

Disinformation è definito come l'atto di disinformazione di qualcuno dando loro informazioni volutamente errate, spesso allo scopo di cambiare le azioni o il comportamento del bersaglio. Questo non è specifico per l'uomo, e la disinformazione sarebbe applicabile a un'intelligenza artificiale che si fida implicitamente dell'input e agirà su di essa. Questo ha una connotazione nefasta.

Un esempio potrebbe essere quello di dire ad un calcolatore tattico di un consulente militare che gli avversari del proprio paese hanno appena accumulato una grande quantità di armi di distruzione di massa. Nonostante sia programmato bene, la macchina può concludere che la migliore linea d'azione è un massiccio attacco preventivo.

Garbage In, Garbage Out o GIGO , è un termine in analitica e logica, molto spesso applicata ai programmi per computer, il che significa essenzialmente che la conclusione fatta da un algoritmo non è corretta se le premesse sono viziate. Questo termine deriva da concetti di pianificazione: First In, First Out (FIFO) e Last In, First Out (LIFO). Frasato in un altro modo, non importa quanto sia sofisticato un computer, l'output del computer è preciso solo quanto le informazioni fornite.

Un esempio potrebbe essere quello di fornire un supercomputer advisor politico utilitaristico con valori di utilità non corretti, che porta a calcolo positivo fornendo un risposta errata o addirittura orribile, nonostante la macchina tenti di migliorare la qualità della vita umana. Se dici a un computer del genere che le persone provano un strong senso di brivido per essere derubate, potrebbe benissimo suggerire di ridurre il budget per combattere il crimine.

    
risposta data 21.12.2017 - 10:01
fonte