Dopo 50 anni di ingegneria del software, perché i sistemi informatici sono ancora insicuri? Non capisco.
Due domande: (i) Cosa c'è di così difficile nel negare o limitare l'accesso in rete ai cattivi attori che non hanno password? Non è che questi cattivi attori arrivino con i palanchini e la dinamite; hanno solo bit e byte, giusto? (ii) Una volta che un cattivo attore ha raggiunto l'accesso in rete, perché i kernel del sistema operativo non sono stati riprogettati per rendere l'escalation dei privilegi non fattibile?
Non sto cercando una risposta a lunghezza di libro ma solo per un concetto mancante. Se riesci a vedere il difetto nel mio modo di pensare e riesci a gettare un po 'di luce sul difetto, questa sarà una risposta sufficiente.
C'è qualche ragione specifica per cui i migliori studiosi non sono ancora stati in grado di risolvere il problema? C'è una valida ragione per cui abbiamo ancora, ad esempio, compilatori bootstrap e progetti di microprocessori non attendibili, nonostante i rischi di sicurezza noti da lungo tempo?
Esiste qualche osservazione centrale, rispondente alla lunghezza di StackExchange, che lega tutto questo insieme? Perché i sono sistemi informatici ancora insicuri?
Aggiornamento: i commentatori hanno aggiunto alcuni link interessanti, in particolare " Il trucco del compilatore di Ken Thompson è ancora una minaccia? "