Da quanto ho letto, gli algoritmi genetici sono di solito (sempre?) applicati ai cromosomi dei bit. Quindi se un problema comporta il massimizzare una funzione che prende valori interi, i numeri interi vengono prima codificati come bit.
Questa mappatura è necessaria? Sembra che tu possa prendere i cromosomi degli interi e applicare direttamente il crossover e la mutazione. Quindi, se ho una funzione che richiede 35 ingressi interi, posso semplicemente applicare gli operatori genetici a questi numeri interi, anziché sui bit 35xB (dove B è il numero di bit necessari per codificare un intero). C'è un motivo per non farlo?
Forse l'algoritmo ne risentirebbe perché il problema è definito in modo più rozzo (cioè un problema può essere definito con cromosomi più brevi se non stiamo usando bit), ma sono curioso di sapere se qualcuno ha una risposta migliore.