È chiaro che l'efficacia di una rete neurale dipende strongmente dal formato con cui si lavora. Vuoi pre-elaborarlo nella forma più conveniente a cui puoi arrivare in modo algoritmico, in modo che la rete neurale non debba tener conto di quella stessa.
Sto lavorando a un piccolo progetto che utilizzerà reti neurali. Il mio obiettivo futuro è quello di utilizzare finalmente NEAT
, cosa di cui sono davvero entusiasta. Ad ogni modo, una delle mie idee riguarda lo spostamento di entità in uno spazio 2D continuo, da una prospettiva dall'alto verso il basso (questa sarebbe una IA molto interessante). Ovviamente, a meno che questi ragazzi non siano ciechi, saranno in grado di vedere il mondo che li circonda.
Ci sono molti modi diversi in cui questa informazione può essere inserita nella rete. Un modo interessante, ma costoso, è semplicemente rendere una "vista" top-down delle cose, con le entità come punti sull'immagine e alimentarle. Speravo in qualcosa di molto più semplice da usare (almeno all'inizio), ad esempio come una lista delle entità più vicine x (forse 7 o più) e la loro posizione in coordinate polari, orientamento, salute, ecc., ma sto cercando di pensare al modo migliore per farlo.
Il mio primo istinto era di ordinarli per distanza, il che avrebbe intrinsecamente anche addestrato la rete neurale a considerare quelli più "importanti". Tuttavia, stavo pensando: e se ci fossero due entità che sono quasi alla stessa distanza? Potrebbero facilmente alternare gli indici in quella lista, confondendo la rete.
La mia domanda è, c'è un modo migliore per rappresentarlo? Essenzialmente, il problema è che la rete ha bisogno di un buon modo per tenere traccia di chi è chi, pur conoscendo (attraverso l'input) informazioni rilevanti sull'elenco delle entità che può vedere.
Grazie!