Ho costruito una rete neurale e ho progettato di ottimizzare i pesi usando un algoritmo genetico. Sono stato informato , tuttavia, che questa non è una buona idea e di guardare all'indietro.
Ho cercato in giro e ho trovato una panoramica molto superficiale dell'algoritmo (che concettualmente non è così difficile), o guide molto approfondite della matematica. Tutta la matematica che ho visto sembra essere il calcolo (anche se non saprei, dato che non conosco ancora il calcolo), quindi è difficile per me vedere cosa sta succedendo.
Ho cercato l'idea Artificial Intelligence: A Modern Approach , ma come per tutto il resto del libro, la matematica sembra arcana.
Capisco che il processo sia fondamentalmente:
- Propaga l'input verso l'output.
- Una volta raggiunto l'output, confronta il risultato con quello che ti aspettavi.
- Viene calcolato l'errore (atteso - effettivo).
- A partire dall'output, l'errore viene propagato di nuovo attraverso la rete ei pesi vengono adeguati di conseguenza.
Il mio problema è il punto 4
. Come si può sapere l'effetto di un nodo nascosto sull'output?
Qualcuno può spiegare il backpropagation di una rete neurale, con la matematica che può essere compresa a livello di sotto-calcolo?