XOR non è risolvibile utilizzando un singolo perceptron con prodotto scalare standard e funzione step unitario.
Questo articolo suggerisce l'utilizzo di 3 percetron per creare una rete: link
Sto provando a eseguire la rete 3-perceptron in questo modo ma non produce risultati corretti per XOR:
//pseudocode
class perceptron {
constructor(training_data) {
this.training_data = training_data
}
train() {
iterate multiple times over training data
to train weights
}
unit_step(value) {
if (value<0) return 0
else return 1
}
compute(input) {
weights = this.train()
sum = scalar_product(input,weights)
return unit_step(sum)
}
}
Il perceptron di cui sopra può risolvere correttamente le operazioni di bit NOT, AND, OR. Ecco come uso 3 percettori per risolvere XOR:
AND_perceptron = perceptron([
{Input:[0,0],Output:0},
{Input:[0,1],Output:0},
{Input:[1,0],Output:0},
{Input:[1,1],Output:1}
])
OR_perceptron = perceptron([
{Input:[0,0],Output:0},
{Input:[0,1],Output:1},
{Input:[1,0],Output:1},
{Input:[1,1],Output:1}
])
XOR_perceptron = perceptron([
{Input:[0,0],Output:0},
{Input:[0,1],Output:1},
{Input:[1,0],Output:1},
{Input:[1,1],Output:0}
])
test_x1 = 0
test_x2 = 1
//first layer of perceptrons
and_result = AND_perceptron.compute(test_x1,test_x2)
or_result = OR_perceptron.compute(test_x1,test_x2)
//second layer
final_result = XOR_perceptron.compute(and_result,or_result)
Il final_result di cui sopra non è coerente, a volte 0, a volte 1. Sembra che eseguo i 2 livelli in modo errato. Come eseguire questi 3 percettori in 2 livelli nel modo corretto?