Contesto
Le reti neuronali a due strati e lo svms fanno una classificazione lineare = dividono buoni vettori in vettori cattivi mettendo tra loro una linea o uno strato piatto che ha una dimensione inferiore allo spazio vettoriale. (linea nello spazio 2d, punto sulla linea).
Quando hai reti neuronali a tre strati, puoi classificare lo XOR (in a, b out a xor b).
Quindi puoi classificare xor concatenando due classificatori lineari.
Dal mio punto di vista puoi farlo perché puoi addestrare reti concatenate.
Hunch:
Poiché di solito non si addestrano SVM concatenati, è necessario fornire i primi classificatori che eseguono lo stesso lavoro delle prime reti neuronali.
Esempio:
In caso di xor in cui si hanno i vettori di input (a, b) per una rete a tre strati,
non si passerebbe il kernel (a, b) allo svm perché lo spazio non è linearmente separabile. passeresti (a, b, non a, non b), il che significa che espandi il kernel.
In questo modo l'SVM è "identico" alla rete neuronale.