Perché la normalizzazione migliora la precisione numerica?

7

Stavo leggendo il seguente articolo:

Interpolazione polinomiale del satellite GPS coordinate , Milan Horemuz e Johan Vium Andersson 2006

e afferma quanto segue:

"La procedura di stima dei coefficienti ai è fatta con la funzione di Matlab polyfit, che stima il coefficienti in un senso di minimi quadrati. Per migliorare il precisione numerica, il set di dati p è normalizzato di centrandolo a zero; sottraendo il suo valore medio p; e ridimensionandolo a una deviazione standard unitaria dividendo ogni osservazione con la deviazione standard σp come segue ... "

La mia domanda è: in che modo la normalizzazione del valore migliora la precisione numerica delle operazioni di calcolo?

    
posta RandomGuy 23.09.2013 - 16:50
fonte

1 risposta

15

Immagina per un momento che la quantità che ti interessa abbia un valore compreso tra 42.0 e 42.999.

Immagina inoltre di volere più precisione possibile.

Allo stato attuale, stai spendendo una porzione dei tuoi bit disponibili che rappresentano il valore 42, e questo lascia meno bit disponibili per rappresentare lo 0,000 - 0,999, che in qualche modo è ciò che ti interessa veramente.

Sottraendo la costante 42, puoi ora spendere tutti i tuoi bit che rappresentano il delta 0.000 - 0.999, a cui sei veramente interessato.

Ora, supponiamo che in realtà non si sappia che i valori sono tutti centrati attorno al 42,5, ma si sa che sono tutti centrati attorno a SOME valore medio. Puoi calcolare quella media, sottrarla e usare tutti i tuoi bit per rappresentare il delta dalla media.

Questo è il concetto alla base della normalizzazione di una media. Spendi i tuoi bit che rappresentano la quantità a cui sei interessato, che è il delta dalla media, e non sprechi bit che rappresentano il significato stesso.

    
risposta data 23.09.2013 - 17:30
fonte

Leggi altre domande sui tag