Esistono più fornitori di prodotti che sostengono che i loro prodotti eseguono ciò che hanno chiamato tokenizzazione senza licenza o tokenizzazione reversibile, senza memorizzare il token e i dati associati con token. Tuttavia, dicono anche che la tokenizzazione non è la stessa cosa della crittografia e che hanno un algoritmo proprietario che tokenizza e desintegra i dati di input.
La mia domanda è - non è davvero solo una fantasia crittografia (e se mantiene la forma dei dati di origine, forse anche meno sicura della tipica crittografia)?
Ho pensato che l'idea originale alla base della tokenizzazione consistesse nel generare un set di dati pseudo-casuali, assegnare i dati pseudo-casuali ai dati di input e archiviare il mapping tra i due in un blindato blindato. Se si memorizzano i token nei sistemi meno sicuri e i dati vengono rubati, per un utente malintenzionato sarà praticamente impossibile deconoscere i dati, a meno che non dispongano anche di una copia del mapping nel vault.
Se il token è derivato dai dati di origine, ciò non rende molto più facile attaccare (supponendo che la mappatura non venga rubata anche dall'attaccante), dal momento che è in realtà solo una versione crittografata dei dati di origine?