Scenario:
Sto lavorando a un progetto che deve accettare grandi quantità di dati (dati dei clienti) dai suoi utenti. Quindi può essere normale che un utente tenti di aggiungere 10.000 o 100.000 record alla volta. In alcune altre forme è normale aggiungere 2 o 3 record alla volta. In alcuni altri da 50 a 100.
Problema:
Come possiamo impedire che i moduli del nostro sito Web vengano creati da robot (o umani) che cercano di aggiungere enormi dati per riempire le mie risorse di database con dati errati o inutili.
Possibili soluzioni che ho escluso:
Limitare la quantità di dati al momento non è un'opzione, come accennato. L'utilizzo di CAPTCHA per ogni modulo richiede un'intensità molto manuale, poiché potrebbero esserci 10000 moduli
La domanda :
Quindi quali opzioni devo impedire ai robot / strumenti automatici di accedere al sistema?