Ho intenzione di utilizzare Scrapy per eseguire la scansione di un sito Web locale per molti dati e archiviarlo in un file. Quindi ho intenzione di analizzare quel file e inserire alcuni dati in un database SQL.
Il mio computer userà meno CPU e RAM per leggere e analizzare un grande file CSV o file JSON?
O forse avrebbe più senso memorizzare i dati in un mucchio di file CSV o JSON più piccoli?
In entrambi i casi, che è meno oneroso sulla mia macchina?