Sto facendo alcuni studi e ricerche sulla programmazione di "big data", e sono particolarmente interessato a QuantCast (QFS) perché è scritto nel mio linguaggio di programmazione preferito, C ++.
Considerando come questo possa avere un ruolo nella soluzione di certi problemi dei "big data", so che questo può gestire l'implementazione dei file system peta-byte. Mi piacerebbe sapere comunque quanto sia scalabile per i sistemi big-data che non sono così grandi.
Ho visto molti confronti tra QFS e Hadoop, e come QFS può sovraperformare Hadoop e quindi chiunque usi Hadoop può prendere in considerazione l'uso di Quantcast (se vogliono solo prestazioni mega).
Essenzialmente è scalabile per progetti di dimensioni medio-grandi? (Qualcuno ha chiesto lo stesso su BDD ma non su Quantcast)
(Ho anche visto Hadoop e quindi Quantcast chiamato "database". Lo chiamerei un filesystem, in cima al quale potresti creare un database ma non chiamarlo database stesso.