Siamo nel business del trading automatizzato e il nostro team è composto da due gruppi più grandi, li chiamo produttori di dati e consumatori di dati.
Il compito principale dei produttori è quello di mantenere una catena di strumenti più piccoli che spingono alcuni dati in tempo reale attraverso un sistema di indicatori e che escano un ordine. Tutti i dati necessari o prodotti sono registrati nei file, un file per strumento per esecuzione.
I consumatori di dati d'altra parte, abituati a backtest e catturati nel loro mondo di backoffice, vogliono frammenti dei dati prodotti nelle diverse esecuzioni, ottimizzati per le loro esigenze, in particolare una grande quantità di dati post-elaborati al giorno .
Ora il problema che ha diviso il nostro team in due parti ben distinguibili è che i produttori di dati considerano la loro responsabilità fornire dati completi senza alcuna perdita di informazioni e vogliono che i consumatori scelgano qualunque cosa necessiti in un passaggio pre - elaborazione.
I consumatori d'altra parte vogliono vedere il trading dal vivo come una scatola nera, per loro non dovrebbe essere diverso dal backtest, il che significa che i produttori di dati nei loro occhi mancano di un post fondamentale fase di elaborazione senza la quale non possono iniziare il loro compito.
Ora chiaramente ci deve essere un po 'di colla tra le due squadre, la mia domanda è di chi è il compito? O ci sarà un terzo gruppo nel mezzo che fornisce la colla? Che cosa dice la teoria al riguardo (possiamo applicare il modello produttore / consumatore alla "vita reale")?
E solo per rendere il problema un problema reale: i produttori di dati considerano brutto riassumere i dati in blocchi di materiali di consumo, principalmente perché la parte dei consumatori continua a cambiare le loro esigenze. D'altro canto, i consumatori non sono abbastanza abili da eseguire il cherry-picking proposto.