Realizzazione di un supercomputer virtuale con calcolo P2P distribuito

4

Avevo questa idea una sola volta e mi chiedevo se ci fosse qualche possibilità di sfruttare la potenza del calcolo distribuito p2p per creare un supercomputer virtuale con le seguenti caratteristiche:

  • Funziona come una macchina normale ma utilizza RAM in rete
  • Le normali applicazioni dovrebbero essere in grado di lavorare su un ambiente distribuito che divide il carico tra pari

Forse non realistico, solo curioso e vuoi conoscere le tue opinioni ..

EDIT: alcuni link interessanti che ho trovato durante le ricerche ...

posta Sara 25.04.2011 - 18:21
fonte

3 risposte

3

Buona domanda! È bello vedere qualcuno che valuta tali punti. Filosofare sull'uso e sull'utilizzo del computer è importante. Quello che descrivi è un Sistema distribuito .

Se fossi in te, prenderei in considerazione la possibilità di guardare progetti come SETI @ Home e altri "processi screensaver" che utilizzano cicli CPU ridondanti per elaborare grandi quantità di dati. È probabile che quei ragazzi abbiano considerato questo tipo di situazione prima.

I problemi principali sono:

Questa è la domanda "come posso garantire che la mia richiesta venga elaborata quando il nodo che chiedo di elaborare la richiesta potrebbe non riuscire - e come gestisco tali inevitabili errori?" (vedi il pezzo di Coding Horror di Jeff Atwood sul concetto di Chaos Monkey (in oggi per un possibile metodo di indagine

La velocità di memoria (o CAS ) sarebbe così variabile che ciò significherebbe che qualsiasi applicazione dovrebbe avere abbastanza memoria disponibile localmente, nel luogo di utilizzo, da poterne gestire le attività. Nello stesso modo in cui una macchina Windows utilizza un file di paging, quindi un'architettura distribuita potrebbe utilizzare nodi specifici come cache di memoria

Ci sono altre considerazioni (come la sicurezza, l'usabilità e la larghezza di banda sì in una certa misura, sebbene sia sempre possibile aggiungere più nodi, ecc.) ma queste saranno sufficienti come punto di partenza per te. Buona fortuna con la tua ricerca.

    
risposta data 25.04.2011 - 18:39
fonte
1

No. E sì.

Le persone possono e hanno utilizzato questo tipo di sistema come super-computer virtuali. Con un software speciale, molte aziende hanno utilizzato sistemi come questo. Tuttavia, ogni programma scritto per qualsiasi tipo di cluster distribuito deve essere dolorosamente consapevole dei problemi di latenza. E in questo tipo devi essere dolorosamente consapevole anche dei limiti di larghezza di banda.

In breve, hai a che fare con una bestia molto diversa da un normale computer e non sarai in grado di ottenere alcuna prestazione a meno che tu non sia consapevole delle differenze e trovi i modi per sistemarle per i tuoi scopi.

Problemi di factoring distribuiti, sì. Modelli di fluidodinamica distribuiti? Non così tanto.

    
risposta data 25.04.2011 - 18:36
fonte
0

Bene, vedo alcuni punti evidenziati e vorrei aggiungere alcuni altri fattori importanti da tenere in considerazione, quando stai facendo un approccio distribuito il concetto di failsafe è quello critico con così molti componenti !!

Ma la scalabilità del lato positivo può essere una transizione più facile con questo sistema, ma se dovessi investire i miei soldi su di esso il "supercomputer virtuale" avrebbe sicuramente delle serie prestazioni e problemi di latenza, ma in fondo alla corsia potrebbe solo diventare la norma del Super computing!

    
risposta data 25.04.2011 - 20:14
fonte

Leggi altre domande sui tag