Le applicazioni del mondo reale avranno mai bisogno di uno spazio di indirizzamento piatto a 128 bit?

27

Questo è un po '"un megabyte dovrebbe essere sufficiente per chiunque", ma ...

Uno spazio di indirizzi flat a 64 bit consente fino a 4,3 miliardi di volte più spazio rispetto a uno spazio di indirizzi a 32 bit. Questo è 17,179,869,184 GiB.

Ovviamente, la transizione da 8 bit a 16 bit è stata piuttosto rapida (sto osservando le cose in un modo teen-through-the-80s, ignorando tutti quei mainframe e mini perché non potevano eseguire un port di Elite) . La transizione da 16 bit a 32 bit ha richiesto un po 'più di tempo e 32 bit sono durati un po' di tempo.

Ora abbiamo 64 bit, sarebbe stupido dire "17,179,869,184 GiB dovrebbe essere sufficiente per chiunque"?

Questa è una domanda dei programmatori perché ho in mente il punto di vista della programmazione. Anche se un giorno un computer ha una quantità apparentemente infinita di memoria di lavoro, ciò non significa che le applicazioni dovranno vedere uno spazio di indirizzo piatto apparentemente infinito.

Fondamentalmente, possiamo noi programmatori tirare un sospiro di sollievo e dire "beh, qualunque cosa possano fare interi o galleggianti, almeno non devo preoccuparmi che i miei indicatori aumentino di più?"

    
posta Steve314 15.06.2011 - 11:19
fonte

18 risposte

24

Non penso che avremo macchine con più di 2 ^ 64 byte di RAM nel prossimo futuro, ma non è tutto quello che lo spazio degli indirizzi è utile.

Per alcuni scopi, è utile mappare altre cose nello spazio degli indirizzi, essendo i file un esempio importante. Quindi, è ragionevole avere più di 2 ^ 64 byte di qualsiasi tipo di storage collegato a un computer nel prossimo futuro?

Dovrei dire di sì. Ci devono essere ben oltre 2 ^ 64 byte di spazio di archiviazione, dal momento che sono solo circa 17 milioni di persone con dischi rigidi di terabyte. Disponiamo di database con più petabyte da qualche anno e 2 ^ 64 di soli 17 mila petabyte.

Penso che probabilmente avremo un utilizzo per a > 2 ^ 64 spazio degli indirizzi entro i prossimi decenni.

    
risposta data 15.06.2011 - 16:52
fonte
16

A meno che i computer non inizino a utilizzare tecnologie rivoluzionarie che non esistono ancora nemmeno nei laboratori, avere più di 2 64 spazio indirizzabile è non fisicamente possibile con l'attuale tecnologia al silicio . La tecnologia sta raggiungendo i limiti fisici . Il limite di velocità (GHz) è stato raggiunto già alcuni anni fa. Anche il limite di miniaturizzazione è molto vicino. Attualmente la tecnologia più avanzata in produzione è 20 nm, nei laboratori è 4 nm con transistor composti da 7 atomi.

Solo per mettere in prospettiva quanto tempo ci vuole per sviluppare una nuova tecnologia: i computer attuali sono basati su transistor inventati nel 1925 e l'attuale tecnologia al silicio risale al 1954.

Come per le tecnologie alternative:

  • computing ottico - potrebbe dare un impulso alla velocità di elaborazione, ma non risolve il problema della miniaturizzazione per lo storage;
  • computing quantistico - per essere utilizzato completamente, richiederà un paradigma di programmazione completamente nuovo, quindi se i puntatori saranno 64 o 128 bit è meno delle tue preoccupazioni. Anche le stesse limitazioni fisiche sulla miniaturizzazione si applicano a questa tecnologia;
  • Computazione del DNA - questi sono giocattoli di prova, progettati per risolvere una particolare classe di problemi. Non è fattibile per l'uso nella vita reale. Per ottenere calcoli che sul PC normale sarebbero stati effettuati in meno di un secondo, ci vorrebbero un serbatoio di DNA di una dimensione dell'Oceano Pacifico e qualche migliaio di anni. Essendo naturale, processo biologico, non c'è modo di miniaturizzarlo o di accelerarlo.
risposta data 15.06.2011 - 18:49
fonte
13

Il super computer Thorbjoern collegato ha circa 2 ^ 47 B di memoria fisica.
Supponendo che la Legge di Moore valga per la memoria di super computer, diventerà 2 ^ 64 B di memoria fisica in soli 34 anni. Questo è come "OMG, vivremo per vederlo !!!!". Può essere. E infatti, è affascinante. Ma altrettanto irrilevante.

La domanda è: ho bisogno di 128 bit di spazio indirizzo per usare 2 ^ 65 B di memoria fisica?
La risposta è NO . Ho bisogno di 128 bit di spazio indirizzo per indirizzare 2 ^ 65 B di memoria virtuale da un processo singolo .

Quindi la domanda è: quanto tempo avremo singoli processi , che usano 2 ^ 65 B di memoria. Spero di no.

Il grosso problema del nostro tempo è che la potenza di elaborazione di una singola CPU è limitata. Esiste un limite nella dimensione definita dalla dimensione degli atomi e, per una data dimensione, c'è un limite nella frequenza di clock, data dalla velocità della luce, la velocità con cui le informazioni sui cambiamenti nei campi magnetici si propagano nel nostro universo.
E in realtà, il limite è stato raggiunto qualche anno fa e ci siamo sistemati ai tassi di clock inferiori a quello che erano stati in precedenza. La potenza della CPU non verrà più scalata linearmente. Le prestazioni sono ora migliorate con l'esecuzione fuori servizio, la previsione delle filiali, le cache più grandi, più codici operativi, operazioni vettoriali e cosa no. C'è stata ottimizzazione architettonica .
E un'idea importante è quella della parallelizzazione. Il problema con la parallelizzazione è che non si scala. Se hai scritto codice lento 20 anni fa, ha funzionato molto più velocemente 10 anni fa. Se scrivi codice lento ora, non diventerà molto più veloce tra 10 anni.

I processi che usano 2 ^ 65 B di memoria sono un segno della massima stupidità. Questo dimostra che non c'è stata ottimizzazione architettonica . Per elaborare sensibilmente questi dati, sono necessari circa 10 milioni di core, la maggior parte dei quali impiegherebbe del tempo in attesa che qualche risorsa diventi disponibile, perché i core che hanno effettivamente acquisito la risorsa utilizzano la memoria fisica su Ethernet su una macchina completamente diversa. La chiave per affrontare problemi grandi e complessi è la loro decomposizione in problemi piccoli e semplici e non la costruzione di sistemi sempre più grandi e sempre più complessi. Hai bisogno di partizionamento orizzontale, quando si tratta di sh * tload di dati.

Ma anche supponendo, questa follia dovrebbe andare avanti, ti assicuro che 128 bit è sufficiente :

  • Earth ha circa 8.87e + 49 atomi , che è 2 ^ 166 atomi che abbiamo .
  • Supponiamo che costi 2 ^ 20 atomi per contenere un bit. Ciò include anche tutti i cablaggi, le materie plastiche e l'energia che ne deriva. Non puoi semplicemente gettare i transistor in una scatola e chiamarla computer. Quindi 2 ^ 20 sembra piuttosto ottimista.
  • Per utilizzare uno spazio di indirizzamento a 128 bit, abbiamo bisogno di 2 ^ 133 bit, quindi 2 ^ 152 atomi di cui abbiamo bisogno . Supponendo una distribuzione equa degli atomi sulla terra, vediamo quanta crosta dobbiamo prendere per ottenerli:

    let
       q  := ratio of atoms needed to atoms present = 2^-14
       Vc := volume of the crust to be used
       Ve := volume of the earth
       re := the radius of the earth = 6.38e6
       tc := the required thickness of the crust
       k  := 0.75*pi
    thus
                                 Vc / Ve = q 
       (k*re^3 - k*(re-tc)^3) / (k*re^3) = q
                    1 - ((re-tc) / re)^3 = q        
                              (re-tc)/re = root3(1-q)
                                      tc = re * (1 - root3(1-q))
                                      tc = 6.38e6 * (1 - (1 - 2^-14)^(1/3))
                                      tc = 129.804073
    

    Quindi hai 130 metri di spazio su su tutta la superficie (incluso l'80% coperto da acqua, sabbia o ghiaccio). Non succederà. Anche supponendo che tu possa scavare (lol) e tutto questa materia è adatta per essere trasformata in chip, dove otterrai l'energia?

risposta data 15.06.2011 - 19:04
fonte
8

Bene, potremmo sicuramente usare un ampio spazio per gli indirizzi.

Immagina questo:

  1. Lo spazio indirizzo non è limitato a un singolo computer. Invece, un indirizzo identifica in modo univoco una cella di memoria in uno spazio di indirizzamento universale. Quindi puoi avere un puntatore a una cella di memoria su qualsiasi computer nel mondo. Ci sarà bisogno di qualche protocollo per abilitare la lettura dalla memoria remota, ma questo è un dettaglio di implementazione. : -)

  2. La memoria è Scrivi una volta, Leggi molte, cioè puoi scrivere dati su un indirizzo di memoria solo una volta. Per un valore mutabile, dovrai allocare un nuovo pezzo di memoria ogni volta che cambia. Noi programmatori abbiamo iniziato a vedere i vantaggi dell'immutabilità e della memoria transazionale, quindi una progettazione hardware che non consente nemmeno sovrascritture di memoria potrebbe non essere un'idea così impossibile.

Combina queste due idee e avrai bisogno di un enorme spazio per gli indirizzi.

    
risposta data 16.06.2011 - 00:10
fonte
7

I computer più capaci diventano, più i problemi complessi sono richiesti con cui lavorare.

Il più grande supercomputer elencato su top500.org è link con circa 220 Tb RAM e 180000 core. In altre parole, questo è ciò che "applicazioni di vita reale" possono utilizzare su questa piattaforma.

I computer di oggi sono potenti come i supercomputer 10-15 anni fa (anche se la potenza di calcolo potrebbe essere nascosta nella scheda grafica).

Quindi un fattore 100 in memoria tra 10-15 anni significherà che lo spazio di indirizzamento a 64 bit sarà un fattore limitante in circa 100 anni (dal momento che log (100 milioni) / log (100) è intorno a 6) se l'attuale la tendenza tiene.

    
risposta data 15.06.2011 - 20:06
fonte
4

Tutta questa discussione è piuttosto divertente da leggere, un'opinione molto strong a favore e contro ...

Qui qualcosa ..

Capisco dalla domanda che fosse una tecnologia agnostica e non vincolata dal tempo. In questo modo lo sviluppo attuale nel silicio, i computer quantistici o l'Infinite Monkey Peddling Abacus sono in effetti irrilevanti.

Anche i calcoli e le estrapolazioni sono piuttosto divertenti, sebbene la risposta di back2dos funzioni abbastanza bene per illustrare la dimensione pura di ciò che rappresenta questo numero. quindi lavoriamo con quello.

Metti la tua mente nel futuro in cui l'uomo non è più legato al confine del suo piccolo pianeta, è stato sviluppato un realistico mezzo di trasporto per consentire il trasporto su grandi distanze e le strutture sociali (economiche, politiche, ecc.) si sono evolute in trascendere generazioni. I progetti faraonici che si estendono sono diventati luoghi comuni. Concentriamoci su due aspetti di questa visione inverosimile del futuro, tuttavia, se uno desidera spendere tempo per spiegare tutti i dettagli, sono certo che si potrebbe razionalizzare tutto attraverso una serie di evoluzioni plausibili sulle tecnologie attuali. In altre parole un futuro plausibile, anche se improbabile ... comunque ...

Il primo progetto chiamato Colosso in memoria di quel primo computer elettronico in quanto è il primo computer planetario. Il Colosso della Confraternita ha in effetti escogitato un mezzo per catturare un piccolo planetoide e trasformarlo in un computer funzionante. Recentemente scoperto nella cintura di Kuyper, che è particolarmente ricco di isotopi fusibili che lo rendono energeticamente autonomo, ha reso il processo di costruzione completamente autonomo con sonde, robot, ecc. Rendendo il sistema informatico auto-riparatore e auto-costruttivo. In questa condizione sarebbe ipotizzabile che lo spazio di indirizzamento 2 ^ 64 fosse un po 'limitato per questo progetto in quanto desiderava ottenere uno spazio di indirizzamento continuo per trasferire facilmente le applicazioni già esistenti per un altro progetto anche in corso.

L'altro progetto è più un esperimento in rete che un sistema fisico, tuttavia, ha dimostrato rapidamente che era necessario un maggiore spazio di indirizzamento. 540 anni fa un giovane hacker stava giocando con l'idea di creare una gigantesca rete di bot. Internet si era già espanso per includere le nascenti colonie attorno al sistema solare che si basavano sui principali progressi compiuti nella fusione nucleare. Le sue idee erano fondamentalmente di avere piccoli bot sparsi per la rete, ma il carico utile era destinato a fornire una macchina virtuale unificata in cui il codice sarebbe stato scritto assumendo che avesse tutta la potenza di tutti i robot combinati. Sono stati fatti grandi sforzi nel compilatore e nella distribuzione per tentare di ottimizzare i ritardi e gli algoritmi sofisticati progettati per tenere conto dell'ineribilità intrinseca del supporto sottostante. È stato scritto appositamente un linguaggio per indirizzare questo nuovo "computer" che ha posto maggiore enfasi sulla concorrenza. Ci sono voluti molti anni per scoprire questa botnet poiché non ha mai generato alcun attacco, il nostro hacker ha creato invece una società ombrello e ha venduto la potenza di calcolo al miglior offerente. Quando è morto ha donato questa botnet e tutte le tecnologie a una fondazione. A quel punto la botnet era già in esecuzione da 64 anni e già da tempo aveva superato lo spazio di indirizzamento 2 ^ 64 anni mandando in frantumi il preconcetto vecchio di 1000 anni che non avremmo mai richiesto uno spazio di indirizzi più ampio. Oggigiorno 2 ^ 128 è la norma e ciò che verrà usato per Colossus, ma c'è già un piano per estenderlo a 2 ^ 256.

Potrei probabilmente inventare scenari più plausibili che dimostrino che sì ... è abbastanza possibile, anzi, quasi certo, che un giorno avremo bisogno di uno spazio di indirizzi più grande di questo.

Detto questo, tuttavia, non credo che perderei il controllo di ciò, se la tua applicazione richiede un certo spazio di indirizzamento per funzionare correttamente, molto probabilmente vivrà in una VM che fornisce tutto ciò di cui ha bisogno ...

Quindi ... risposta breve ...

SÌ, Molto probabilmente

ma

Perché non affrontarlo quando il problema arriva ... Personalmente non faccio mai supposizioni nei miei programmi quindi non ottengo mai sorprese.

    
risposta data 15.06.2011 - 19:25
fonte
2

Le posizioni degli indirizzi hanno un costo logaritmico in relazione alla larghezza degli indirizzi in modo da poter considerare i limiti superiori in base ai parametri in questione :

64-bit for particles of sand on earth = 7.5x10^18
128-bit for stars in observable universe = 10^24
256-bit for particles in earth = 10^50
512-bit for particles in observable universe = 10^82
1024-bit for cubic plank lengths in observable universe = 4.65×10^185

  • La sparsità introdotta per hashing, sicurezza e indicizzazione

6.6106...×10^122-bit for possible particle configurations in observable universe = 10^(10^122)

Potremmo assumere le possibili configurazioni come limite superiore per il più grande indirizzo di memoria costruibile fisicamente possibile.

    
risposta data 28.09.2017 - 22:26
fonte
0

Bene, penso che per alcuni anni a venire probabilmente tiri un sospiro di sollievo. Se si guarda alla velocità dell'innovazione nell'hardware, si può osservare che negli ultimi anni non si sono verificati significativi progressi. Le CPU con frequenze 2.x GHz sono in circolazione da un po 'di tempo e qualsiasi aumento della potenza di elaborazione oggigiorno deriva dall'imballaggio di più core sul chip. La capacità dell'unità è ancora in aumento, ma non alla stessa velocità di 10 anni fa.

Penso che la nostra attuale tecnologia si stia avvicinando ai limiti della fisica.

Che cosa significa per il futuro? Penso che per ottenere nuovi balzi quantici nell'elaborazione delle informazioni, dovranno essere utilizzate tecnologie completamente nuove. Queste tecnologie useranno probabilmente "software", anche se forse in un contesto abbastanza estraneo a quello che è oggi. E chi sa quali requisiti di spazio di indirizzo hanno o possono fornire? O se lo spazio degli indirizzi è anche un concetto significativo in quella tecnologia?

Quindi non ritirarti ancora.

    
risposta data 15.06.2011 - 11:51
fonte
0

Sì, ci sarà. (Giochi? Roba relativa all'intelligenza artificiale?)

Una domanda più appropriata potrebbe essere se conterà comunque con il programmatore tipico. Pensa a come Ruby converte automaticamente i numeri da FixNum a BigNum e viceversa quando necessario. Sarei sorpreso se altre lingue (almeno quelle dinamiche) non facciano lo stesso alla fine.

    
risposta data 15.06.2011 - 12:12
fonte
0

Memorizzare questa quantità di informazioni è una cosa e fare qualcosa di utile con essa è un'altra. Dal mio punto di vista non vedo la necessità di questo storage a meno che non abbiamo la potenza di elaborazione per utilizzarlo. Forse la memorizzazione nella cache di enormi database è una cosa, ma per l'elaborazione numerica penso che abbiamo bisogno dei processori.

    
risposta data 15.06.2011 - 12:37
fonte
0

Le applicazioni avranno mai bisogno di tanta memoria? Abbastanza possibile Applicazioni come previsioni del tempo, simulazioni fisiche in generale o crittografia probabilmente trarranno sempre più memoria e più potenza di elaborazione. E chissà quale sarà l'app killer tra 50-100 anni? Display olografici? Tabelle arcobaleno per ogni possibile password di 100 caratteri?

È fisicamente possibile rappresentare così tanta memoria? Sicuramente possibile Ad esempio, un computer quantico a 100 qubit può rappresentare lo stesso numero di stati di un classico computer 2 ^ 100 bit. Via più dei 2 ^ 67 bit di spazio degli indirizzi che abbiamo ora. (Lo so, un computer quantico a 100 qubit suona come fantascienza, non sono convinto che sarà mai possibile costruirne uno, ma d'altra parte, probabilmente, si potrebbe dire lo stesso di qualsiasi tecnologia che verrà utilizzata 50 o 100 anni da adesso.)

Ma dubito seriamente che "gli spazi degli indirizzi piatti" saranno la principale preoccupazione di allora. Forse svilupperemo algoritmi quantistici a quel punto, dove il concetto di "spazio di indirizzamento" non ha molto senso. Anche se i computer rimangono "classici" probabilmente dovremo affrontare un numero spaventoso di unità di elaborazione con memoria non uniforme collegata a loro.

    
risposta data 15.06.2011 - 14:08
fonte
0

Che cosa accadrebbe se ogni posizione di memoria avesse un indirizzo globalmente univoco?

  • I protocolli di rete potrebbero diventare molto più semplici.
  • Gli oggetti distribuiti sarebbero interessanti - gli oggetti tutti potrebbero esistere nello stesso spazio di memoria.
  • Forse dovremmo passare a "scrivere una volta" i ricordi e includere il tempo come parte della struttura dell'indirizzo. Potresti leggere gli oggetti che esistevano nel passato.
  • Tutta la memoria secondaria sarebbe direttamente indirizzabile. Arrivederci FILE , fopen() , ecc.
  • Potresti essere arrestato per aver scritto su un puntatore non valido e aver nascosto la macchina di qualcun altro.
  • Gli studenti dovrebbero essere sottoposti a screening prima di prendere la loro prima classe CS: pochissime persone possono sopportare il Vortice di prospettiva totale .
risposta data 01.09.2011 - 00:14
fonte
0

Solo "pensare ad alta voce" qui, ma mi è venuto in mente che si potevano fare cose semantiche interessanti con i rimanenti 64 bit su un computer a 128 bit, diciamo. Cf. il modo in cui funziona IP.

Sono sicuro che le persone potrebbero inventare usi divertenti per qualcosa di simile. :) Qualcuno sa per cosa la PS3 usa i suoi indirizzi a 128 bit? Sicuramente non sprecheresti tutta quella memoria extra (e sto parlando solo della memoria per gli indirizzi reali, non di ciò a cui quegli indirizzi puntano). Indirizzi come dati. Potresti anche codificare un ramo nell'indirizzo stesso ... cioè 0x [ifAddress] [elseAddress] I sistemi multi-core potrebbero trarre vantaggio anche da questo tipo di segmentazione. E ... E ...

    
risposta data 24.10.2011 - 12:17
fonte
0

C'è qualche motivo per andare oltre l'architettura a 64 bit? (18,446,744,073,709,551,615 byte di memoria indirizzabile)

Utilizzando lo standard IEEE 1541-2002 sull'uso dei prefissi per i multipli binari di unità di misura relative all'elettronica digitale e all'informatica, vediamo che:

1 byte = 8 bit, 1 Kilobyte = 1024 byte, 1 Megabyte = 1024 KB, 1 Gigabyte = 1024 MB, 1 Terabyte = 1024 GB, 1 Petabyte = 1024 TB, 1 Exabyte = 1024 PB

E così via per Zettabyte, Yottabyte, Xenottabyte, Shilentnobyte, Domegemegrottebyte, Icosebyte e Monoicosebyte.

Il totale dello spazio di archiviazione dell'unità Earth è stimato a circa 2.500 Exabyte a partire dal 2016.

Un registro a 64 bit può accedere direttamente a 15 exabyte di memoria. Un registro a 128 bit può accedere direttamente a 3.40282367 × 10 ^ 35 Zettabyte. O 295.147.905.247.928.000 monoicosebytes.

Quindi possiamo vedere che un registro a 128 bit sarebbe in una buona posizione per accedere a tutta la memoria della Terra, tutto ciò che è stato inviato su internet, ogni parola mai pronunciata o scritta, ogni film, e molto altro ancora, per un po ' tempo a venire.

Quindi la risposta è , in attesa di un framework che possa puntare a qualsiasi cosa digitale che sia mai stata o sarà mai .

    
risposta data 03.06.2016 - 22:27
fonte
0

La migliore stima che riesco a trovare per il numero di neuroni in un cervello umano medio è di circa 86 miliardi. Non possiamo confrontare direttamente la RAM con i neuroni in generale, ma con una rete neurale che puoi. Prende un numero di indirizzi per rappresentare lo stato del neurone o una sinapsi. Quindi lancerò una supposizione selvaggia e dirò che guardiamo qualcosa come un trilione di indirizzi per creare una rete neurale che sarebbe paragonabile a un cervello umano. Quindi, se ciò può essere fatto, non vedo perché non andrebbe molto oltre. I tipi di problemi che una tale rete potrebbe essere in grado di contemplare sarebbero al di là delle nostre capacità di comprendere e del perché avrebbero bisogno di essere così grandi per farlo.

    
risposta data 03.06.2016 - 23:20
fonte
-1

Certo, non vedo alcuna ragione per cui quella quantità di spazio non sarebbe necessaria in futuro. Se consideri lo sviluppo del gioco, non c'è limite al modo in cui un gioco realistico o complesso può essere fatto, giusto? (Dettaglio della grafica / numero di poligoni utilizzati e algoritmi che definiscono l'interazione e il comportamento degli oggetti)?

Chi lo sa, tra 10 anni potremmo giocare a partite da 10 TB con requisiti minimi di RAM da 12 GB e un processore a 8 core. : P

    
risposta data 15.06.2011 - 11:43
fonte
-1

20 anni fa, c'erano 2 miliardi di persone in meno sul pianeta e la maggior parte dei sistemi informatici aveva una memoria indirizzabile che poteva essere misurata in kilobyte. Oggi la popolazione mondiale aumenta allo stesso ritmo e il numero di utenti di computer aumenta in modo esponenziale ogni anno.

È vero che pochissimi sistemi hanno bisogno di uno spazio di indirizzamento completo a 64 byte. Alcuni sistemi immagazzinano terabyte di informazioni ogni giorno, comunque. Ciò è stato possibile a causa dell'aumento degli utenti di computer e della velocità di Internet. Possiamo già supportare velocità di rete di 10 GB / s dopo soli 23 anni dall'invenzione di HTTP. A questo ritmo penso che sarebbe sciocco non aspettarsi una velocità di 1 TB / s o superiore in 50 anni. Quando tutti possiamo spostare i dati così velocemente, ci saranno più dati da conservare mentre più persone esisteranno per archiviare questi dati ed è quasi inevitabile che ci sarà bisogno di un'altra transizione diffusa in un sistema a 128 bit, e alla fine 256 e 512 bit.

    
risposta data 06.05.2013 - 18:52
fonte
-1

sì le app non riempiono ogni byte di spazio virtuale. la randomizzazione del layout dello spazio degli indirizzi otterrebbe il più grande vantaggio.

    
risposta data 19.06.2013 - 08:49
fonte

Leggi altre domande sui tag