Un "po 'meno significativo" è utilizzato praticamente ovunque oggi?

4

Sto lavorando su una libreria che supporta la lettura di file, e in questo momento ho sempre pensato che tutti i byte siano scritti nel numero più significativo del primo formato. Il minimo meno significativo primo formato mai praticamente usato ovunque oggi su qualsiasi piattaforma? La libreria che sto scrivendo non è mirata ai vecchi sistemi operativi (idealmente qualsiasi cosa a partire dall'anno 2000).

Sono curioso di sapere se scrivere una caratteristica del genere potrebbe essere una perdita di tempo che potrebbe essere spesa per altre cose.

    
posta Water 03.03.2015 - 22:47
fonte

3 risposte

10

Bene, potresti aver sentito parlare di una piccola cosa chiamata Ethernet , che trasmette byte primo, ma meno significativo bit prima.

Il fatto è che a nessuno interessa se non progettano una scheda Ethernet, perché l'hardware della scheda racchiude i dati in byte, il che è il modo in cui è accessibile in qualsiasi altro punto del sistema.

Quindi, se la tua libreria sembra progettata per essere eseguita direttamente su un chip del controller di disco, e devi leggere i dati scritti da altri controller seguendo i loro stessi standard, includendo in ogni caso l'opzione. Ovunque, non importa.

    
risposta data 04.03.2015 - 00:17
fonte
3

Se stai cercando una risposta molto precisa, dovrai definire con precisione cosa significa "formato di bit meno significativo". Come è evidente nei commenti, ci possono essere molte interpretazioni di ciò che significa, e molti dettagli possono essere ignorati da un lettore poco attento.

Esempio n. 1 - Formato immagine BMP, per bianco e nero (1bpp)

Per un esempio di "primo significativo bit prima del formato", prendi in considerazione il formato immagine BMP, 1bpp .

Un'immagine in bianco e nero (bitonale, o 1 bit per pixel) archiviata come BMP avrà il suo pixel zero-riga, zero colonna memorizzato nel bit 7 del byte 0 dell'area di dati pixel.

Per aritmetica, il termine "bit 7" si riferisce sempre in modo univoco alla maschera bit 0x80 , perché è la "7a cifra della sua rappresentazione binaria". (la cifra 0 è la maschera bit 0x01 .)

Esempio n. 2 - Fax TIFF

link

Le specifiche del fax TIFF originale sono state progettate pensando alle implementazioni hardware (elettroniche), e quindi devono affrontare la serializzazione elettrica e deserializzazione . Con esso viene la scelta di quale bit inviare prima il filo. Pertanto, la specifica consente entrambi, e quindi ogni lettore di immagini TIFF deve supportare la lettura di entrambi i tipi di file e di eseguire la conversione necessaria prima di decodificare il flusso di bit.

    
risposta data 04.03.2015 - 00:04
fonte
1

Dato che cose come caratteri / lettere, numeri e raw in essenzialmente ogni formato e linguaggio di programmazione usano il bit più significativo del primo formato, puoi applicare soluzione di struzzo a questo problema. Il tuo tempo è speso meglio a lavorare sulla stessa libreria vera e propria invece di una funzione che probabilmente non sarà mai necessaria.

Inoltre, come alcune persone hanno menzionato, una quantità decente di numeri interi che usano il formato meno significativo * usano il formato più significativo byte che è una cosa diversa.

    
risposta data 03.03.2015 - 23:39
fonte

Leggi altre domande sui tag