BuiltByNOF
BIT  die kleinste Einheit

Kleinste Speichereinheit

BIT und BIT´s

Ein Bit ist die kleinste digitale Informationseinheit eines Computers. Ein Bit kann den Wert 1 oder 0 haben, was sich aus dem binären Zahlensystem ergibt:

 

Das binäre Zahlensystem ist auf die Möglichkeit elektronischer oder mechanischer Verarbeitung zugeschnitten. Da der Computer nur zwei (= lat. bi) Zustände unterscheiden kann, nämlich - etwas salopp ausgedrückt - Spannung vorhanden oder nicht, also 1 oder 0, JA oder NEIN, müssen Zahlen, Buchstaben und andere Zeichen mittels dieser binären Zahlen dargestellt werden.

Das binäre Zahlensystem basiert somit ausschließlich auf Verwendung von 1 und 0. Die binären Zahlen werden zur Basis 2 erstellt, die Dezimalzahlen dagegen zur Basis 10:

1000111 ist z. B. die Zahl 71.

 8 BIT werden zu einem Byte zusammengefasst. Um ein Zeichen darzustellen, wird ein Byte, also acht Bits benötigt. Aus diesem Grund benötigt man nur 256 - ASCII- Zeichen. Es ist möglich mit acht Bit (oder einem Byte) eines der 256 Zeichen zu adressieren, z.B. die Binäre Zahl 11111111 wird aus acht Bit gebildet, sie beinhaltet die Dezimalzahl 256. So bekommt der Computer die Information eine Leerstelle zu schreiben.

( ASCII Zeichen weiter unten in einer Tabelle )

1000 Byte (richtiger 1024 Byte) werden zu einem Kilobyte (KByte oder KB) zusammengefasst, 1 Million Byte zu einem MegaByte (MByte oder auch MB). Exakt sind ein MByte 1.048.576 Byte.

Häufig trifft man auf die Begriffe 8-Bit-, 16-Bit- oder 32-Bit-Computer. Diese Begriffe hängen damit zusammen, wie viele Bits gleichzeitig verarbeitet werden können, der sogenannte Bus transportieren kann. Computer mit dem Prozessor 8088 und 8086 haben einen acht Bit breiten Bus, die Computer mit einem Prozessor 80286 haben dagegen einen 16-Bit-Bus. Lediglich die Computer mit einem Prozessor 80386 haben einen Bus von 32 Bit Breite, ab dem Pentium II sogar von 64 Bit. Der Bus ist wichtig für die Verarbeitungsgeschwindigkeit des Computers.

Zusammenfassend gesagt!

ASCII ist eine Abkürzung für die Wörter "American Standard Code for Information Interchange". Es ist ein in Amerika erfundener Verschlüsselungscode (eine Art Geheimcode, der aber nicht geheim ist). Dieser Code wird benutzt, um Zeichen, die mit Hilfe von elektrischen Signalen übertragen werden sollen, zu verschlüsseln um sie dann elektronisch über Leitungen zu versenden.

Wenn du also den Buchstaben A in deinen Computer eintippst, wird nicht wirklich ein "A" gespeichert oder ins Internet übertragen, sondern dieses A wird solange umgewandelt und zerlegt, bis es nur noch mit zwei Zeichen dargestellt werden kann. Diese zwei Zeichen sind "0" und "1". Auf dem Weg der Umwandlung dorthin wird eine Zwischenstation (die hexadezimale Darstellung) benutzt. Zum Beispiel steht für "A" die hexadezimale Zahl "41" oder die Dualzahl "100 0001".

Eine Kombination aus je zwei hexadezimalen Zahlen (dieses sind die Zeichen 0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F) oder eine Kombination aus je sieben Dualzahlen (0,1) bilden den ASCII-Code. Einen Teil einer ASCII-Code-Tabelle findest du gleich hier:

ASCII

Hexa

Dual

 

ASCII

Hexa

Dual

 

ASCII

Hexa

Dual

 

20

010 0000

 

0

30

011 0000

 

@

40

100 0000

!

21

010 0001

 

1

31

011 0001

 

A

41

100 0001

"

22

010 0010

 

2

32

011 0010

 

B

42

100 0010

#

23

010 0011

 

3

33

011 0011

 

C

43

100 0011

$

24

010 0100

 

4

34

011 0100

 

D

44

100 0100

%

25

010 0101

 

5

35

011 0101

 

E

45

100 0101

&

26

010 0110

 

6

36

011 0110

 

F

46

100 0110

'

27

010 0111

 

7

37

011 0111

 

G

47

100 0111

(

28

010 1000

 

8

38

011 1000

 

H

48

100 1000

)

29

010 1001

 

9

39

011 1001

 

I

49

100 1001

*

2A

010 1010

 

:

3A

011 1010

 

J

4A

100 1010

+

2B

010 1011

 

;

3B

011 1011

 

K

4B

100 1011

,

2C

010 1100

 

<

3C

011 1100

 

L

4C

100 1100

-

2D

010 1101

 

=

3D

011 1101

 

M

4D

100 1101

 

2E

010 1110

 

>

3E

011 1110

 

N

4E

100 1110

/

2F

010 1111

 

?

3F

011 1111

 

O

4F

100 1111

  

 

 

 

 

 

 

 

 

 

 

ASCII

Hexa

Dual

 

ASCII

Hexa

Dual

 

ASCII

Hexa

Dual

P

50

010 0000

 

 

60

011 0000

 

p

70

100 0000

Q

51

010 0001

 

a

61

011 0001

 

q

71

100 0001

R

52

010 0010

 

b

62

011 0010

 

r

72

100 0010

S

53

010 0011

 

c

63

011 0011

 

s

73

100 0011

T

54

010 0100

 

d

64

011 0100

 

t

74

100 0100

U

55

010 0101

 

e

65

011 0101

 

u

75

100 0101

V

56

010 0110

 

f

66

011 0110

 

v

76

100 0110

W

57

010 0111

 

g

67

011 0111

 

w

77

100 0111

X

58

010 1000

 

h

68

011 1000

 

x

78

100 1000

Y

59

010 1001

 

i

69

011 1001

 

y

79

100 1001

Z

5A

010 1010

 

j

6A

011 1010

 

z

7A

100 1010

[

5B

010 1011

 

k

6B

011 1011

 

{

7B

100 1011

\

5C

010 1100

 

l

6C

011 1100

 

|

7C

100 1100

]

5D

010 1101

 

m

6D

011 1101

 

}

7D

100 1101

^

5E

010 1110

 

n

6E

011 1110

 

~

7E

100 1110

 

5F

010 1111

 

o

6F

011 1111

 

 

7F

100 1111

Bit [Abk. von engl. bi(nary digi)t ‘binäre Ziffer’]

Kleinste Maßeinheit für den Informationsgehalt einer Nachricht, bzw. für die Anzahl von Binär-Entscheidungen: jede Einheit mit der Auftretenswahrscheinlichkeit von ein halb beinhaltet ein B. Information, da sie auf der Basis einer einzigen Ja/Nein-Entscheidung zu ermitteln ist (Binarismus). So gibt es beim Fall einer Münze zwei Möglichkeiten, welche Seite nach oben weist; die entsprechende Information beträgt ein Bit, während die Kenntnis einer gewürfelten Zahl ca. drei B. beträgt.“ [Bußmann, H., S. 138]

„bit

Abkürzung für binary digit. Maß der Information, aufgestellt durch den amerikanischen Mathematiker C. E. Shannon. Er legt die einfachste Form einer Information, die Ja-Nein-Entscheidung zugrunde. Jedes Ereignis, dessen Eintreten mit gleicher Wahrscheinlichkeit ja/nein sein kann, stellt informatorisch 1 bit dar. Gemessen wird also nur die Quantität – nicht die Qualität – der Information. Diese ist mit der Bedeutung nicht identisch. Der Wurf einer Münze enthält 1 bit, unabhängig von der Bedeutung, die dem Fall auf die eine oder andere Seite vorher zugeordnet wurde. Das Feld eines Schachbretts enthält die Wahrscheinlichkeit 1/64. Um ein bestimmtes Feld zu ermitteln, sind 6 Alternativschritte (6 Halbierungen des Feldes) nötig. Daraus kann man eine mathem. Gesetzmäßigkeit ableiten: log2 64 = 6 oder 26 = 64, verallgemeinert: Information = log2 der Möglichkeiten.“

[Heupel, C., S. 39]

„Bit (das) [aus: engl. binary digit = aus 2 Komponenten bestehende Ziffer]

Informationstheoretische Maßeinheit zur Bezeichnung des Informationsgehaltes (verhält sich zur Wahrscheinlichkeit des Vorkommens im gegebenen Kontext umgekehrt proportional) einer übermittelten Nachricht durch die Anzahl erforderlicher Ja/Nein-Entscheidungen zur eindeutigen Feststellung eines Sachverhaltes; 1 B. = einfache Alternative, bei der konkrete Spezifizierung durch ein kommunikatives Zeichen im Kode immer zugleich Ausschluss einer anderen, gegensätzlichen Spezifizierung bedeutet; Entscheidungsgehalt eines eintretenden Ereignisses, bei dem die beiden einzigen Möglichkeiten gleich wahrscheinlich sind; z.B.: Kopf oder Adler (beim Wurf einer Münze); 0 oder 1 (bei elektronischen Rechenmaschinen, für die nur diese als binäre Ziffern zugelassen sind).“

[Ulrich, Winfried: Linguistische Grundbegriffe, S. 21-22]

„bit.

Nach J. W. Tukeyaus (binary digit): in der Informationstheorie übliche Messeinheit für die Information/den Informationsgehalt; die Zahl, mit der 2 potenziert werden muss (logarithmus dualis), um die Anzahl der vorhandenen Möglichkeiten, d. h. das Ausmaß der mit einem Ereignis verbundenen Ungewissheit, zu erhalten; die mittlere Anzahl der erforderlichen Binärentscheidungen, um die in einem System enthaltene Ungewissheit zu beseitigen. Zum Beispiel lässt sich ein bestimmtes Feld von 64 Feldern eines Schachbretts durch Binärentscheidungen ermitteln: 64 = 26. Das Ausmaß an Ungewissheit hängt von der Anzahl der möglichen Ereignisse ab; der Informationswert lässt sich als Relation zwischen dem, was sich ereignet hat / was der Sprecher selegiert hat und dem, was sich hätte ereignen können / was der Sprecher hätte sagen können (wie viele Möglichkeiten er z. B. auf eine Frage hatte) darstellen. H = - S pi log2p1 ist die Shannonsche Formel für den Informationsgehalt (auch H = S pi ld 1/p1 : Der Informationsgehalt H (Hartley) ist gleich der Summe aller p1 mal logarithmus dualis von 1/p1).“

[Lewandowski, Th.: Linguistisches Wörterbuch. Heidelberg,1973, Bd.1, S. 125-126]

Bit

Unidad mínima de almacenamiento de información, que sólo puede tener el valor de 1 o el valor de 0.

Una velocidad de descarga (Download) de 128 bit/s equivale a una descarga de 7.680 bits por minuto = 960 byts por minuto.

Byt

Unidad de almacenamiento constituida por ocho bites.

 

gold_but1