Gigabajt: Różnice pomiędzy wersjami

[wersja przejrzana][wersja przejrzana]
Usunięta treść Dodana treść
nie zawsze
Drobne zmiany stylistyczne i interpunkcyjne.
Linia 1:
{{Źródła|data=2012-08}}
{{Wielokrotności bajtów}}
'''Gigabajt''' (10<sup>9</sup>, skrót '''GB''') lub '''Gibibajt''' (2<sup>30</sup>, skrót '''GiB''') – [[jednostka miary|jednostka używana]] w [[informatyka|informatyce]] oznaczająca [[miliard]] (a w praktyce częściej 1. 073. 741. 824 ~ 1. 000. 000. 000 = 10<sup>9</sup>) [[bajt]]ów.
 
Stosowana m.in. do określania pojemności dużych [[pamięć masowa|pamięci masowych]]. Współczesne dyski twarde posiadają pojemność liczoną w setkach, a nawet tysiącach gigabajtów.
 
<code>1 '''GiB''' = 1024* × 1 [[megabajt|MiB]] = 1024* × 1024* × 1 [[kilobajt|KiB]] = 1024* × 1024* × 1024* × 1 [[Bajt|B]]</code>
 
W informatyce przedrostek "giga"„giga” oznacza często liczbę 1024*<code> × </code>1024*<code> × </code>1024 = 1 073 741 824, która jest wynikiem działania 2<sup>30</sup> (a nie jak w układzie SI -: 10<sup>9</sup> = 1 000 000 000). Formalnie powinien być używany przedrostek "gibi"„gibi”, który oznacza właśnie 1024*<code> × </code>1024*<code> × </code>1024, a jednostka powinna się nazywać gibibajt i posiadaćmieć skrót GiB, w praktyce jednak utarła się niepoprawna nazwa. Jest to często wykorzystywane przez producentów różnych nośników pamięci czy urządzeń, które je wykorzystują. Producent określa, że jego urządzenie cechuje się pojemnością 1 GB, co można odczytać jako 1 073 741 824 bajtów, a w rzeczywistości produkt ma 1 000 000 000 bajtów, co daje różnicę 70 [[Megabajt|MiB]].
 
== Zobacz też ==