'''Gigabajt''' (10<sup>9</sup>, skrót '''GB''') lub '''Gibibajtgibibajt''' (2<sup>30</sup>, skrót '''GiB''') – [[jednostka miary|jednostka używana]] w [[informatyka|informatyce]] oznaczająca [[miliard]] (a w praktyce częściej 1.073.741.824 ~≈ 1.000.000.000 = 10<sup>9</sup>) [[bajt]]ów.
Stosowana m.in. do określania pojemności dużych [[pamięć masowa|pamięci masowych]]. Współczesne dyski twarde posiadają pojemność liczoną w setkach, a nawet tysiącach gigabajtów.
W informatyce przedrostek „giga”''giga'' oznacza często liczbę 1024<codesup> × 3</codesup>1024<code> × </code>1024 = 1.073.741.824, która jest wynikiem działania 2<sup>30</sup> (aw nieodróżnieniu jakdo w układzieukładu SI, gdzie: 10<sup>9</sup> = 1 000 000 000). Formalnie, aby zapewnić jednoznaczność, powinien być używany przedrostek „gibi”''gibi'', który oznacza właśnie 1024<code>ו </code>1024<code>ו </code>1024, a jednostka powinnanosi się nazywaćnazwę ''gibibajt'' i miećma skrót ''GiB'' – w praktyce jednak utarła się nazwa standardu JEDEC<ref name="Gigabajt"> [https://en.wikipedia.org/wiki/JEDEC_memory_standards#Unit_prefixes_for_semiconductor_storage_capacity],Przedrostki systemu JEDEC dla pamięci półprzewodnikowych (j.angielski)</ref>. Ta niekonsekwencja jest często przyczyną nadużyć producentów nośników pamięci czy urządzeń, które je wykorzystują. Producent może przykładowo podać w specyfikacji, że urządzenie ma pojemność 1 GB, co można odczytać jako 1.073.741.824 bajty, w rzeczywistości zaś produkt ma tylko 1.000.000.000 bajtów, czyli o ok. 70 [[Megabajt|MiB]] mniej; mimo to zgodnie z wartością określoną przez [[przedrostek SI]] produkt ma właściwą pojemność.