MPEG-1: Różnice pomiędzy wersjami
[wersja przejrzana] | [wersja przejrzana] |
Usunięta treść Dodana treść
Emptywords (dyskusja | edycje) m WP:SK, lit. |
m Bot poprawia frazę ([[WP:ZDBOT#Wyszukanie frazy z "[po]między"]]); zmiany kosmetyczne |
||
Linia 18:
'''Część 1''' odnosi się do problemu łączenia jednego lub kilku strumieni danych audio i wideo standardu MPEG-1 do postaci jednego strumienia. Jest to ważna funkcja, ponieważ po połączeniu w jeden strumień danych o postaci cyfrowej, obraz lepiej nadaje się do przechowywania lub przesyłania.
'''Strumienie podstawowe (ES – ''elementary streams'')''' to zakodowane strumienie bitów
Dodatkowo, podstawowe strumienie mogą być bardziej wydajne poprzez ich spakowanie, np. dzieląc je na niezależne kawałki i dodając do nich [[Suma kontrolna|sumę kontrolną]] ([[cykliczny kod nadmiarowy]], CRC – ''cyclic redundancy check''), dla każdego segmentu do wykrywania błędów. Taką strukturę nazywa się
'''SCR (''system clock reference'')''' jest wartością czasową przechowywaną w 33-bitowych nagłówkach każdego z elementarnych strumieni, przy częstotliwości/dokładność 90 kHz, z dodatkowym 9 -bitowym rozszerzeniem, które przechowuje dodatkowe dane czasu z dokładnością do 27 MHz. Te zakodowane wartości, pochodzą z [[Zegar systemowy|zegara systemowego]] (STC – ''system time clock''). Jednocześnie zakodowane strumienie audio i video nie mają identycznych wartości SCR.
Linia 27:
'''Czasowe znaczniki dekodowania (PTS – ''presentation time stamps'')''' istnieją w PS do poprawienia nieuniknionych rozbieżności między wartościami audio i wideo SCR. Wartość 90 kHz PTS w nagłówku PS przekazuje dekoderowi, jakie wartości audio SCR odpowiadają wartościom video SCR. PTS określa, kiedy wyświetlić odpowiednią część programu, a także jest wykorzystywany przez dekoder do określenia, kiedy mogą być wyrzucone dane z bufora .Każda część wideo lub audio może być opóźniona w dekodowaniu aż do momentu, gdy odpowiadający jej segment będzie gotowy do dekodowania.
'''Dekodowanie znaczników czasowych (DTS – ''decoding time stamps'')''' jest
'''Multipleksowanie'''. Do generowania strumieni programowych (PS), multiplekser przeplata (dwa lub więcej) pakiety elementarnych strumieni (ES). Dzieje się tak, gdy pakiety równoległych strumieni mogą być przekazane na tym samym kanale i mogą być zakodowane w dokładnie tym samym czasie.
== Część 2: 'Video' ==
'''Część 2''' określa kodowanie, które można wykorzystać do kompresji sekwencji wideo - zarówno 625
MPEG-1 wykorzystuje znane metody kompresji wideo do zredukowania ilości danych wymaganych przez strumień wideo. W pewnym stopniu zmniejszane są lub całkowicie usuwane określone częstotliwości i obszary obrazu takie, których ludzkie oko w pełni nie dostrzega
'''Kompresja barwy:'''
Linia 40:
Przed kodowaniem wideo MPEG-1, kolory zostają przekształcone na format '''Y'CbCr''' (Y '= Luma, Cb = Chroma Blue, Cr = Chroma Red). Luma (jasność, rozdzielczość) i chroma(kolor, barwa, faza) są przechowywane oddzielnie, a nawet podzielone na kolejne części (np. kolor na odcienie czerwone i niebieskie). Chroma jest również podzielona w skali 4 do 2 do 0 , co oznacza, że jest zmniejszana o połowę w pionie i o połowę w poziomie, do zaledwie jednej czwartej rozdzielczość wideo.
Ludzkie oko jest bardziej wrażliwe na niewielkie zmiany w jasności niż kolorze, dlatego próbkowanie chromy jest bardzo skutecznym sposobem na zmniejszenie ilości danych wideo które muszą być skompresowane(nie potrzeba aż tyle danych koloru, żeby oko postrzegało tą samą jakość obrazu). Przy obrazie wideo z doskonałym odwzorowaniem szczegółów (o wysokiej złożoności przestrzennej ) może
Y'CbCr jest często błędnie nazywane YUV, która to nazwa dotyczy tylko niektórych analogowych sygnałów wideo.
'''Przepustowość binarna i rozdzielczość:'''
MPEG-1 obsługuje rozdzielczość do 4095 × 4095 (12-bitów) i strumień binarny do 100 Mbit / s. Standard ten jest
'''Typy klatek / typy bloków:'''
Linia 54:
Klatki typu I mogą być dekodowane niezależnie od innych klatek i są zwane jako '''Intra-frames'''. Klatki typu I można uważać za identyczne z podstawą formatu zdjęć '''JPEG'''. Szybkie przeszukiwanie video MPEG-1 jest możliwe jedynie z dokładnością do najbliższej klatki typu I .
Jeśli brać pod uwagę tylko kompresję klatki typu I są bardzo szybkie, jednak tworzą bardzo duże rozmiary plików,
Długości pomiędzy klatkami typu I znane są jako wielkość '''GOP (Group of pictures)'''.
MPEG-1 przeważnie używa GOP wielkości rzędu 15-18.
Linia 72:
'''D-frames:'''
MPEG-1 posiada unikatowy typ klatki, która nie występuje w późniejszych standardach wideo. Nazywane również obrazkami DC ('''DC-pictures''') są niezależne od zdjęcia (intra-frames), które zostały zakodowane tylko dla DC. Klatki typu D
'''Makrobloki:'''
Linia 87:
Kilka kroków w kodowaniu video formatu MPEG-1 jest bezstratnych, co oznacza, że po odkodowaniu powrócą do tych samych wartości jak sprzed kodowania. Takie bezstratne kodowanie bez dodawania dźwięku nazywa się cichym kodowaniem. W teorii kodowanie entropii, zakłada usunięcie jak największej możliwości nadmiaru informacji przy kompresji bezstratnej.
'''RLE (Run-length encoding)'''
Informacja o wektorach ruchu i współczynnikach DCT jest kodowana '''kodem Huffmana'''. Wartości bardzo prawdopodobne są reprezentowane przez krótsze ciągi zer i jedynek, a mało prawdopodobne - przez dłuższe ciągi.
Linia 106:
; Warstwa I (Layer I)
Warstwa pierwsza standardu MPEG-1 to po prostu uproszczona warstwa II.
; Warstwa II (Layer II)
Linia 118:
== Część 4: 'Testy zgodności' ==
Część 4 ma na celu sprawdzenie, czy strumienie bitowe dekoderów spełniają wymogi określone w części 1, 2 i 3
* producentów koderów i ich klientów, w celu sprawdzenia, czy koder produkuje poprawny strumień bitów.
* producentów dekoderów i ich klientów do sprawdzenia, czy dekoder spełnia wymogi określone w części 1,2 i 3 standardu MPEG-1
Linia 124:
== Część 5: 'Oprogramowanie referencyjne' ==
Część 5
== Zobacz też ==
|