MBA UFF

Document Sample
MBA UFF Powered By Docstoc
					                 MBA UFF


    TV Digital, Radiodifusão &
     Novas Mídias Com. Elet.


           Trabalho MPEG e H.264




Professor: José Raimundo Cristóvam Nascimento
Aluno: Brian Higgin
O Moving Picture Experts Group (MPEG) foi formado pela ISO (International Organization for
Standardization) para definir normas para a compressão de áudio e vídeo e transmissão.

Os padrões MPEG são constituídos de peças diferentes. Cada parte cobre um certo aspecto da
especificação geral. As normas também especificam Perfis e Níveis. Os perfis são destinados a
definir um conjunto de ferramentas que estão disponíveis, e os níveis definem o intervalo de valores
adequados para as propriedades associadas com eles. Alguns dos padrões MPEG aprovados foram
revistos por alterações posteriores e/ou novas edições. O MPEG padronizou os seguintes formatos
de compressão e normas complementares:


. MPEG-1 (1993): codificação de imagens em movimento e áudio para a mídia de
armazenamento digital de até cerca de 1,5 Mbit /s (ISO / IEC 11172). O primeiro padrão de
compressão MPEG de áudio e vídeo. Foi projetado basicamente para permitir imagens em
movimento e som serem codificados para o bitrate de um Compact Disc. É utilizado em Vídeo CD,
SVCD e pode ser usado para vídeo de baixa qualidade em DVD Video. Foi usado em serviços de
satélites de TV a cabo digitais antes do MPEG-2 tornar-se generalizado. Para cumprir a exigência
de low bits, o MPEG-1 reduz a resolução (downsamples) das imagens, bem como utiliza taxas de
imagem de apenas 24-30 Hz, resultando em uma qualidade moderada. Ela inclui o popular formato
de compressão de áudio Layer 3 (MP3).

       - O MPEG-1 possui 5 partes:

Parte 1: aborda o problema da combinação de um ou mais fluxos de dados a partir do vídeo e áudio
do padrão MPEG-1 com informações de tempo para formar um único fluxo. Esta é uma função
importante porque, quando combinados em um único fluxo, os dados são ajustados para o
armazenamento ou transmissão digitais.

Parte 2: especifica uma representação codificada que pode ser usada para comprimir sequências de
vídeo - tanto 625-linhas e 525 linhas - para bitrates em torno de 1,5 Mbit/s. Parte 2 foi desenvolvida
para operar principalmente mídias de armazenamento que oferecem uma taxa de transferência
contínua de cerca de 1,5 Mbit/s. No entanto, pode ser usada mais amplamente do que isso porque a
abordagem é genérica.

Várias técnicas são usadas para alcançar uma alta taxa de compressão. A primeira é selecionar uma
resolução espacial adequada para o sinal. O algoritmo então usa uma compensação baseada em
bloco de movimento para reduzir a redundância temporal. A compensação de movimento é usada
para a predição causal da imagem atual a partir uma imagem anterior, para a predição não-causal da
imagem atual de uma imagem por vir, ou para a predição intercalada a partir de imagens passadas e
futuras. O sinal de diferença, o erro de previsão, é ainda mais compactado usando a discrete cosine
transform – DCT (Transformação Discreta do Cosseno) para eliminar a correlação espacial e é
então quantizada. Finalmente, os vetores de movimento são combinados com as informações DCT,
e codificados usando códigos de comprimento variável.

Parte 3: especifica uma representação codificada que pode ser usada para comprimir sequências de
áudio - mono e estéreo. Amostras de entrada de áudio são alimentados no codificador. O
mapeamento cria uma representação filtrada e subsampleada (subsampled) do fluxo de entrada de
áudio. Um modelo psicoacústico cria um conjunto de dados para controlar o quantizador
(quantiser) e a codificação. O bloco de codificação e o quantizador criam um conjunto de
codificação de símbolos a partir de amostras da entrada (input) mapeada. O bloco 'frame packing'
monta o fluxo contínuo de dados reais a partir dos dados de saída dos outros blocos, e acrescenta
outras informações (correção de erros, por exemplo), se necessário.
Parte 4: especifica como os testes podem ser projetados para verificar se bitstreams e
decodificadores satisfazem os requisitos como especificados nas partes 1, 2 e 3 da norma MPEG-1.
Esses testes podem ser usados por:

        > fabricantes de codificadores, e seus clientes, para verificar se o codificador produz
       bitstreams válidos.
       > fabricantes de decodificadores e os seus clientes para verificar se o decodificador atende
       aos requisitos especificados nas partes 1, 2 e 3 da norma para as capacidades de
       descodificação reivindicados.
       > aplicações para verificar se as características de um dado bitstream satisfazem os
       requisitos das aplicações - por exemplo, se o tamanho da imagem codificada não excede o
       valor máximo permitido para a aplicação.

Parte 5: tecnicamente não é um padrão, mas um relatório técnico que dá uma implementação de
software completo das três primeiras partes do padrão MPEG-1. O código fonte não está disponível
publicamente.


. MPEG-2 (1995): codificação genérica de informação de imagens em movimento e áudios
associados. (ISO / IEC 13818)
Transporte de padrões áudio e vídeo para transmissão de televisão de qualidade. O padrão MPEG-2
foi consideravelmente mais amplo e de grande apelo - viabilizar entrelaçamento e alta definição. O
MPEG-2 é considerado importante porque foi escolhido como o esquema de compressão para over-
the-air de televisão digital ATSC, DVB e ISDB, serviços de satélite de TV digital como a Dish
Network, os sinais de televisão digital por cabo, SVCD, DVD e Blu-ray .

       - O MPEG-2 possui 9 partes:

Parte 1: aborda a combinação de um ou mais fluxos elementares de áudio e vídeo bem como outros
dados em fluxos únicos ou múltiplos, que são adequados para o armazenamento ou transmissão.
Isso é especificado de duas formas: Program Stream (corrente do programa) e Transport Stream
(fluxo de transporte). Cada um é otimizado para um conjunto diferente de aplicativos.

O Program Stream é semelhante aos Sistemas Multiplex MPEG-1. É o resultado da combinação de
um ou mais Packetised Elementary Streams – PES (dividisor em pacotes em fluxos elementares),
que têm uma base comum de tempo, em um fluxo único. O Program Stream é projetado para uso
em ambientes relativamente livres de erro e é adequado para aplicações que podem envolver
tratamento de software. Pacotes de Program Stream podem ser de comprimento variável e
relativamente grande.

O Transport Stream combina um ou mais Packetized Elementary Streams (PES), com uma ou mais
bases de tempo independentes em um único fluxo. Fluxos elementares compartilhando uma base de
tempo comum de um programa. O Transport Stream é projetado para uso em ambientes onde os
erros são prováveis, como o armazenamento ou transmissão em mídias com perdas ou ruído.
Pacotes Transport Stream são de 188 bytes.

Parte 2: baseia-se na poderosa capacidade de compressão de vídeo da norma MPEG-1 para
oferecer uma ampla gama de ferramentas de codificação. Estas foram agrupadas em perfis para
oferecer funcionalidades diferentes. Apenas as combinações marcadas com um "X" são
reconhecidos pela norma.
Desde a aprovação final do MPEG-2, em Novembro de 1994, um perfil adicional tem sido
desenvolvido. Este usa ferramentas existentes da codificação MPEG-2, mas é capaz de lidar com
imagens com uma resolução de cor de 4:2:2 e uma maior taxa de bits. Apesar do MPEG-2 não ter
sido desenvolvido tendo em mente aplicações de estúdio, um conjunto de testes, realizados pelo
MPEG, confirmou que o MPEG-2 era pelo menos bom, e em muitos casos, até melhor do que
normas ou especificações desenvolvidas para bitrate alto ou aplicações em estúdio.

(O perfil 4:2:2 foi finalmente aprovado em janeiro de 1996 e é agora uma parte integrante do
MPEG-2.)

O Multiview Profile (MVP) é um perfil adicional sendo atualmente desenvolvido. Ao usar
ferramentas de codificação de vídeo existentes no MPEG-2, é possível codificar de forma eficiente
sequências de tow video emitidas a partir de duas câmeras filmando a mesma cena com um pequeno
ângulo entre eles.

Parte 3: é uma extensão multicanal retroativamente compatível com a norma de áudio do MPEG-1.

Parte 4 e 5: correspondem a parte 4 e 5 do MPEG-1. Elas foram aprovados em março de 1996.

Parte 6: Digital Storage Media Command and Control (DSM-CC): é a especificação de um
conjunto de protocolos que fornece as funções de controle e operações específicas para a
manutenção do fluxo de bits do MPEG-1 e MPEG-2. Estes protocolos podem ser usados para dar
suporte a aplicativos tanto em ambientes stand-alone como de redes heterogêneas. No modelo
DSM-CC, um fluxo é originado por um servidor e entregue a um cliente. Tanto o servidor como o
cliente são considerados usuários da rede DSM-CC. DSM-CC define uma entidade lógica chamada
de Session and Resource Manager (SRM), que prevê uma gestão centralizada (logicamente) da
Session and Resource Manager (SRM) do DSM-CC.

Parte 7: é a especificação de um algoritmo de codificação de áudio multicanal não restrita a ser
retroativamente compatível com áudio MPEG-1. A norma foi aprovada em abril de 1997.

Parte 8: foi originalmente planejada para a codificação de vídeo quando as amostras de entrada são
de 10 bits. Os trabalhos sobre esta parte foram interrompidos quando se tornou evidente que não
havia interesse suficiente por parte da indústria para tal norma.

Parte 9: é a especificação do Real-Time Interface (RTI) para descodificadores de Transport Stream
que pode ser utilizada para a adaptação a todas as redes de transporte adequado que usem Transport
Streams.

Parte 10: é a parte de teste de conformidade da DSM-CC, em desenvolvimento.


. MPEG-4 (1998): Codificação de objetos áudio-visuais. (ISO/IEC 14496)
Utiliza mais ferramentas de codificação com uma complexidade adicional para obter taxas de
compressão mais elevadas do que o MPEG-2. Além de mais eficiência na codificação de vídeo, o
MPEG-4 se aproxima das aplicações de computação gráfica. Nos perfis mais complexos, o
decodificador do MPEG-4 torna-se um processador de rendering eficaz e o bitstream comprimido
descreve formas tridimensionais e textura de superfície. O MPEG-4 também fornece Intellectual
Property Management and Protection (IPMP), que oferece a facilidade de usar tecnologias
proprietárias para gerir e proteger conteúdos como a gestão de direitos digitais. Vários padrões de
vídeo de eficiência mais novos (mais recentes que o MPEG-2) estão incluídos, nomeadamente:
MPEG-4 Part 2 (ou Simple and Advanced Simple Profile).
MPEG-4 AVC (ou MPEG-4 Parte 10 ou H.264). MPEG-4 AVC pode ser usado em HD DVD e Blu-
ray, junto com VC-1 e MPEG-2.

. MPEG-7 (2002): interface de descrição de conteúdo Multimídia. (ISO / IEC 15938)
MPEG-7 é um padrão de descrição de conteúdo multimídia. Esta descrição será associada com o
conteúdo em si para permitir a rápida e eficiente procura de material que é de interesse para o
usuário. O MPEG-7 é formalmente chamado interface de descrição de conteúdo Multimídia
(Multimedia Content Description Interface). Assim, não é uma norma que lida com codificação de
fato de imagens em movimento e áudio, como MPEG-1, MPEG-2 e MPEG-4. Ele utiliza XML para
armazenar metadados e pode ser anexado ao timecode a fim de marcar eventos específicos, ou
sincronizar a letra de uma canção, por exemplo.

Ele foi projetado para padronizar:

       > um conjunto de Esquemas de Descrição (Description Schemes - DS) e Descritores
       (Descriptors - D)
       > uma linguagem para especificar esses esquemas, o chamado Descrição de Definição de
       > Língua ( Description Definition Language - DDL)
       > um sistema de codificação da descrição

A combinação de MPEG-4 e MPEG-7 tem sido chamada MPEG-47.

MPEG-7 pretende fornecer funcionalidade complementar aos padrões MPEG anteriores,
representando informações sobre o conteúdo, e não o conteúdo propriamente dito ("os bits sobre os
bits"). Esta funcionalidade é a padronização das descrições de conteúdo multimídia. O MPEG-7
pode ser usado independentemente dos outros padrões MPEG - a descrição pode até ser anexada a
um filme analógico. A representação que está definida no MPEG-4, ou seja, a representação dos
dados áudio-visuais em termos de objetos se adapta muito bem ao que será construído no padrão
MPEG-7. Essa representação é fundamental para o processo de categorização. Além disso, as
descrições MPEG-7 poderiam ser usadas para melhorar a funcionalidade dos padrões MPEG
anteriores. Com essas ferramentas, podemos construir uma Descrição MPEG-7 e implantá-la. De
acordo com o documento de requisitos:
"uma Descrição consiste de um esquema de Descrição (estrutura) e o conjunto de Descriptor Values
(instâncias) que descrevem os dados." Um Descriptor Value é "uma instanciação de um descritor
para um determinado conjunto de dados (ou subconjunto dele)." 80 padrões IEEE MultiMedia.
 Nem algoritmos de extração automática nem recursos de extração semi-automática estão dentro do
escopo da norma porque a sua padronização não é necessária para permitir a interoperabilidade.

          O MPEG-7 possui 12 partes


. MPEG-21 (2001): quadro Multimídia (MPEG-21). (ISO / IEC 21000)
MPEG descreve esse padrão como um framework multimídia e prevê a gestão e proteção da
propriedade intelectual.


O apetite por consumo de conteúdo e a acessibilidade da informação continua a aumentar a um
ritmo rápido. Dispositivos de acesso, com um grande conjunto de diferentes terminais e capacidades
de rede, continuam a evoluir, tendo um impacto crescente na vida das pessoas. Além disso, esses
dispositivos de acesso possuem a funcionalidade para serem usados em diferentes locais e
ambientes: em qualquer lugar e a qualquer hora. Seus usuários, no entanto, atualmente não têm
acesso a ferramentas para lidar eficientemente com todos os meandros deste novo contexto do uso
de multimídia.

Soluções com funcionalidades multimídia avançadas estão se tornando cada vez mais importantes a
medida que indivíduos estão produzindo mais e mais mídia digital, não só para uso profissional,
mas também para seu uso pessoal. Todos esses “provedores de conteúdo” têm muitas das mesmas
preocupações: gestão de conteúdo, re-destinação de conteúdo baseado no consumidor e as
capacidades do dispositivo, a proteção dos direitos, proteção contra acesso não
autorizado/modificação, a proteção da privacidade dos fornecedores e consumidores, etc

Estes desenvolvimentos estão empurrando os limites dos modelos de negócio existentes para o
comércio de bens físicos e requerem novos modelos para a distribuição e comercialização eletrônica
de conteúdos digitais. Por exemplo, está se tornando cada vez mais difícil para usuários legítimos
de conteúdo identificar e interpretar os diferentes direitos de propriedade intelectual que são
associados com os elementos dos conteúdos multimídia. Além disso, existem alguns usuários que
trocam conteúdo livremente desrespeitando os direitos associados ao conteúdo e os detentores
desses direitos não têm como impedi-los. As fronteiras entre a entrega de áudio (música e palavra
falada), junto com obras de arte (gráficos), texto (letra), vídeo (visual) e espaços sintéticos são cada
vez mais difusa. Novas soluções são necessárias para o acesso, a entrega, os processos de gestão e
proteção destes tipos de conteúdo de forma integrada e harmonizada, a serem implementadas de
uma forma que seja totalmente transparente para os diversos usuários de serviços multimídia.

A necessidade de soluções tecnológicas a estes desafios está motivando a iniciativa MPEG-21
Multimedia Framework que visa permitir a utilização transparente e aumentada de recursos
multimídia em uma ampla gama de redes e equipamentos.

MPEG-21 Framework Multimídia

Com base nas observações acima, o MPEG-21 visa a definir um quadro normativo aberto para
entrega e consumo de multimídia para uso de todos os intervenientes na cadeia de fornecimento e
consumo. Este quadro aberto abrirá mercado para os criadores de conteúdos, produtores,
distribuidores e prestadores de serviços, com igualdade de oportunidades no MPEG-21. Este será
também o benefício do consumidor de conteúdo, proporcionando-lhe acesso a uma grande
variedade de conteúdos de forma interoperável.

MPEG-21 é baseada em dois conceitos essenciais: a definição de uma unidade fundamental de
distribuição e de transação (o item Digital) e o conceito de usuários que interagem com itens
digitais. Os itens Digitais podem ser considerados o "o quê" do Quadro de Multimídia (por
exemplo, uma coleção de vídeos, um álbum de música) e os usuários podem ser considerados o
"quem" do Quadro de Multimídia.

O objetivo do MPEG-21 pode ser assim reformulado: definir a tecnologia necessária para apoiar os
usuários para trocar, acessar, consumir, comercializar e por sua vez manipular itens Digitais de uma
forma eficiente, transparente e interoperável.

Durante o processo de normalização do MPEG-21, convites de propostas baseados em pedidos têm
sido e continuarão a ser emitidas pelo MPEG. Eventualmente, as respostas aos convites resultam em
diferentes partes do padrão MPEG-21 (ou seja, ISO / IEC 21000-N), após intensa discussão,
consulta e esforços de harmonização entre os especialistas do MPEG, representantes da indústria e
de outros organismos de normalização.

O MPEG-21 identifica e define os mecanismos e elementos necessários para apoiar a cadeia de
produção de multimídia, como descrito acima, bem como as relações entre as operações
viabilizadas por eles. Dentro das partes do MPEG-21, esses elementos são elaborados pela
definição da sintaxe e semântica das suas características, como interfaces para os elementos.

Modelo de Usuário

O Relatório Técnico fixa os requisitos de utilização no âmbito da multimídia. Um Usuário é
qualquer entidade que interage com o ambiente MPEG-21 ou faz uso de um documento digital.
Usuários incluem indivíduos, consumidores, comunidades, organizações, empresas, grupos de
empresas, governos e outros organismos e iniciativas em todo o mundo. Usuários são identificados
especificamente por sua relação com o outro usuário para uma certa interação. De uma perspectiva
puramente técnica, o MPEG-21 não faz distinção entre um “provedor de conteúdo” e um
“consumidor”, ambos são usuários. Uma mesma entidade pode usar o conteúdo de várias maneiras
(publicar, emitir, consumir, etc), e assim todas as partes interagindo dentro de MPEG-21 são
classificados como Usuários. No entanto, um Usuário pode assumir direitos e responsabilidades
específicas ou mesmo exclusivas de acordo com a sua interação com outros Usuários no MPEG-21.

Em seu nível mais básico, o MPEG-21 fornece um quadro em que um Usuário interage com outro
Usuário e o objeto dessa interação é um item digital comumente chamado de conteúdo. Algumas
dessas interações estão criando conteúdo, fornecendo conteúdo, arquivando conteúdos, avaliando,
valorizando e entregando conteúdos, agregando conteúdos, fornecendo conteúdos, distribuindo
conteúdos, consumindo conteúdos, assinando conteúdos, facilitando as transações que ocorrem a
partir de alguma das situações acima, e regulando as operações que ocorrem em alguma das
situações acima. Qualquer um desses são "usos" do MPEG-21, e as partes envolvidas são Usuários.

Resumo dos Itens Digitais

Dentro de qualquer sistema (como o MPEG-21) que se propõe a facilitar uma ampla gama de ações
que envolvem “itens digitais”, existe uma necessidade de uma descrição muito precisa para definir
exatamente o que constitui um “item” deste tipo. É claro que há muitos tipos de conteúdo, e,
provavelmente, assim como muitas formas possíveis de descrevê-lo para refletir seu contexto de
utilização. Isso representa um grande desafio para estabelecer um modelo flexível e eficiente para
Itens Digitais que pode acomodar a miríade de formas que o conteúdo pode ter (e as novas formas
que assumirá no futuro). Esse modelo só é verdadeiramente útil se produz um formato que pode ser
usado para representar quisque Itens Digitais definidos no modelo de forma inequívoca e comunicá-
las, incluindo informações sobre eles, com sucesso.

Um Exemplo:

Considere uma simples web page como um Item Digital. Uma página web consiste tipicamente de
um documento HTML com "links" para vários arquivos de imagem (por exemplo, JPEG e GIF), e
possivelmente algumas informações de layout (por exemplo, folhas de estilos). Neste caso simples,
inspecionar o documento HTML e deduzir que este Item Digital consiste no próprio documento
HTML, além de todos os outros recursos de que depende, é um exercício eficiente.

Agora vamos modificar o exemplo para supor que a página web, contém uma lógica de script
personalizada (por exemplo, JavaScript, etc) para determinar o idioma de preferência do usuário
(entre um conjunto de opções predefinidas) e quer construir/exibir a página nessa língua, ou
reverter para uma escolha padrão se a tradução escolhida não está disponível.

O ponto-chave neste exemplo modificado é que a presença da lógica da linguagem acoberta a
questão exatamente do que constitui este Item Digital agora e como isso pode ser determinado sem
ambiguidades.
O primeiro problema é um fato determinante de todas as dependências. A adição do código de script
muda os "links" declarativas da página simples da web em links que podem ser (no caso geral),
determinados apenas pela execução do script incorporado em uma plataforma específica. Isso
poderia ainda funcionar como um método de deduzir a estrutura do documento digital, assumindo
que o autor pretende que cada versão traduzida da página web como sendo um Item Digital
diferente e separado.

Esta suposição destaca o segundo problema: é ambígua se o autor realmente pretende que cada
tradução da página seja um Item Digital autônomo, ou se a intenção é que o Item Digital consista da
página com a escolha de língua não resolvida. Se este for o caso, torna-se impossível deduzir o
conjunto exato de recursos de que consiste este Item Digital o que leva de volta para o primeiro
problema.




H.264/MPEG-4 AVC
H.264/MPEG-4 AVC é um padrão de compressão de vídeo. O trabalho final de redação sobre a
primeira versão da norma foi concluída em Maio de 2003.

H.264/AVC é o último padrão codec baseado em compensação de movimento de bloco-orientado
desenvolvido pela ITU-T Video Coding Experts Group (VCEG) juntamente com o ISO / IEC
Moving Picture Experts Group (MPEG), e foi o produto de um esforço de parceria conhecida como
Joint Video Team (JVT). O padrão ITU-T H.264 e ISO/IEC padrão MPEG-4 AVC (formalmente,
ISO/IEC 14496-10 - MPEG-4 Part 10, Advanced Video Coding) é mantida em conjunto para que
eles tenham conteúdo técnico idêntico. O H.264 é o mais popular para utilização em Blu-ray Disc,
HD DVD entre outros.

A intenção do projeto H.264/AVC era criar um padrão capaz de fornecer boa qualidade de vídeo,
substancialmente taxas menores do que os padrões anteriores (por exemplo, metade ou menos da
taxa de bits MPEG-2, H.263, ou MPEG-4 Parte 2), sem aumentar a complexidade do desenho de tal
forma que seria impraticável ou excessivamente caros de implementar. Um objetivo adicional era
fornecer flexibilidade suficiente para permitir que o padrão fosse aplicado a uma grande variedade
de aplicações em uma ampla variedade de redes e sistemas, incluindo taxas baixas e altas de bits,
vídeos de baixa e alta resolução, transmissão, armazenamento de DVD, redes de pacotes RTP/ IP e
sistemas multimídia de telefonia ITU-T.