Página 1 dos resultados de 10 itens digitais encontrados em 0.000 segundos

Algoritmos e desenvolvimento de arquitetura para codificação binária adaptativa ao contexto para o decodificador H.264/AVC; Algorithms and architecture design for context-adaptive binary arithmetic coder for the H.264/AVC decoder

Depra, Dieison Antonello
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Dissertação Formato: application/pdf
POR
Relevância na Pesquisa
28.77%
As inovações tecnológicas têm propiciado transformações nas formas de interação e, principalmente, na comunicação entre as pessoas. Os avanços nas áreas de tecnologia da informação e comunicações abriram novos horizontes para a criação de demandas até então não existentes. Nesse contexto, a utilização de vídeo digital de alta definição para aplicações de tempo real ganha ênfase. Entretanto, os desafios envolvidos na manipulação da quantidade de informações necessárias à sua representação, fomentam pesquisas na indústria e na academia para minimizar os impactos sobre a largura de banda necessária para transmissão e/ou no espaço para o seu armazenamento. Para enfrentar esses problemas diversos padrões de compressão de vídeo têm sido desenvolvidos sendo que, nesse aspecto, o padrão H.264/AVC é considerado o estado da arte. O padrão H.264/AVC introduz ganhos significativos na taxa de compressão, em relação a seus antecessores, porém esses ganhos vêem acompanhados pelo aumento na complexidade computacional das ferramentas aplicadas como, por exemplo, a Codificação Aritmética Binária Adaptativa ao Contexto (CABAC). A complexidade computacional relacionado ao padrão H.264/AVC é tal que torna impraticável sua execução em software (para operar em um processador de propósito geral...

Arquiteturas de hardware dedicadas para codificadores de vídeo H.264 : filtragem de efeitos de bloco e codificação aritmética binária adaptativa a contexto; Dedicated hardware architectures for h.64 video encoders – deblocking filter and context adaptive binary arithmetic coding

Rosa, Vagner Santos da
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Tese de Doutorado Formato: application/pdf
POR
Relevância na Pesquisa
28.56%
Novas arquiteturas de hardware desenvolvidas para blocos chave do padrão de codificação de vídeo ISO/IEC 14496-10 são discutidas, propostas, implementadas e validades nesta tese. Também chamado de H.264, AVC (Advanced Video Coder) ou MPEG-4 parte 10, o padrão é o estado da arte em codificação de vídeo, apresentando as mais altas taxas de compressão possíveis por um compressor de vídeo padronizado por organismos internacionais (ISO/IEC e ITU-T). O H.264 já passou por três revisões importantes: na primeira foram incluídos novos perfis, voltados para a extensão da fidelidade e aplicações profissionais, na segunda veio o suporte a escalabilidade (SVC – Scalable Video Coder). Uma terceira revisão suporta fontes de vídeo com múltiplas vistas (MVC – Multi-view Video Coder). Nesta tese são apresentadas arquiteturas para dois módulos do codificador H.264: o CABAC e o Filtro de Deblocagem (Deblocking Filter). O CABAC (Context-Adaptive Binary Arithmetic Coder) possui desafios importantes devido às dependências de dados de natureza bit-a-bit. Uma revisão das alternativas arquiteturais e uma solução específica para a codificação CABAC é apresentada nesta tese. O filtro de deblocagem também apresenta diversos desafios importantes para seu desenvolvimento e foi alvo de uma proposta arquitetural apresentada neste trabalho. Finalmente a arquitetura de uma plataforma de validação genérica para validar módulos desenvolvidos para o codificador e decodificador H.264 também é apresentada. Os módulos escolhidos estão de acordo com os demais trabalhos realizados pelo grupo de pesquisa da UFRGS...

Projeto da arquitetura de hardware para binarização e modelagem de contextos para o CABAC do padrão de compressão de vídeo H.264/AVC; Hardware architecture design for binarization and context modeling for CABAC of H.264/AVC video compression

Martins, André Luis Del Mestre
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Dissertação Formato: application/pdf
POR
Relevância na Pesquisa
28.91%
O codificador aritmético binário adaptativo ao contexto adotado (CABAC – Context-based Adaptive Binary Arithmetic Coding) pelo padrão H.264/AVC a partir de perfil Main é o estado-da-arte em termos de eficiência de taxa de bits. Entretanto, o CABAC ocupa 9.6% do tempo total de processamento e seu throughput é limitado pelas dependências de dados no nível de bit (LIN, 2010). Logo, atingir os requisitos de desempenho em tempo real nos níveis mais altos do padrão H.264/AVC se torna uma tarefa árdua em software, sendo necesário então, a aceleração do CABAC através de implementações em hardware. As arquiteturas de hardware encontradas na literatura para o CABAC focam no Codificador Aritmético Binário (BAE - Binary Arithmetic Encoder) enquanto que a Binarização e Modelagem de Contextos (BCM – Binarization and Context Modeling) fica em segundo plano ou nem é apresentada. O BCM e o BAE juntos constituem o CABAC. Esta dissertação descreve detalhadamente o conjunto de algoritmos que compõem o BCM do padrão H.264/AVC. Em seguida, o projeto de uma arquitetura de hardware específica para o BCM é apresentada. A solução proposta é descrita em VHDL e os resultados de síntese mostram que a arquitetura alcança desempenho suficiente...

Integração do CABAD ao decodificador de vídeo H.264/AVC para o SBTVD

Schmidt, Alonso Aymone de Almeida
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Trabalho de Conclusão de Curso Formato: application/pdf
POR
Relevância na Pesquisa
17.67%
Este trabalho apresenta a integração do CABAD (Context-based Adaptive Binary Arithmetic Decoder) ao decodificador de vídeo H.264/AVC em hardware para o Sistema Brasileiro de Televisão Digital. Na arquitetura do hardware, o CABAD é um submódulo do parser. Este é responsável por controlar o fluxo dos elementos sintáticos que devem ser decodificados para fornecer parâmetros que demais módulos do decodificador vídeo necessitam para atuar na reconstrução das imagens. Estes módulos são o MC (compensação de movimento), o Intra (predição espacial), a IQIT (transformada e quantização inversas) entre outros. A CABAC (Context-based Adaptive Binary Arithmetic Coding) comprime dados ao combinar codificação aritmética binária com um modelamento de contextos baseado em valores de elementos sintáticos próximos previamente codificados e em estatísticas locais, otimizando assim estimativas de probabilidades. O algoritmo do CABAD envolve essencialmente os processos de seleção de contextos, decodificação aritmética binária e de-binarização para obtenção de valores de elementos sintáticos. O módulo-alvo de integração exige um vetor de sinais de entrada para realizar os processos do algoritmo e um controle externo para sua inicialização...

Desenvolvimento de um decodificador de entropia CABAC em software para a TV Digital

Schmidt, Alonso Aymone de Almeida
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Conferência ou Objeto de Conferência Formato: application/pdf
POR
Relevância na Pesquisa
16.94%

Desenvolvimento da arquitetura dos codificadores de entropia adaptativos CAVLC e CABAC do padrão H.264/AVC; Integrated architecture development of CAVLC and CABAC context-adaptive entropy encoders for H.264/AVC

Thiele, Cristiano
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Dissertação Formato: application/pdf
POR
Relevância na Pesquisa
38.65%
Um codificador de entropia é responsável pela representação simbólica de dados de forma a representá-los com um menor número de bits. O H.264/AVC possui três codificadores de entropia: o Exponencial Golomb, o CAVLC que é o codificador de menor complexidade porém com um throughput maior de dados e o CABAC, com maior complexidade e com uma maior capacidade de compressão. A complexidade do codificador de entropia e a dependência dos dados sequenciais no bitstream original são os principais desafios para atender os requisitos de desempenho para compressão em tempo real. Por isso o desenvolvimento destas arquiteturas em hardware dedicado se faz necessário. Neste contexto, esta dissertação descreve os algoritmos que fazem parte da entropia do padrão H.264/AVC e as arquiteturas para estes codificadores entrópicos (Exponential Golomb, CAVLC e CABAC), além de uma arquitetura de hardware dedicada que integra todos estes a um montador final que atende às especificações da norma H.264/AVC. As arquiteturas foram escritas em VHDL e sintetizadas para dispositivos integrados FPGA. Em um dispositivo Virtex-5, este codificador de entropia completo suporta codificação de vídeos no nível 4.2 do padrão H.264/AVC (Full HD a 60 quadros por segundo). Esta arquitetura é a que apresenta o melhor desempenho de processamento dentre os melhores trabalhos relacionados...

Arquitetura dedicada para decodificação CABAC H.264/AVC em sistema em silício

Carvalho, José Porfírio Albuquerque de
Fonte: Universidade de Brasília Publicador: Universidade de Brasília
Tipo: Dissertação
POR
Relevância na Pesquisa
28.85%
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação; O padrão de codificação de vídeo ITU-T H.264/MPEG-4 Part 10 (Advanced Video Coding), publicado originalmente em 2003 pela equipe de especialistas do Joint Video Team (JVT), está presente em tecnologias como a Blu-Ray, HD-DVD e o Sistema de Televisão Digital Brasileira. Este padrão trouxe algumas melhorias quando comparada aos seus antecessores (MPEG-1, MPEG-2, MPEG-4, H.261 e H.263), entre elas, um inovador codificador entrópico baseado em codificação aritmética, chamado Contextbased Adaptive Binary Arithmetic Coding (CABAC). Tais melhorias trouxeram uma grande eficiência para o padrão, reduzindo em até 50% a taxa de bits (bit-rate) necessária para a transmissão de um mesmo vídeo codificado quando comparada com o padrão MPEG-4, com a penalização de ser mais complexo computacionalmente. A complexidade do processo CABAC é exemplificada por estudos prévios que relatam a necessidade de freqüência de clock superior a 100MHz para que um Processador Digital de Sinais (DSP) típico suporte, de forma dedicada, a implementação do decodificador CABAC para a decodificação em tempo-real de um vídeo com resolução D1 (720x480) a taxa de 30 frames/ segundo. O processo do (de)codificador CABAC é primordialmente seqüencial e para acelerar sua execução...

Practical Binary Adaptive Block Coder

Reznik, Yuriy A.
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 11/01/2007
Relevância na Pesquisa
16.94%
This paper describes design of a low-complexity algorithm for adaptive encoding/ decoding of binary sequences produced by memoryless sources. The algorithm implements universal block codes constructed for a set of contexts identified by the numbers of non-zero bits in previous bits in a sequence. We derive a precise formula for asymptotic redundancy of such codes, which refines previous well-known estimate by Krichevsky and Trofimov, and provide experimental verification of this result. In our experimental study we also compare our implementation with existing binary adaptive encoders, such as JBIG's Q-coder, and MPEG AVC (ITU-T H.264)'s CABAC algorithms.

Entropy Conserving Binarization Scheme for Video and Image Compression

Srivastava, Madhur
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 13/08/2014
Relevância na Pesquisa
16.94%
The paper presents a binarization scheme that converts non-binary data into a set of binary strings. At present, there are many binarization algorithms, but they are optimal for only specific probability distributions of the data source. Overcoming the problem, it is shown in this paper that the presented binarization scheme conserves the entropy of the original data having any probability distribution of $m$-ary source. The major advantages of this scheme are that it conserves entropy without the knowledge of the source and the probability distribution of the source symbols. The scheme has linear complexity in terms of the length of the input data. The binarization scheme can be implemented in Context-based Adaptive Binary Arithmetic Coding (CABAC) for video and image compression. It can also be utilized by various universal data compression algorithms that have high complexity in compressing non-binary data, and by binary data compression algorithms to optimally compress non-binary data.; Comment: 12 pages, 2 tables

Descripción del nuevo estándar de video H.264 y comparación de su eficiencia de codificación con otros estándares

Ochoa-Domínguez,H.de J.; Mireles-García,J.; Cota-Ruíz,J. de D.
Fonte: Facultad de Ingeniería, UNAM Publicador: Facultad de Ingeniería, UNAM
Tipo: Artigo de Revista Científica Formato: text/html
Publicado em 01/09/2007 ES
Relevância na Pesquisa
16.94%
Los estándares de video han sido desarrollados con el fin de satisfacer una amplia gama de aplicaciones, como son: el almacenamiento digital, transmisión y recepción de multimedia, CATV, DVD, video conferencia, indexado de multimedia, cinema digital, entre otras. Los estándares de video logran una alta compresión utilizando varios métodos que explotan las redundancias temporal y espacial. El nuevo estándar de video H.264/MPEG-4 parte 10, no sólo es eficiente para el almacenamiento de video, sino que también proporciona un alto rendimiento en compresión y es más robusto a errores de transmisión que sus antecesores MPEG-2, H.263 y MPEG-4 parte 2. El presente artículo describe al estándar H.264/MPEG-4 parte 10. Primero se describe el algoritmo de codificación y posteriormente se compara su eficiencia de la codificación contra otros estándares anteriores existentes. Las comparaciones demuestran que el H.264 tiene una eficiencia de codificación de aproximadamente 1.5 veces mayor, en cada secuencia de prueba, con relación a otros estándares.