Página 1 dos resultados de 4312 itens digitais encontrados em 0.027 segundos

Desenvolvimento de software de apoio ao projeto de arranjo físico de fábrica baseado em um framework orientado a objeto ; Facilities layout support system development based on an object-oriented application framework

Tiberti, Alexandre José
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 14/04/2004 PT
Relevância na Pesquisa
35.88%
Nas últimas quatro décadas, métodos e algoritmos para análise e formação de arranjos físicos de máquinas, equipamentos, departamentos e serviços auxiliares vêm sendo desenvolvidos para reduzir o fluxo de materiais e o deslocamento de pessoal entre eles, objetivando diminuir custos e aumentar a eficiência do sistema produtivo. Diversos autores têm proposto algoritmos e ferramentas computacionais para aumentar a produtividade do projetista de arranjo físico, mas todos focam em um determinado conjunto de algoritmos, método, ou tipo de arranjo físico. Neste contexto, este trabalho de pesquisa buscou desenvolver um software que atue em um escopo mais amplo que o dessas ferramentas computacionais. A partir de uma estrutura baseada em um framework de aplicação orientado a objeto, o software proposto é capaz de suportar a introdução de novos métodos, algoritmos e ferramentas gráficas para análise e formação dos diversos tipos de arranjos físicos existentes, à medida que estes forem necessários, sem sofrer modificações ou gerar alterações significativas em seu código fonte. Isso permite ao desenvolvedor adaptar facilmente o software proposto às necessidades de um projeto de arranjo físico; In the last four decades...

Experimentação e testes para o desenvolvimento de novos produtos financeiros.; Tests and experimentation for development of new financial products.

Abensur, Eder de Oliveira
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 18/10/2006 PT
Relevância na Pesquisa
35.97%
A experimentação e testes com o uso de protótipos físicos ou simulação em computadores é uma prática utilizada para o desenvolvimento de diversos produtos industriais. As indústrias aeronáutica, automobilística, mecânica, naval, petrolífera e microeletrônica, entre outras, há muito empregam uma ou ambas as técnicas citadas. No entanto, inexistem referências ou estudos sobre a aplicação prática e conceitual desse assunto dentro do ambiente bancário mundial. O propósito desta pesquisa é descrever e interpretar os modos de experimentação empregados atualmente para a formação de fundos de investimento no mercado financeiro brasileiro e propor novos procedimentos para o seu desenvolvimento em analogia ao processo industrial. A metodologia proposta foi demonstrada com a utilização de dados reais levantados durante quatro anos no mercado financeiro para o desenvolvimento de um fundo aberto referenciado DI fictício simulados com o auxílio de técnicas de Dinâmica de Sistemas e de Inteligência Artificial. Os resultados reforçam as possibilidades de analogia entre o desenvolvimento de produtos industriais tangíveis e serviços intangíveis, quebrando paradigmas e propondo novos conceitos sob uma ótica renovadora para o desenvolvimento de produtos financeiros. O problema de otimização apresentado representa um novo campo de aplicação para o uso integrado de Dinâmica de Sistemas com algoritmos inteligentes...

Estruturas de dados eficientes para algoritmos evolutivos aplicados a projeto de redes; Efficient Data Structures to Evolutionary Algorithms Applied to Network Design Problems.

Soares, Telma Woerle de Lima
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 22/05/2009 PT
Relevância na Pesquisa
35.88%
Problemas de projeto de redes (PPRs) são muito importantes uma vez que envolvem uma série de aplicações em áreas da engenharia e ciências. Para solucionar as limitações de algoritmos convencionais para PPRs que envolvem redes complexas do mundo real (em geral modeladas por grafos completos ou mesmo esparsos de larga-escala), heurísticas, como os algoritmos evolutivos (EAs), têm sido investigadas. Trabalhos recentes têm mostrado que estruturas de dados adequadas podem melhorar significativamente o desempenho de EAs para PPRs. Uma dessas estruturas de dados é a representação nó-profundidade (NDE, do inglês Node-depth Encoding). Em geral, a aplicação de EAs com a NDE tem apresentado resultados relevantes para PPRs de larga-escala. Este trabalho investiga o desenvolvimento de uma nova representação, baseada na NDE, chamada representação nó-profundidade-grau (NDDE, do inglês Node-depth-degree Encoding). A NDDE é composta por melhorias nos operadores existentes da NDE e pelo desenvolvimento de novos operadores de reprodução possibilitando a recombinação de soluções. Nesse sentido, desenvolveu-se um operador de recombinação capaz de lidar com grafos não-completos e completos, chamado EHR (do inglês, Evolutionary History Recombination Operator). Foram também desenvolvidos operadores de recombinação que lidam somente com grafos completos...

Desenvolvimento de modelos e algoritmos sequenciais e paralelos para o planejamento da expansão de sistemas de transmissão de energia elétrica; Development of mathematical models, sequential and parallel algorithms for transmission expansion planning

Sousa, Aldir Silva
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 16/03/2012 PT
Relevância na Pesquisa
35.9%
O principal objetivo deste estudo é propor uma nova metodologia para lidar com o problema de Planejamento da Expansão de Redes de Transmissão de Energia Elétrica com Múltiplos Cenários de Geração (PERTEEG). Com a metodologia proposta neste trabalho almeja-se construir planos de expansão de redes de transmissão de energia elétrica que sejam capazes de, no menor custo de investimento possível, satisfazer às novas exigências dos sistemas elétricos modernos, tais como construção de redes de transmissão livres de congestionamento e robustas à incerteza em relação aos cenários de geração futuros. Através de estudos realizados na literatura do problema, verificou-se que novos modelos e metodologias de abordagem do PERTEEG se fazem necessários. Ao se modelar o PERTEEG visando construir redes de transmissão que contornem as incertezas em relação aos cenários de geração futuros e concomitantemente minimizar o custo de investimento para a expansão do sistema, o planejador se depara com um problema de otimização multiobjetivo. Existem na literatura da pesquisa operacional diversos algoritmos que visam lidar com problemas multiobjetivos. Nesta tese, foram aplicados dois desses algoritmos: Nondominated Sorting Genetic Algorithms-II (NSGA-II) e SPEA2: Strength Pareto Evolutionary Algorithm (SPEA2). Em primeira análise...

Algoritmos de estimação de distribuição baseados em árvores filogenéticas; Estimation of distribution algorithms based on phylogenetic trees

Soares, Antonio Helson Mineiro
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 27/06/2014 PT
Relevância na Pesquisa
35.89%
Algoritmos Evolutivos que utilizam modelos probabilísticos de distribuição dos valores das variáveis (para orientar o processo de busca da solução de problemas) são chamados Algoritmos de Estimação de Distribuição (AEDs). Esses algoritmos têm apresentado resultados relevantes para lidar com problemas relativamente complexos. O desempenho deles depende diretamente da qualidade dos modelos probabilísticos construídos que, por sua vez, dependem dos métodos de construção dos modelos. Os melhores modelos em geral são construídos por métodos computacionalmente complexos, resultando em AEDs que requerem tempo computacional alto, apesar de serem capazes de explorar menos pontos do espaço de busca para encontrar a solução de um problema. Este trabalho investiga modelos probabilísticos obtidos por algoritmos de reconstrução de filogenias, uma vez que alguns desses métodos podem produzir, de forma computacionalmente eficiente, modelos que representam bem as principais relações entre espécies (ou entre variáveis). Este trabalho propõe algumas estratégias para obter um melhor uso de modelos baseados em filogenia para o desenvolvimento de AEDs, dentre elas o emprego de um conjunto de filogenias em vez de apenas uma filogenia como modelo de correlação entre variáveis...

Análise formal da complexidade de algoritmos genéticos; Formal analysis of genetic algorithms complexity

Aguiar, Marilton Sanchotene de
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Dissertação Formato: application/pdf
POR
Relevância na Pesquisa
46.1%
O objetivo do trabalho é estudar a viabilidade de tratar problemas de otimização, considerados intratáveis, através de Algoritmos Genéticos, desenvolvendo critérios para a avaliação qualitativa de um Algoritmo Genético. Dentro deste tema, abordam-se estudos sobre complexidade, classes de problemas, análise e desenvolvimento de algoritmos e Algoritmos Genéticos, este ultimo sendo objeto central do estudo. Como produto do estudo deste tema, é proposto um método de desenvolvimento de Algoritmos Genéticos, utilizando todo o estudo formal de tipos de problemas, desenvolvimento de algoritmos aproximativos e análise da complexidade. O fato de um problema ser teoricamente resolvível por um computador não é suficiente para o problema ser na prática resolvível. Um problema é denominado tratável se no pior caso possui um algoritmo razoavelmente eficiente. E um algoritmo é dito razoavelmente eficiente quando existe um polinômio p tal que para qualquer entrada de tamanho n o algoritmo termina com no máximo p(n) passos [SZW 84]. Já que um polinômio pode ser de ordem bem alta, então um algoritmo de complexidade polinomial pode ser muito ineficiente. Genéticos é que se pode encontrar soluções aproximadas de problemas de grande complexidade computacional mediante um processo de evolução simulada[LAG 96]. Como produto do estudo deste tema...

Desenvolvimento algorítmico e arquitetural para a estimação de movimento na compressão de vídeo de alta definição; Algorithmic and architectural development for motion estimation on high definition video compression

Porto, Marcelo Schiavon
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Tese de Doutorado Formato: application/pdf
POR
Relevância na Pesquisa
36.08%
A compressão de vídeo é um tema extremamente relevante no cenário atual, principalmente devido ao crescimento significativo da utilização de vídeos digitais. Sem a compressão, é praticamente impossível enviar ou armazenar vídeos digitais devido à sua grande quantidade de informações, inviabilizando aplicações como televisão digital de alta definição, vídeo conferência, vídeo chamada para celulares etc. O problema vem se tornando maior com o crescimento de aplicações de vídeos de alta definição, onde a quantidade de informação é consideravelmente maior. Diversos padrões de compressão de vídeo foram desenvolvidos nos últimos anos, todos eles podem gerar grandes taxas de compressão. Os padrões de compressão de vídeo atuais obtêm a maior parte dos seus ganhos de compressão explorando a redundância temporal, através da estimação de movimento. No entanto, os algoritmos de estimação de movimento utilizados atualmente não consideram as variações nas características dos vídeos de alta definição. Neste trabalho uma avaliação da estimação de movimento em vídeos de alta definição é apresentada, demonstrando que algoritmos rápidos conhecidos, e largamente utilizados pela comunidade científica...

Environment for teaching and development of mobile robot systems

Alves, Silas; Rosário, João Maurício; Filho, Humberto Ferasoli; Pegoraro, Renê
Fonte: Universidade Estadual Paulista Publicador: Universidade Estadual Paulista
Tipo: Conferência ou Objeto de Conferência Formato: 302-307
ENG
Relevância na Pesquisa
35.88%
Using robots for teaching is one approach that has gathered good results on Middle-School, High-School and Universities. Robotics gives chance to experiment concepts of a broad range of disciplines, principally those from Engineering courses and Computer Science. However, there are not many kits that enables the use of robotics in classroom. This article describes the methodologies to implement tools which serves as test beds for the use of robotics to teach Computer Science and Engineering. Therefore, it proposes the development of a flexible, low cost hardware to integrate sensors and control actuators commonly found on mobile robots, the development of a mobile robot device whose sensors and actuators allows the experimentation of different concepts, and an environment for the implementation of control algorithms through a computer network. This paper describes each one of these tools and discusses the implementation issues and future works. © 2010 IEEE.

Algoritmos relax-and-cut para problemas de programação inteira 0-1; Relax-and-cut algorithms for 0-1 integer programming problems

Victor Fernandes Cavalcante
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 31/07/2008 PT
Relevância na Pesquisa
35.88%
Uma das principais motivações para o estudo de Otimização Discreta reside no elevado número de problemas do nosso cotidiano representáveis através de modelos de Otimização Inteira e Combinatória. Em particular, muitos destes problemas podem ser formulados com Programação Inteira 0-1, o que desperta especial interesse em técnicas capazes de resolver tais modelos. Dentre as inúmeras formas de solução atualmente disponíveis para problemas desta natureza, os algoritmos baseados na técnica de relaxação Lagrangiana surgem como uma alternativa que tem tido grande sucesso na prática. Além disso, avanços consideráveis ocorreram na área de Programação Inteira com o advento da Combinatória Poliédrica, intensificando o interesse pelos algoritmos de planos de corte. Neste contexto, esta tese tem como principal objetivo verificar as potencialidades do uso combinado de Combinatória Poliédrica e relaxação Lagrangiana na resolução de dois problemas de otimização combinatória. Mais especificamente, o presente trabalho esta focado no desenvolvimento dos chamados algoritmos relax-and-cut para o problema de particionamento de conjuntos e ao problema do separador de vértices de um grafo. Sendo assim, são propostos algoritmos que combinam relaxação Lagrangiana e planos de cortes faciais para os dois problemas sob consideração. Em ambos os casos...

Algoritmos de aproximação para problemas de empacotamento em faixa com restrições de descarregamento; Approximation algorithms for the strip packing problem with unloading constraints

Jefferson Luiz Moisés da Silveira
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 25/03/2011 PT
Relevância na Pesquisa
35.88%
Neste trabalho estudamos problemas de empacotamento com restrições de descarregamento considerados NP-difíceis. Estes problemas possuem aplicações nas áreas de logística e roteamento. Assumindo a hipótese de que P ? NP, sabemos que não existem algoritmos eficientes para resolver tais problemas. Uma das abordagens consideradas para tratar tais problemas é a de algoritmos de aproximação, que são algoritmos eficientes (complexidade de tempo polinomial) e que geram soluções com garantia de qualidade. Estudamos técnicas para o desenvolvimento de algoritmos aproximados e também alguns algoritmos para problemas de empacotamento online que podem ser utilizados na resolução do problema estudado. Propomos também algumas heurísticas para o problema e, além disto, provamos que duas destas heurísticas possuem garantias de aproximação com fatores constantes. Realizamos testes computacionais com estes algoritmos propostos. Dentre estes, a heurística GRASP foi a que obteve melhores resultados para as instâncias de teste consideradas.; In this work we study some NP-hard packing problems with unloading constraints. These problems have applications in logistics and routing problems. Assuming P ? NP, there are no efficient algorithms to solve these problems. On way to deal with these problems is using approximation algorithms...

Algoritmos evolutivos como método para desenvolvimento de projetos de arquitetura; Evolutionary algorithms as a method for developing architecture design

Jarryer Andrade de Martino
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 25/02/2015 PT
Relevância na Pesquisa
35.95%
O projeto de arquitetura é composto por diferentes variáveis que precisam ser constantemente negociadas, algumas delas envolvem situações contraditórias, aumentando a complexidade da solução do problema. Os algoritmos evolutivos correspondem a um conjunto de técnicas que contribuem para a solução desse tipo de problema, e que podem ser incorporados ao sistema generativo de projeto de maneira a potencializar a obtenção de melhores resultados. Para isso, foi necessário entender a teoria evolucionista e os seus principais mecanismos, a estruturação e a implementação dos algoritmos evolutivos no ambiente computacional, e a sistematização do processo de projeto como base para o desenvolvimento de um método evolutivo. Dessa forma, foi definido um quadro teórico composto pelos principais eventos e conceitos relacionados à teoria evolucionista, à computação evolutiva e à discussão na década de 1960 sobre a sistematização do processo de projeto como uma sequência operativa capaz de registrar o processo mental do projetista, e o método evolutivo de projeto de arquitetura, sendo apresentada a sua estrutura, os componentes e exemplos. Embora esse método tivesse sido implementado na arquitetura na década de 1960...

Development of a Single-Phase DSP based Power Quality Analyzer using New Signal Processing Algorithms for Detection and Classification

Radil, Tomas
Fonte: Universidade de Évora Publicador: Universidade de Évora
Tipo: Aula Formato: 740482 bytes; application/pdf
ENG
Relevância na Pesquisa
35.95%
In this paper, the development of a single-phase digital signal processor (DSP) based power quality analyzer is described. In this stage of development, special attention is devoted to the selection of the signal processing algorithms to be implemented in the prototype. The algorithms must be capable of efficiently detecting and classifying the large range of power quality disturbances that can vary immensely either in amplitude or duration. The broad range of disturbance types is also an important factor since different algorithms may be required for the detection of smaller classes of disturbances.

Developing novel prognostic biomarkers for multivariate fracture risk prediction algorithms

Poku, E.K.; Towler, M.R; Cummins, Niamh M; Newman, J.D.
Fonte: Springer-Verlag Publicador: Springer-Verlag
Tipo: info:eu-repo/semantics/article; all_ul_research; ul_published_reviewed
ENG
Relevância na Pesquisa
35.95%
peer-reviewed; Multivariate prediction algorithms such as FRAX® and QFractureScores provide an opportunity for new prognostic biomarkers to be developed and incorporated, potentially leading to better fracture prediction. As more research is conducted into these novel biomarkers, a number of factors need to be considered for their successful development for inclusion in these algorithms. This review paper describes two well-known multivariate prediction algorithms for osteoporosis fracture risk applicable to the UK population, FRAX and QFractureScores, and comments on the current prognostic tools available for fracture risk, dual x-ray assessment (DXA), quantitative ultrasound (QUS), genomic and biochemical markers and highlights the factors that need to be considered in the development of new biomarkers. These factors include the requirement for prospective data, collected in new cohort studies or using archived samples, the need for adequate stability data to be provided and appropriate storage methods to be used when retrospective data is required. AUC measures have been found to have limited utility in assessing the impact of the addition of new risk factors on the predictive performance multivariate algorithms. New performance evaluation measures...

Biologically Inspired Computing Algorithms: Relevance and Implications for Research Technologies

McCaulay, D. Scott
Fonte: Universidade de Indiana Publicador: Universidade de Indiana
Tipo: Relatório
EN_US
Relevância na Pesquisa
35.95%
PTI Technical Report PTI-TR12-003; The evolution of the cyberinfrastructure which supports scientific research in the US cannot be explained solely by observation of advances in computing hardware. Rather it represents a complex interaction among many factors, which include advances in hardware, but also include new opportunities in deployment options, new tools and protocols and advances in programming tools and techniques. It takes an unusual confluence of factors to prompt a significant number of user communities to simultaneously consider abandoning an established set of codes in favor of a potentially risky new development project. Many of the factors involved in these decisions are well understood and frequently discussed. The evolution of processor speeds, new types of processors, new deployment methods utilizing distributed or virtualized resources, the general movement in the focus of research technology away from intense computation and toward massive data; these are among the most common areas of discussion in HPC circles. Much less commonly discussed, and the topic of this paper, are the types of algorithms used in research applications. Specifically, we will look at the most frequently used HPC algorithms, along with a collection of bio-inspired computing algorithms which so far are not in routine use in HPC. Our questions are whether these bio-inspired algorithms...

Development of computational anisotropic hypoelastic- and hyperelastic-based models including nonlinear kinematic hardening; Desenvolvimento de modelos computacionais anisotrópicos baseados em hipoelasticidade e hiperelasticidade incluindo endurecimento cinemático não-linear

Grilo, Tiago Jordão
Fonte: Universidade de Aveiro Publicador: Universidade de Aveiro
Tipo: Tese de Doutorado
ENG
Relevância na Pesquisa
35.95%
In the present work, finite strain elastoplastic constitutive formulations suitable for advanced metallic materials are developed. The main goals are the correct description of the elastoplastic behaviour, including strong plastic anisotropy and cyclic hardening phenomena, in the large strain regime, as well as the development of numerically efficient algorithmic procedures for numerical implementation of the constitutive models into codes of numerical simulation by the Finite Element Method. Two different approaches are used in the derivation of the finite strain constitutive formulations, namely, hypoelasticity and hyperelasticity. On the one hand, regarding the hypoelastic-based model, particular attention is given to the development of computationally effcient forward- and backward-Euler algorithms considering distinct techniques. On the other hand, concerning the hyperelastic-based model, the focus is on the possibility of using any (quadratic or nonquadratic) yield criteria and on a new procedure that ensures that the anisotropy is correctly described in the finite strain regime. Moreover, the constitutive relations are solely expressed in the reference configuration, hence yielding symmetric tensor-valued quantities only. This symmetry...

Algoritmos paralelos para alocação e gerência de processadores em máquinas multiprocessadoras hipercúbicas; Parallel algorithms for processor allocation in hypercubes

De Rose, Cesar Augusto Fonticielha
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Dissertação Formato: application/pdf
POR
Relevância na Pesquisa
35.92%
Nos últimos anos, máquinas maciçamente paralelas, compostas de centenas de processadores, vem sendo estudadas como uma alternativa para a construção de supercomputadores. Neste novo conceito de processamento de dados, grandes velocidades são alcançadas através da cooperação entre os diversos elementos processadores na resolução de um problema. Grande parte das máquinas maciçamente paralelas encontradas no mercado utilizam-se da topologia hipercúbica para a interconexão de seus múltiplos processadores, ou podem ser configuradas como tal. Uma alternativa interessante para o compartilhamento da capacidade de processamento destas máquinas é sua utilização como computador agregado a uma rede, servindo a diversos usuários [DUT 91]. Desta forma, a máquina hipercúbica se comporta como um banco de processadores, que permite que cada usuário aloque parte de seus processadores para seu uso pessoal. Isto resulta em um aumento no desempenho da rede ao nível de supercomputadores com um custo relativamente baixo e viabiliza a construção de máquinas hipercúbicas com altas dimensões, evitando que estas sejam sub-utilizadas. Neste tipo de contexto, cabe ao sistema operacional atender as requisições dos usuários do hipercubo compartilhado de forma eficiente...

Semi-Streaming Algorithms for Annotated Graph Streams

Thaler, Justin
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Relevância na Pesquisa
35.93%
Considerable effort has been devoted to the development of streaming algorithms for analyzing massive graphs. Unfortunately, many results have been negative, establishing that a wide variety of problems require $\Omega(n^2)$ space to solve. One of the few bright spots has been the development of semi-streaming algorithms for a handful of graph problems -- these algorithms use space $O(n\cdot\text{polylog}(n))$. In the annotated data streaming model of Chakrabarti et al., a computationally limited client wants to compute some property of a massive input, but lacks the resources to store even a small fraction of the input, and hence cannot perform the desired computation locally. The client therefore accesses a powerful but untrusted service provider, who not only performs the requested computation, but also proves that the answer is correct. We put forth the notion of semi-streaming algorithms for annotated graph streams (semi-streaming annotation schemes for short). These are protocols in which both the client's space usage and the length of the proof are $O(n \cdot \text{polylog}(n))$. We give evidence that semi-streaming annotation schemes represent a substantially more robust solution concept than does the standard semi-streaming model. On the positive side...

New Developments in Quantum Algorithms

Ambainis, Andris
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 21/06/2010
Relevância na Pesquisa
35.88%
In this survey, we describe two recent developments in quantum algorithms. The first new development is a quantum algorithm for evaluating a Boolean formula consisting of AND and OR gates of size N in time O(\sqrt{N}). This provides quantum speedups for any problem that can be expressed via Boolean formulas. This result can be also extended to span problems, a generalization of Boolean formulas. This provides an optimal quantum algorithm for any Boolean function in the black-box query model. The second new development is a quantum algorithm for solving systems of linear equations. In contrast with traditional algorithms that run in time O(N^{2.37...}) where N is the size of the system, the quantum algorithm runs in time O(\log^c N). It outputs a quantum state describing the solution of the system.; Comment: 11 pages, 1 figure, to appear as an invited survey talk at MFCS'2010

Randomized algorithms for matrices and data

Mahoney, Michael W.
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Relevância na Pesquisa
35.88%
Randomized algorithms for very large matrix problems have received a great deal of attention in recent years. Much of this work was motivated by problems in large-scale data analysis, and this work was performed by individuals from many different research communities. This monograph will provide a detailed overview of recent work on the theory of randomized matrix algorithms as well as the application of those ideas to the solution of practical problems in large-scale data analysis. An emphasis will be placed on a few simple core ideas that underlie not only recent theoretical advances but also the usefulness of these tools in large-scale data applications. Crucial in this context is the connection with the concept of statistical leverage. This concept has long been used in statistical regression diagnostics to identify outliers; and it has recently proved crucial in the development of improved worst-case matrix algorithms that are also amenable to high-quality numerical implementation and that are useful to domain scientists. Randomized methods solve problems such as the linear least-squares problem and the low-rank matrix approximation problem by constructing and operating on a randomized sketch of the input matrix. Depending on the specifics of the situation...

Generation and Rendering of Interactive Ground Vegetation for Real-Time Testing and Validation of Computer Vision Algorithms

Hempe, Nico; Rossmann, Jürgen; Sondermann, Björn
Fonte: Universidade Autônoma de Barcelona Publicador: Universidade Autônoma de Barcelona
Tipo: Artigo de Revista Científica Formato: application/pdf
Publicado em //2013 ENG
Relevância na Pesquisa
35.92%
During the development process of new algorithms for computer vision applications, testing and evaluation in real outdoor environments is time-consuming and often difficult to realize. Thus, the use of artificial testing environments is a flexible and cost-efficient alternative. As a result, the development of new techniques for simulating natural, dynamic environments is essential for real-time virtual reality applications, which are commonly known as Virtual Testbeds. Since the first basic usage of Virtual Testbeds several years ago, the image quality of virtual environments has almost reached a level close to photorealism even in real-time due to new rendering approaches and increasing processing power of current graphics hardware. Because of that, Virtual Testbeds can recently be applied in application areas like computer vision, that strongly rely on realistic scene representations. The realistic rendering of natural outdoor scenes has become increasingly important in many application areas, but computer simulated scenes often differ considerably from real-world environments, especially regarding interactive ground vegetation. In this article, we introduce a novel ground vegetation rendering approach, that is capable of generating large scenes with realistic appearance and excellent performance. Our approach features wind animation...