Página 1 dos resultados de 77 itens digitais encontrados em 0.001 segundos

Um ambiente para exploração de paralelismo na programação em lógica; A environment to explotation of parallelism in the logic programming

Yamin, Adenauer Correa
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Dissertação Formato: application/pdf
POR
Relevância na Pesquisa
26.85%
Este trabalho e dedicado ao estudo da exploração de paralelismo na Programação em Lógica. O aspecto declarativo das linguagens de Programação em Lógica permite uma exploração eficiente do paralelismo implícito no código, de forma mais simples que as linguagens imperativas. Ao mesmo tempo, o paralelismo tem-se mostrado uma forte opção para procura de aumentos significativos do desempenho dos computadores. Como conseqüência, nos últimos anos, diversas maquinas paralelas tem surgido no mercado. No entanto, a sua efetiva utilização ainda ressente-se de uma dificuldade de programação maior que a das maquinas sequênciais. Por outro lado, o alto nível das linguagens de Programação em Lógica permite o desenvolvimento de programas de forma mais rápida e concisa do que as linguagens tradicionais (imperativas). Porem, apesar dos importantes progressos nas técnicas de compilação destas linguagens, elas permanecem menos eficientes que as linguagens imperativas. 0 aumento na eficiência de execução da Programação em Lógica, com o use do paralelismo, certamente estenderá o seu emprego. Em função disto, a unido da Programação em Lógica e maquinas paralelas tem sido proposta como uma alternativa para facilitar a programação das maquinas paralelas...

Integração da análise de granulosidade com paralelismo OU

Menezes, Fabio Borges; Vargas, Patricia Kayser; Silva, Denise Bandeira da; Geyer, Claudio Fernando Resin
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Conferência ou Objeto de Conferência Formato: application/pdf
POR
Relevância na Pesquisa
36.31%

A politica de informatica na educação brasileira : do nacionalismo ao neoliberalismo

Raquel de Almeida Moraes
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 28/11/1996 PT
Relevância na Pesquisa
36.86%
A presente tese de doutoramento compreende a análise histórica da política de informática na educação brasileira e as principais experiências conduzi das na rede pública de ensino de 10 e 20 graus até 1995. O estudo empreendido orientou-se metodologicamente pela abordagem dialéticomaterialista, inserindo criticamente o objeto de estudo nas inter-relações econômicas, políticas e sócio-culturais das quais é parte integrante. O material empírico foi obtido através de entrevistas, documentos e observação direta. A investigação histórica da política de informática na educação brasileira nos remeteu aos interesses dos militares no setor microeletrônico. Seu fortalecimento ocorreu a partir da década de setenta, quando a informática foi considerada uma das áreas estratégicas, um dentre outros cem projetos do Projeto "Brasil Grande Potência", da Doutrina de Segurança Nacional. Sua interseção com o setor educacional público teve o objetivo geral de capacitação dos recursos humanos, tanto em nível superior (graduação e pós graduação) como no ensino médio. Seus principais atores foram: militares, burguesia, tecnoburocratas e cientistas. Na década de oitenta tivemos uma pequena ação na educação básica e o ordenamento das ações no ensino superior. Somado a isso...

Algoritmos genéticos

Mole, Vilson Luiz Dalle
Fonte: Florianópolis, SC Publicador: Florianópolis, SC
Tipo: Dissertação de Mestrado Formato: 98 f.| il., tabs., grafs.
POR
Relevância na Pesquisa
26.43%
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação.; O trabalho desenvolvido consta da proposição, teste e análise de resultados, de uma estrutura de paralelização para algoritmos genéticos. A estrutura proposta está baseada em um conjunto de populações cooperantes que evoluem em paralelo, onde a troca de material genético, entre as populações, se processa através de indivíduos migrantes. A estrutura para implementação baseia-se na tecnologia de orientação a objetos, sendo que a mesma pressupõem a exploração do paralelismo de máquina através das redes de computador, bem como a exploração do paralelismo local - máquinas multiprocessadas - pela utilização de threads. O trabalho descreve os resultados obtidos com um protótipo construído para simular toda a estrutura proposta. Neste, o paralelismo de máquina foi simulado através de programação concorrente, com a utilização de threads. Os resultados obtidos demonstram a viabilidade da proposta e indicam a necessidade de novas pesquisas buscando testar a estrutura em modo real, sobre um ambiente distribuído.

Estudo sobre transparência de localização, nomeação e replicação em sistemas de gerência de banco de dados distribuídos

Giordani, Luiz Otávio
Fonte: Florianópolis, SC Publicador: Florianópolis, SC
Tipo: Dissertação de Mestrado Formato: xiv, 181 f.| il., tabs., grafs.
POR
Relevância na Pesquisa
26.32%
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação.; Os SGBDD - Sistemas de Gerência de Banco de Dados Distribuídos resultam da união de duas tecnologias: A tecnologia dos SGBDs - Sistemas de Gerência de Banco de Dados; e da tecnologia das Redes de Computadores. Um SGBD tem o objetivo de gerenciar o armazenamento e a recuperação dos dados, escondendo do usuário a forma com que os dados são armazenados e recuperados. As Redes de Computadores interligam computadores e periféricos, utilizando protocolos de comunicação. A arquitetura de informática composta por um ou mais servidores e por diversas estações de trabalho, interligadas por uma rede de computadores - local ou de longa distância, onde haja distribuição de dados, funções ou de contrôle entre os componentes, constitui um sistema distribuído. Esta arquitetura permite uma otimização do ambiente de informática, explorando a capacidade de comunicação e de processamento dos equipamentos e implementando paralelismo na execução de transações. Um ambiente de banco de dados distribuído é composto por um sistema distribuído, onde cada local tem seu software gerênciador de banco de dados que é responsável por uma ou mais base de dados locais. Os Sistemas de Gerência de Banco de Dados Distribuídos são aplicativos de software cujo objetivo é gerenciar estes ambientes...

Single operation multiple data - paralelismo de dados ao nível da sub-rotina

Marques, Eduardo Rafael da Silva Vieira Frederico
Fonte: Faculdade de Ciências e Tecnologia Publicador: Faculdade de Ciências e Tecnologia
Tipo: Dissertação de Mestrado
Publicado em //2012 POR
Relevância na Pesquisa
36.43%
Dissertação para obtenção do Grau de Mestre em Engenharia Informática; O advento dos processadores multi-core marcou o nascimento de uma nova era, em que se requer que as aplicações sejam concorrentes para que possam usufruir da natureza paralela do hardware. No entanto, esta mudança de paradigma na arquitectura dos processadores não foi acompanhada por alterações significativas nas linguagens de programação de uso generalizado. Obrigando frequentemente o programador a optar entre desempenho (com o recurso a computação paralela) e a produtividade no processo de desenvolvimento do software. Neste contexto, esta dissertação propõe a aplicação do paradigma de paralelismo de dados ao nível da sub-rotina. A invocação de uma sub-rotina dá origem a várias tarefas, cuja execução opera sobre partições distintas dos dados de entrada. A execução destas tarefas é delegada a uma pool de threads trabalhadores, que as executarão em paralelo, segundo uma variação do modelo de execução Single Program Multiple Data a que baptizámos como Single Operation Multiple Data. Este modelo é apresentado ao programador segundo o paradigma Distribute-Map-Reduce, em que os dados de entradas são particionados e submetidos às múltiplas instâncias da sub-rotina para execução paralela. Aos resultados parciais é posteriormente aplicada uma operação de redução para calcular o resultado final. A instanciação do modelo foi realizada como uma extensão à linguagem de programação Java...

Modelagem e validação de redes intrachip através de síntese comportamental

Disconzi, Rosana Perazzolo
Fonte: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre Publicador: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre
Tipo: Dissertação de Mestrado
PORTUGUêS
Relevância na Pesquisa
26.31%
A crescente demanda pela redução do time-to-market para SoCs (System-on-chip) leva a mudanças essenciais na maneira como esses sistemas são concebidos. Um dos componentes críticos em qualquer SoC é a arquitetura interna de comunicação entre módulos do sistema. Tradicionalmente, estas são implementadas como arquiteturas de comunicação baseadas em barramentos. Contudo, a medida que a complexidade de SoCs cresce com a evolução tecnológica, barramentos apresentam crescentes limitações com relação a escalabilidade, consumo de potência e paralelismo. Devido a estas limitações, estruturas do tipo redes intrachip ou NoCs (Networks-on-Chip) têm ganho crescente destaque como forma de permitir superar as limitações derivadas do uso de barramentos em SoCs. Tais redes ampliam o espaço de soluções de projeto de estruturas de comunicação intrachip e trazem como vantagem largura de banda escalável de forma mais sistemática, o uso de conexões ponto a ponto curtas com menor dissipação de potência e a capacidade de facilmente definir o grau de paralelismo da comunicação. O processo de projeto de NoCs tem sido alvo de esforços da indústria e do meio acadêmico e este trabalho contribui com a avaliação de um processo de projeto que está retomando força com ferramentas comerciais...

Uma arquitetura para suporte à mineração de dados paralela e distribuída em ambientes de computação de alto desempenho

Bernardi, Élder Francisco Fontana
Fonte: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre Publicador: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre
Tipo: Dissertação de Mestrado
PORTUGUêS
Relevância na Pesquisa
26.32%
Este trabalho apresenta uma arquitetura para suporte à execução de tarefas de mineração de dados em ambientes de computação de alto desempenho, tais como: clusters, máquinas SMP e grades. Esta arquitetura automatiza o processo de dimensionamento da aplicação paralela, criando ferramentas para a construção automática de tarefas, mapeamento, gerência e execução dessas aplicações nos recursos computacionais disponíveis. Os mecanismos criados para a execução de aplicações de mineração possibilitam a combinação do paralelismo do fluxo de dados e de instruções. Como contribuição do trabalho, destaca-se a organização da arquitetura proposta e a criação de um algoritmo para mapeamento de aplicações de mineração paralelas em ambientes computacionais heterogêneos. Enfatiza-se o suporte ao aproveitamento de recursos com múltiplos núcleos de processamento (multi-cores). Além disso, apresenta-se a paralelização de um algoritmo de mineração de dados para regressão.; In this paper, we present an architecture to support the execution of data mining applications on high performance computing environments such as clusters, SMP and grids. This architecture automates the process of parallel applications sizing...

Explorando programação híbrida no contexto de clusters de máquinas NUMA

Ribeiro, Neumar Silva
Fonte: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre Publicador: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre
Tipo: Dissertação de Mestrado
PORTUGUêS
Relevância na Pesquisa
26.31%
Normalmente, utiliza-se o paradigma de troca de mensagens quando se está programando uma arquitetura do tipo cluster. Porém, quando se deseja programar uma máquina multiprocessada, é requirido o paradigma de memória compartilhada. Recentemente, o surgimento de novas tecnologias possibilitou a criação de clusters com nós multiprocessados. Nestas arquiteturas os nós são compostos por mais de um processador ou core, e compartilham a mesma memória. Este cenário, cria a possibilidade de usar novos modelos de programação híbrida. No amplo espectro de soluções possíveis para o desenvolvimento de código híbrido para clusters de máquinas multiprocessadas, a utilização da dupla MPI e OpenMP está emergindo como um padrão de fato. A maioria dos códigos híbridos MPI e OpenMP são baseados em um modelo de estrutura hierárquica, que torna possível a exploração de grãos grandes e médios de paralelismo no nível de MPI, e grão fino no paralelismo no nível do OpenMP. O objetivo é claramente tirar vantagens das melhores características de ambos os paradigmas de programação. Os nós desses clusters podem ainda ser máquinas NUMA (Non- Uniform Memory Access). Estas máquinas com acesso não uniforme à memória possibilitam que o desenvolvedor explore afinidade de memória...

Método automático para descoberta de funções de ordenação utilizando programação genética paralela em GPU; Automatic raking function discovery method using parallel genetic programming on GPU

Coimbra, Andre Rodrigues
Fonte: Universidade Federal de Goiás; Brasil; UFG; Programa de Pós-graduação em Ciência da Computação (INF); Instituto de Informática - INF (RG) Publicador: Universidade Federal de Goiás; Brasil; UFG; Programa de Pós-graduação em Ciência da Computação (INF); Instituto de Informática - INF (RG)
Tipo: Dissertação Formato: application/pdf
POR
Relevância na Pesquisa
26.43%
Ranking functions have a vital role in the performance of information retrieval systems ensuring that documents more related to the user’s search need – represented as a query – are shown in the top results, preventing the user from having to examine a range of documents that are not really relevant. Therefore, this work uses Genetic Programming (GP), an Evolutionary Computation technique, to find ranking functions automaticaly and systematicaly. Moreover, in this project the technique of GP was developed following a strategy that exploits parallelism through graphics processing units. Other known methods in the context of information retrieval as classification committees and the Lazy strategy were combined with the proposed approach – called Finch. These combinations were only feasible due to the GP nature and the use of parallelism. The experimental results with the Finch, regarding the ranking functions quality, surpassed the results of several strategies known in the literature. Considering the time performance, significant gains were also achieved. The solution developed exploiting the parallelism spends around twenty times less time than the solution using only the central processing unit.; Funções de ordenação têm um papel vital no desempenho de sistemas de recuperação de informação garantindo que os documentos mais relacionados com o desejo do usuário – representado através de uma consulta – sejam trazidos no topo dos resultados...

Modelado y autooptimización de metaheurísticas e hiperheurísticas parametrizadas paralelas aplicadas a problemas de optimización en ciencias e ingeniería

Cutillas Lozano, José Matías
Fonte: Universidade de Múrcia Publicador: Universidade de Múrcia
Tipo: Tese de Doutorado Formato: application/pdf
SPA
Relevância na Pesquisa
26.56%
En este trabajo se estudia la aplicación de esquemas parametrizados paralelos de metaheurísticas e hiperheurísticas a problemas de optimización en ciencias e ingeniería. Un objetivo a conseguir es la aplicación eficiente de estos métodos, por lo que es necesario el uso de modelos que permitan su autooptimización durante la ejecución a través de la selección adecuada de parámetros característicos del sistema computacional y del paradigma de paralelismo empleado. La utilización de un esquema parametrizado de metaheurísticas permite aplicar fácilmente diferentes metaheurísticas a problemas de optimización, simplemente modificando algunos parámetros metaheurísticos. Además, puesto que muchos de estos problemas tienen una elevada carga computacional se hace indispensable la introducción de paralelismo en el esquema. Así, se consideran dos paradigmas que pueden ser complementarios: paralelismo local de memoria compartida y paralelismo global de paso de mensajes. El uso de algoritmos paralelos persigue un objetivo claro: la reducción del tiempo de ejecución, suponiendo un enfoque diferente para la resolución de los problemas de optimización. Debido a que obtener una buena metaheurística para un problema de optimización concreto puede ser un proceso costoso...

Platform for automatic parallelisation of sequential codes using dynamic graphs partitioning and based on user adaptable load balancing

Navarrete Navarrete, Carmen
Fonte: Universidade Autônoma de Madrid Publicador: Universidade Autônoma de Madrid
Tipo: Tese de Doutorado
ENG
Relevância na Pesquisa
36.23%
Tesis doctoral inédita. Universidad Autónoma de Madrid, Escuela Politécnica Superior, octubre de 2011

Sistema de ficheros paralelo escalable para entornos "cluster"

Sánchez García, Luis Miguel
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: info:eu-repo/semantics/doctoralThesis; info:eu-repo/semantics/doctoralThesis Formato: application/pdf
SPA
Relevância na Pesquisa
36.23%
En la actualidad, las aplicaciones utilizadas en los entornos de computación de altas prestaciones (como por ejemplo simulaciones científicas o las dedicadas a la extracción de datos (data-mining), manejan ingentes cantidades de información, por lo que necesitan enormes recursos de cómputo y memoria. Las arquitecturas cluster se han convertido en la solución más común para ejecutar este tipo de aplicationes. Destacan dos tipos: las construidas por la agregación de componentes heteogéneos y las basadas en el uso de recursos homogéneos. Las arquitecturas heterogéneas enfrentan a la problemática de combinar distintas tecnologías hardware y software, ésta reside en la dificultad de integrar diferentes sistemas de almacenamiento. Por otra parte, los grandes clusters lidian con el desequilibrio entre nodos de cómputo y de E/S del sistema de almacenamiento, ya que al ser mayor el número de nodos de cómputo, la E/S se convierte en un cuello de botella para las aplicaciones. Las soluciones actuales para superar las dificultades que muestran estas arquitecturas cluster con respecto la adaptación de los nodos con el fin de eliminar la heterogeneidad en el primer caso, y la utilización de sistemas de ficheros paralelos así como el incremento en la infraestructura del sistema de almacenamiento en el segundo. Estas tendencias tienen enormes costes económicos y temporales en la adaptación y configuración de la infraestructura de E/S. La presente tesis propone solucionar estos problemas...

Algoritmos paralelos para la resolución de ecuaciones diferenciales ordinarias mediante OpenMP

Arias, E.; Hernández, V.; Ibáñez, J. J.; Peralta, Juan
Fonte: Universidad Carlos III de Madrid, Departamento de Informática, Grupo ARCOS Publicador: Universidad Carlos III de Madrid, Departamento de Informática, Grupo ARCOS
Tipo: info:eu-repo/semantics/publishedVersion; info:eu-repo/semantics/conferenceObject; info:eu-repo/semantics/bookPart Formato: text/plain; application/pdf
Publicado em //2003 SPA
Relevância na Pesquisa
36.23%
En los últimos años está adquiriendo un gran auge el estudio de los métodos numéricos para la resolución Ecuaciones Diferenciales Ordinarias (ODE’s). Muchos de los métodos numéricos existentes se basan en la aproximación de un modelo continuo mediante un modelo discreto y el cálculo de una solución aproximada en un conjunto finito de puntos. En [1] se presenta una nueva aproximación al cálculo de ODE’s donde la principal aportación pasa por permitir una solución del problema independientemente de que el Jacobiano sea o no invertible. En el presente trabajo se presenta un nuevo algoritmo basado en [1] que permite la resolución de ODE’s. Además, se ha llevado a cabo una implementación paralela sobre arquitecturas de memoria compartida de dicho algoritmo. Tanto el algoritmo secuencial como el algoritmo paralelo desarrollado se han implementado utilizando librerías estándar tanto en el cómputo como en la comunicación en aras de obtener portabilidad, robustez y eficiencia.; Proceeding of: XIV Jornadas de Paralelismo, Leganés, Madrid (Spain), 15-17, septiembre, 2003

Diseño y evaluación de un complemento para refactorización paralela de código C usando OpenMP

Olmedo Camacho, Miguel
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: Trabalho de Conclusão de Curso Formato: application/pdf
SPA
Relevância na Pesquisa
36.47%
En este proyecto de fin de grado se ha desarrollado un complemento para el IDE Eclipse que servirá para facilitar a los desarrolladores de software el llevar a cabo la creación de aplicaciones que utilicen paralelismo a través de directivas OpenMP. Para ello, ha sido necesario aprender a utilizar la plataforma PDE que proporciona Eclipse para desarrollar complementos. Esta plataforma es muy importante ya que es la manera que tiene la comunidad de Eclipse de colaborar con el IDE y proporcionar nuevas funcionalidades a través de complementos. El complemento desarrollado dispondrá de una vista donde se podrán añadir ficheros que se quieran refactorizar en el futuro y de una serie de comandos que permitirán al usuario llevar a cabo la refactorización de ficheros de código fuente escritos en lenguaje C. El usuario podrá escoger entre dos modos de refactorización de manera que podrá personalizar algunos aspectos de la misma. Por otro lado se han analizado una gran cantidad de modelos de programación paralela actuales y se han visto las ventajas y desventajas de cada uno de ellos. El modelo de programación escogido para llevar a cabo la refactorización de ficheros ha sido OpenMP debido a su simplicidad y a que proporciona un gran aumento del rendimiento gracias a las directivas que dispone para ejecutar bucles de forma paralela. También se han estudiado los distintos patrones que existen para aprovechar el paralelismo en código secuencial y así sacar provecho del hardware actual. Por último se han redactado una serie de guías para facilitar al usuario la instalación y el uso del complemento desarrollado. También se muestra...

Optimización y evaluación del benchmark Parsec mediante Intel Array Building Blocks

Rodríguez Martos, Sergio
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: Trabalho de Conclusão de Curso Formato: application/pdf
SPA
Relevância na Pesquisa
36.23%
Este Trabajo Fin de Grado pretende presentar Intel Array Building Blocks como una nueva alternativa a los modelos de programación paralela existentes en arquitecturas de memoria compartida. Para ello, se han evaluado las trece aplicaciones contenidas en el benchmark PARSEC, analizando cuales de ellas podrían ofrecer un buen rendimiento. Con el fin de aplicar esta nueva tecnología se han seleccionados dos de los programas del benchmark, Blackscholes y Fluidanimate. El desarrollo se ha realizado en C++ a partir de los códigos secuenciales de las aplicaciones. Intel Array Building Blocks es una biblioteca basada en el lenguaje C++ que proporciona paralelismo de datos mediante la combinación de varios núcleos e instrucciones vectoriales en arquitecturas multicore. ArBB está orientado a la optimización de operaciones matriciales y vectoriales. El benchmark PARSEC ha sido concebido con fines tanto académicos como científicos y ofrece un conjunto de aplicaciones para arquitecturas de memoria compartida. Estas aplicaciones, de ámbito muy diverso, han sido paralelizadas previamente con tecnologías conocidas como Pthreads, OpenMP o Intel TBB. Blackscholes se basa en la resolución de una conocida ecuación del ámbito financiero mediante la realización de cálculos intensivos de operaciones matemáticas. La optimización de esta aplicación se ha realizado utilizando íntegramente Intel Array Building Blocks. Fluidanimate se encarga de simular la dinámica del movimiento de un fluido. Esta aplicación de animación ha sido paralelizada con Intel ArBB junto con Intel TBB debido a las características específicas del algoritmo y las restricciones impuestas en Array Building Blocks. La evaluación del rendimiento de las dos aplicaciones paralelizadas se ha realizado sobre un computador con 8 hilos de ejecución y memoria uniforme (UMA) y un computador con 48 hilos de ejecución y memoria no uniforme (NUMA). Una vez paralelizada la aplicación...

Diseño de un framework de procesamiento de información y su aplicación real a la fusión de datos

González Pérez, Borja
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: Trabalho de Conclusão de Curso
SPA
Relevância na Pesquisa
36.23%
El objetivo principal es analizar, diseñar e implementar un framework de procesado de los datos de la forma más genérica posible, permitiendo así, que pueda aplicarse a problemas reales en el que el requisito fundamental, sea el procesado de los datos. Además, se tendrá en consideración, las posibilidades de ofrecer un paralelismo, para permitir maximizar el rendimiento de los sistemas a implementar con este framework. Con este fin, se creará el framework totalmente modular, lo que permitirá una gran variedad de configuraciones, consiguiendo de esta manera, ajustarse a diferentes problemas. Así mismo, se plantean otra serie de objetivos, que consistirán en desarrollar un prototipo de un fusionador Radar-AIS completamente basado en el framework diseñado.

Library-based solutions for algorithms with complex patterns of parallelism

González Vázquez, Carlos Hugo
Fonte: Universidade da Corunha Publicador: Universidade da Corunha
Tipo: Tese de Doutorado
ENG
Relevância na Pesquisa
36.43%
[Resumen] Con la llegada de los procesadores multinúucleo y la caída del crecimiento de la capacidad de procesamiento por núcleo en cada nueva generación, la paralelización es cada vez más crítica para mejorar el rendimiento de todo tipo de aplicaciones. Por otra parte, si bien hay un buen conocimiento y soporte de los patrones de paralelismo más sencillos, esto no es así para los patrones complejos e irregulares, cuya paralelización requiere o bien herramientas de bajo nivel que afectan negativamente a la productividad, o bien soluciones transaccionales con requisitos específicos de hardware o que implican grandes sobrecostes. El aumento del número de aplicaciones que exhiben estos patrones complejos hace que este sea un problema con importancia creciente. Esta tesis trata de mejorar la comprensión y el soporte de tres tipos de patrones complejos, mediante la identificación de abstracciones y semánticas claras que ayuden su paralelización en entornos de memoria compartida. El enfoque elegido fue la creación de librerías, ya que facilitan la reutilización de código, reducen los requisitos del compilador, y tienen una curva de aprendizaje relativamente corta. El lenguaje empleado para la implementación es C++...

Evaluación de plataformas de alto rendimiento para el descubrimiento de fármacos

Guerrero Hernández, Ginés David
Fonte: Universidade de Múrcia Publicador: Universidade de Múrcia
Tipo: Tese de Doutorado Formato: application/pdf
SPA
Relevância na Pesquisa
36.23%
En la primera década del siglo XXI, la ley de Moore, que ha guiado el desarrollo de procesadores en los últimos cincuenta años, fue puesta en entredicho por la comunidad científica. Esto fue debido principalmente a las limitaciones físicas del silicio que provocaron un cambio de tendencia en el desarrollo de procesadores, tomando como principal estandarte para este cambio el paralelismo. Esta transición ha situado a la programación (masivamente) paralela como la única manera de extraer el máximo rendimiento de las nuevas plataformas de consumo; siendo esto fundamental para abordar los retos científicos de la actualidad. Desafortunadamente, estos retos plantean problemas cuyas necesidades computacionales están fuera del alcance de una sola máquina. Simulaciones como las tratadas en esta Tesis Doctoral, necesitan escalar a grandes centros de cálculo, cuyos costes, sólo están al alcance de grandes instituciones y gobiernos. Sin embargo, la actual situación socio-económica obliga a la utilización eficiente de los recursos. Herramientas como la computación en la nube o voluntaria ofrecen una alternativa para aprovechar al máximo los recursos computacionales de una manera flexible, rápida, económica y respetuosa con el medio ambiente. En esta Tesis Doctoral evaluamos el actual paradigma de computación descrito anteriormente...

Estudo de viabilidade de paralelização de códigos de análise de dados em PROOF

Silva, Rafael Caldeira
Fonte: Universidade do Minho Publicador: Universidade do Minho
Tipo: Dissertação de Mestrado
Publicado em 18/12/2014 POR
Relevância na Pesquisa
26.43%
Dissertação de mestrado em Engenharia Informática; Esta dissertação surge no contexto das análises de dados gerados pelo LHC (Large Hadron Collider), do esperado crescimento do volume de dados produzidos depois da atualização de 2013-2014 e do atual paradigma pseudo-paralelo destas aplicações no LIP-Minho (Laboratório de Instrumentação e física experimental de Partículas, delegação Minho). O trabalho surgiu como um estudo da utilização do PROOF (Parallel ROOT Facilities) como plataforma para habilitar a extração automática de paralelismo nas aplicações de análises de dados do LIP-Minho. Na consideração que as análises em estudo têm uma estrutura semelhante que é susceptível de ser paralelizada, partimos de um caso de estudo para a familiarização e experimentação do ambiente PROOF. Face às dificuldades de adaptação da aplicação para utilização do sistema PROOF, desenvolvemos e testamos uma nova estrutura de classes, chamada event, que pode eliminar uma série de problemas na fase de desenvolvimento. Esta proposta é suportada por um gerador de código esqueleto de aplicações deste tipo, o makeEvent. Os testes efetuados comprovam a possibilidade de usar a estrutura event como alternativa à API TSelector...