Página 1 dos resultados de 66667 itens digitais encontrados em 0.045 segundos

Extensão da Ferramenta de Apoio à Programação Paralela (F.A.P.P.) para ambientes paralelos virtuais.; A parallel programming supporting tool extension for parallel virtual environments.

Jaquie, Kalinka Regina Lucas
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 30/03/1999 PT
Relevância na Pesquisa
36.38%
Os sistemas computacionais distribuídos aplicados à computação paralela permitem uma melhor relação custo/benefício para a computação paralela. Esses sistemas oferecem a potência computacional adequada às aplicações que não necessitam de uma máquina maciçamente paralela, porém necessitam de uma potência computacional maior que uma máquina seqüencial pode oferecer. P.V.M. (Parallel Virtual Machine) e M.P.I. (Message Passage Inteface) são exemplos de ambiente de paralelos virtuais amplamente discutido na literatura. Tendo em vista a grande utilização desses ambientes tanto em nível acadêmico quanto em níveis comerciais e industriais, torna-se interessante a criação de uma ferramenta que apoie o desenvolvimento de programas para esses ambientes. Poucas são as ferramentas desse tipo que aparecem na literatura; uma delas e que permite ser estendida para dar suporte a tais ambientes é a F.A.P.P. (Ferramenta de Apoio à Programação Paralela). Dentro desse contexto, este trabalho apresenta a modelagem dos ambientes paralelos virtuais segundo a abordagem proposta na definição da F.A.P.P., para que arcabouços de programas P.V.M. e M.P.I possam ser gerados. Essa ferramenta permite a utilização da computação paralela a um maior número de usuários...

OOPS - Object-Oriented Parallel System. Um framework de classes para a programação científica paralela; OOPS - Object-Oriented Parallel System. A class framework to support parallel scientific programming.

Sonoda, Eloiza Helena
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 23/03/2006 PT
Relevância na Pesquisa
36.37%
Neste trabalho foi realizado o projeto e o desenvolvimento do framework de classes OOPS - Object-Oriented Parallel System. Esta é uma ferramenta que utiliza orientação a objetos para apoiar a implementação de programas científicos concorrentes para execução paralela. O OOPS fornece abstrações de alto nível para que o programador da aplicação não se envolva diretamente com detalhes de implementação paralela, sem contudo ocultar completamente aspectos paralelos de projeto, como particionamento e distribuição dos dados, por questões de eficiência e de desempenho da aplicação. Para isso, o OOPS apresenta um conjunto de classes que permitem o encapsulamento de técnicas comumente encontradas em programação de sistemas paralelos. Utiliza o conceito de processadores virtuais organizados em grupos, aos quais podem ser aplicadas topologias que fornecem modos de comunicação entre os processadores virtuais, e contêineres podem ter seus elementos distribuídos por essas topologias, com componentes paralelos atuando sobre eles. A utilização das classes fornecidas pelo OOPS facilita a implementação do código sem adicionar sobrecarga significativa à aplicação paralela, representando uma camada fina sobre a biblioteca de passagem de mensagens usada.; This work describes the design and development of the OOPS (Object Oriented Parallel System) class framework...

A problemática dos procedimentos paralelos: os princípios da litispendência e da coisa julgada em arbitragem internacional; The issue of parallel proceedings: the principles of lis pendens and res judicata in international arbitration

Aymone, Priscila Knoll
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 07/06/2011 PT
Relevância na Pesquisa
36.37%
O presente trabalho tem por objeto o fenômeno dos procedimentos paralelos em arbitragem internacional, uma realidade decorrente do aumento dos fluxos econômicos e relações comerciais entre empresas originárias de diferentes países ou entre empresas e entes estatais originários de diferentes países. Essa multiplicidade de procedimentos se traduz na existência de duas arbitragens entre as mesmas partes, sobre a mesma relação jurídica e decorrente da mesma cláusula compromissória; de duas ou mais arbitragens relativas a um grupo de contratos, com diferentes cláusulas compromissórias, envolvendo as mesmas partes; ou ainda uma arbitragem e uma ação judiciais simultâneas relativas à mesma relação jurídica, entre as mesmas partes, decorrente de cláusula compromissória e cláusula de eleição de foro respectivamente. A arbitragem de investimento, sobretudo, é campo fértil para essa proliferação de procedimentos paralelos oriundos do mesmo investimento, envolvendo investidores diretos ou seus acionistas, com base em tratados bilaterais de investimento (TBIs) ou em contratos. Entretanto, sendo a arbitragem o mecanismo de solução de controvérsias comumente utilizado em contratos internacionais, surgem questões complexas para a regulação dessa problemática. A fim de sistematizar o estudo e responder às indagações sobre a maneira de solucionar e regular os efeitos negativos dos procedimentos paralelos (por exemplo...

Some visualization models applied to the analysis of parallel applications; Alguns modelos de visualização aplicados para a análise de aplicações paralelas; Quelques modèles de visualisation pour l’analyse des applications parallèles

Schnorr, Lucas Mello
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Tese de Doutorado Formato: application/pdf
ENG
Relevância na Pesquisa
36.35%
Sistemas distribuídos tais como grids são usados hoje para a execução de aplicações paralelas com um grande número de processos. Algumas características desses sistemas são a presença de uma complexa rede de interconexão e a escalabilidade de recursos. A complexidade de rede vem, por exemplo, de largura de banda e latências variáveis ao longo do tempo. Escalabilidade é a característica pela qual novos recursos podem ser adicionados em um grid apenas através da conexão em uma infraestrutura pré-existente. Estas características influenciam a forma como o desempenho de aplicações paralelas deve ser analisado. Esquemas tradicionais de visualização de desempenho são usualmente baseados em gráficos Gantt com uma dimensão para listar entidades monitoradas e outra para o tempo. Visualizações como essa não são apropriadas para a análise de aplicações paralelas executadas em grid. A primeira razão para tal é que elas não foram concebidas para oferecer ao desenvolvedor uma análise que mostra a topologia dos recursos e a relação disso com a aplicação. A segunda razão é que técnicas tradicionais não são escaláveis quando milhares de entidades monitoradas devem ser analisadas conjuntamente. Esta tese tenta resolver estes problemas encontrados em técnicas de visualização tradicionais para a análise de aplicações paralelas. A idéia principal consiste em explorar técnicas da área de visualização da informação e aplicá-las no contexto de análise de programas paralelos. Levando em conta isto...

Uma linguagem para especificação de fluxo de execução em aplicações paralelas; A specification language for execution flow in parallel applications

Cristina Enomoto
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 22/08/2005 PT
Relevância na Pesquisa
36.34%
Vários sistemas de grid e computação distribuída existentes só permitem a execução de aplicações com um fluxo de execução de tarefas básico, no qual é feita a distribuição das tarefas executadas em paralelo e depois a coleta de seus resultados. Outros sistemas permitem definir uma relação de dependências entre as tarefas, formando um grafo direcionado acíclico. Porém, mesmo com este modelo de fluxo de execução não é possível executar vários tipos de aplicações que poderiam ser paralelizadas, como, por exemplo, algoritmos genéticos e de cálculo numérico que utilizam algum tipo de processamento iterativo. Nesta dissertação é proposta uma linguagem de especificação para fluxo de execução de aplicações paralelas que permite um controle de fluxo de tarefas mais flexível, viabilizando desvios condicionais e laços com iterações controladas. A linguagem é baseada na notação XML (eXtensible Markup Language), o que lhe confere características importantes tais como flexibilidade e simplicidade. Para avaliar estas e outras características da linguagem proposta, foi feita uma implementação sobre o sistema de processamento paralelo JoiN. Além de viabilizar a criação e execução de novas aplicações paralelas cujos fluxos de tarefas contêm laços e/ou desvios condicionais...

Parallel graphics and visualization

Santos, Luís Paulo; Raffin, Bruno; Heirich, Alan
Fonte: Elsevier Publicador: Elsevier
Tipo: Artigo de Revista Científica
Publicado em /06/2007 ENG
Relevância na Pesquisa
36.35%
Computer graphics and visualization are very active fields of Computer Science, continuously producing new and exciting results. However, the demand for increasingly faster feedback together with the huge volume of data usually associated with these applications, result on growing computational requirements. An efficient utilization of a multiplicity of computational and visualization resources expedites data processing for image generation, thus enabling such requirements to be met. This special issue of Parallel Computing attends to a selection of six papers out of 21 published at the past 2006 Eurographics Symposium on Parallel Graphics and Visualization, which was held in May 2006 in Braga, Portugal. The Eurographics Symposium on Parallel Graphics and Visualization focuses on theoretical and applied research issues critical to parallel and distributed computing and its application to all aspects of computer graphics, virtual reality, scientific and engineering visualization. Parallel graphics and visualization has evolved dramatically in the last few years. While previous works focused on SIMD architectures and standard PC clusters, more recent research moved to large displays and visualization oriented cluster architectures...

Parallel graphics and visualization

Santos, Luís Paulo; Reiners, Dirk; Favre, Jean
Fonte: Elsevier Publicador: Elsevier
Tipo: Artigo de Revista Científica
Publicado em /02/2008 ENG
Relevância na Pesquisa
36.38%
Computer Graphics and Visualization are two fields that continue to evolve at a fast pace, always addressing new application areas and achieving better and faster results. The volume of data processed by such applications keeps getting larger and the illumination and light transport models used to generate pictorial representations of this data keep getting more sophisticated. Richer illumination and light transport models allow the generation of richer images that convey more information about the phenomenons or virtual worlds represented by the data and are more realistic and engaging to the user. The combination of large data sets, rich illumination models and large, sophisticated displays results in huge workloads that cannot be processed sequentially and still maintain acceptable response times. Parallel processing is thus an obvious approach to such problems, creating the field of Parallel Graphics and Visualization. The Eurographics Symposium on Parallel Graphics and Visualization (EGPGV) gathers together researchers from all over the world to foster research focused on theoretical and applied issues critical to parallel and distributed computing and its application to all aspects of computer graphics, virtual reality...

Price regulation and parallel imports of pharmaceuticals

Brekke, Kurt R; Holmas, Tor Helge; Straume, Odd Rune
Fonte: Universidade do Minho. Núcleo de Investigação em Políticas Económicas Publicador: Universidade do Minho. Núcleo de Investigação em Políticas Económicas
Tipo: Trabalho em Andamento
Publicado em //2014 ENG
Relevância na Pesquisa
36.34%
This paper studies the effects of price regulation and parallel imports in the onpatent pharmaceutical market. First, we develop a theory model in which a pharmacy negotiates producer prices with a brand-name firm and then sets retail prices. We show that the effects of price regulation crucially depend on whether the producer faces competition from parallel imports. While parallel imports improve the bargaining position of the pharmacy, price regulation counteracts this effect and may even be profitable for the producer. Second, we use a unique dataset with information on sales and prices at both producer and retail level for 165 substances over four years (2004-7). Exploiting exogenous variation in the regulated price caps, we show that stricter price regulation reduces competition from parallel imports. While the effect is clearly negative on producer profits for substances without parallel imports, the effect is not significant for substances with parallel imports. Finally, we show that stricter price regulation reduces total expenditures, but the effect is much stronger for substances with parallel import. Thus, our results suggest that price regulation may promote both static and dynamic efficiency in the presence of parallel imports.; COMPETE...

Parallel programming in biomedical signal processing

Chorão, Ricardo Daniel Domingos
Fonte: Faculdade de Ciências e Tecnologia Publicador: Faculdade de Ciências e Tecnologia
Tipo: Dissertação de Mestrado
Publicado em //2012 ENG
Relevância na Pesquisa
36.34%
Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica; Patients with neuromuscular and cardiorespiratory diseases need to be monitored continuously. This constant monitoring gives rise to huge amounts of multivariate data which need to be processed as soon as possible, so that their most relevant features can be extracted. The field of parallel processing, an area from the computational sciences, comes naturally as a way to provide an answer to this problem. For the parallel processing to succeed it is necessary to adapt the pre-existing signal processing algorithms to the modern architectures of computer systems with several processing units. In this work parallel processing techniques are applied to biosignals, connecting the area of computer science to the biomedical domain. Several considerations are made on how to design parallel algorithms for signal processing, following the data parallel paradigm. The emphasis is given to algorithm design, rather than the computing systems that execute these algorithms. Nonetheless, shared memory systems and distributed memory systems are mentioned in the present work. Two signal processing tools integrating some of the parallel programming concepts mentioned throughout this work were developed. These tools allow a fast and efficient analysis of long-term biosignals. The two kinds of analysis are focused on heart rate variability and breath frequency...

MATLAB*P 2.0: A unified parallel MATLAB

Choy, Ron; Edelman, Alan
Fonte: MIT - Massachusetts Institute of Technology Publicador: MIT - Massachusetts Institute of Technology
Tipo: Artigo de Revista Científica Formato: 423708 bytes; application/pdf
EN_US
Relevância na Pesquisa
36.34%
MATLAB is one of the most widely used mathematical computing environments in technical computing. It is an interactive environment that provides high performance computational routines and an easy-to-use, C-like scripting language. Mathworks, the company that develops MATLAB, currently does not provide a version of MATLAB that can utilize parallel computing. This has led to academic and commercial efforts outside Mathworks to build a parallel MATLAB, using a variety of approaches. In a survey, 26 parallel MATLAB projects utilizing four different approaches have been identified. MATLAB*P is one of the 26 projects. It makes use of the backend support approach. This approach provides parallelism to MATLAB programs by relaying MATLAB commands to a parallel backend. The main difference between MATLAB*P and other projects that make use of the same approach is in its focus. MATLAB*P aims to provide a user-friendly supercomputing environment in which parallelism is achieved transparently through the use of objected oriented programming features in MATLAB. One advantage of this approach is that existing scripts can be run in parallel with no or minimal modifications. This paper describes MATLAB*P 2.0, which is a complete rewrite of MATLAB*P. This new version brings together the backend support approach with embarrassingly parallel and MPI approaches to provide the first complete parallel MATLAB framework.; Singapore-MIT Alliance (SMA)

Adaptively Parallel Processor Allocation for Cilk Jobs

Sen, Siddhartha; Agrawal, Kunal
Fonte: MIT - Massachusetts Institute of Technology Publicador: MIT - Massachusetts Institute of Technology
Tipo: Artigo de Revista Científica Formato: 16407 bytes; application/pdf
EN_US
Relevância na Pesquisa
36.38%
The problem of allocating processor resources fairly and efficiently to parallel jobs has been studied extensively in the past. Most of this work, however, assumes that the instantaneous parallelism of the jobs is known and used by the job scheduler to make its decisions. In this project, we consider different ways of estimating the parallelism of jobs during runtime, as well as different ways of using this information to allocate processors in a fair and efficient manner. The goal of our project is to design and implement a dynamic processor-allocation system for adaptively parallel jobs. Adaptively parallel jobs are jobs for which the number of processors which can be used without waste—in other words, the parallelism of each job—varies during execution. We call the problem of allocating processors to adaptively parallel jobs the adaptively parallel processor-allocation problem. We propose to investigate the adaptively parallel processor-allocation problem for jobs running on a shared-memory multiprocessor (SMP) system. We focus on the specific case of parallel jobs that are scheduled with the randomized work-stealing algorithm, as is used in the Cilk multithreaded language (later, we will expand the scope of our research to include other kinds of parallel jobs). Our problem can be defined as follows: Consider an SMP system with P processors and J jobs. At any given time...

Parallel incremental compilation

Gafter, Neal M. (1960 - ); LeBlanc, Thomas J.
Fonte: University of Rochester. Computer Science Department. Publicador: University of Rochester. Computer Science Department.
Tipo: Technical Report; Thesis Formato: Number of Pages:x, 113 leaves
ENG
Relevância na Pesquisa
36.35%
Thesis (Ph. D.)--University of Rochester. Dept. of Computer Science, 1990.; The time it takes to compile a large program has been a bottleneck in the software development process. When an interactive programming environment with an incremental compiler is used, compilation speed becomes even more important, but existing incremental compilers are very slow for some types of program changes. We describe a set of techniques that enable incremental compilation to exploit fine-grained concurrency in a shared-memory multiprocessor and achieve asymptotic improvement over sequential algorithms. Because parallel non-incremental compilation is a special case of parallel incremental compilation, the design of a parallel compiler is a corollary of our result. Instead of running the individual phases concurrently, our design specifies compiler phases that are mutually sequential. However, each phase is designed to exploit fine-grained parallelism. By allowing each phase to present its output as a complete structure rather than as a stream of data, we can apply techniques such as parallel prefix and parallel divide-and-conquer, and we can construct applicative data structures to achieve sublinear execution time. Parallel algorithms for each phase of a compiler are presented to demonstrate that a complete incremental compiler can achieve execution time that is asymptotically less than sequential algorithms. Historically...

A Parallel interleaved file system

Dibble, Peter C. (1953 - ); Scott, Michael L. (1959 - )
Fonte: University of Rochester. Computer Science Department. Publicador: University of Rochester. Computer Science Department.
Tipo: Thesis; Technical Report Formato: Number of Pages:viii, 112 leaves
ENG
Relevância na Pesquisa
36.38%
Thesis (Ph. D.)--University of Rochester. Dept. of Computer Science, 1990.; A computer system is most useful when it has well-balanced processor and I/0 performance. Parallel architectures allow fast computers to be constructed from unsophisticated hardware. The usefulness of these machines is severely limited unless they are fitted with I/O subsystems that match their CPU performance. Most parallel computers have insufficient I/O performance, or use exotic hardware to force enough I/O bandwidth through a uniprocessor file system. This approach is only useful for small numbers of processors. Even a modestly parallel computer cannot be served by an ordinary file system. Only a parallel file system can scale with the processor hardware to meet the I/O demands of a parallel computer. This dissertation introduces the concept of a parallel interleaved file system. This class of file system incorporates three concepts: parallelism, interleaving, and tools. Parallelism appears as a characteristic of the file system program and in the disk hardware. The parallel file system software and hardware allows the file system to scale with the other components of a multiprocessor computer. Interleaving is the rule the file system uses to distribute data among the processors. Interleaved record distribution is the simplest and in many ways the best algorithm for allocating records to processors. Tools are application code that can enter the file system at a level that exposes the parallel structure of the files. In many cases tools decrease interprocessor communication by moving processing to the data instead of moving the data. The thesis of this dissertation is that a parallel interleaved file system will provide scalable high-performance I/O for a wide range of parallel architectures while supporting a comprehensive set of conventional file system facilities. We have confirmed our performance claims experimentally and theoretically. Our experiments show practically linear speedup to the limits of our hardware for file copy...

Eine Systemumgebung zur Erstellung paralleler C++ Programme und deren Ausführung in heterogenen verteilten Systemen; A System Environment for the Creation of Parallel C++ Programs and their Execution in Heterogeneous Distributed Systems

Blochinger, Wolfgang
Fonte: Universidade de Tubinga Publicador: Universidade de Tubinga
Tipo: Dissertação
DE_DE
Relevância na Pesquisa
36.34%
Diese Arbeit behandelt die Realisierung und die Anwendung der Systemumgebung DOTS (Distributed Object-Oriented Threads System) zur Erstellung paralleler C++ Programme. DOTS verwirklicht insbesondere spezielle Anforderungen zur Parallelisierung von Algorithmen aus dem Bereich des symbolischen Rechnens. Die effiziente Parallelisierung der sich typischerweise rasch fortentwickelnden sequentiellen Verfahren des symbolischen Rechnens wird durch das von DOTS realisierte parallele Programmiermodell des strikten Multithreading im besonderem Maße unterstützt. Die hohe Abstraktionsebene dieses Modells gewährleistet die weitgehende Übernahme der sequentiellen Entwicklungsmethodik und ermöglicht somit die schnelle und einfache Erstellung paralleler Programme ausgehend von einer sequentiellen Codebasis. Das Programmiermodell ist durch eine kompakte Programmierschnittstelle mit vollständig orthogonal verwendbaren Primitiven verwirklicht. Die Behandlung des oftmals anzutreffenden hohen Grads an Nichtdeterminismus der parallelisierten Programme wird durch die Integration spezieller Primitive in das Programmiermodell des strikten Multithreading von DOTS berücksichtigt. DOTS wurde zur Erstellung paralleler C++ Programme entwickelt, die in heterogenen verteilten Systemen ausgeführt werden können. Die Laufzeitumgebung von DOTS integriert ein breites Spektrum von Rechnerarchitekturen und Betriebssystemen (Microsoft Windows PCs...

Parallel Sparse Optimization

Peng, Zhimin
Fonte: Universidade Rice Publicador: Universidade Rice
Relevância na Pesquisa
36.35%
This thesis proposes parallel and distributed algorithms for solving very largescale sparse optimization problems on computer clusters and clouds. Many modern applications problems from compressive sensing, machine learning and signal and image processing involve large-scale data and can be modeled as sparse optimization problems. Those problems are in such a large-scale that they can no longer be processed on single workstations running single-threaded computing approaches. Moving to parallel/distributed/cloud computing becomes a viable option. I propose two approaches for solving these problems. The first approach is the distributed implementations of a class of efficient proximal linear methods for solving convex optimization problems by taking advantages of the separability of the terms in the objective. The second approach is a parallel greedy coordinate descent method (GRock), which greedily choose several entries to update in parallel in each iteration. I establish the convergence of GRock and explain why it often performs exceptionally well for sparse optimization. Extensive numerical results on a computer cluster and Amazon EC2 demonstrate the efficiency and elasticity of my algorithms.

Treatment effect identification using alternative parallel assumptions

Mora, Ricardo; Reggio, Iliana
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: info:eu-repo/semantics/draft; info:eu-repo/semantics/workingPaper Formato: application/pdf; text/plain
Publicado em /12/2012 ENG
Relevância na Pesquisa
36.34%
The core assumption to identify the treatment effect in difference-in-differences estimators is the so-called Parallel Paths assumption, namely that the average change in outcome for the treated in the absence of treatment equals the average change in outcome for the non-treated. We define a family of alternative Parallel assumptions and show for a number of frequently used empirical specifications which parameters of the model identify the treatment effect under the alternative Parallel assumptions. We further propose a fully flexible model which has two desirable features not present in the usual econometric specifications implemented in applied research. First, it allows for flexible dynamics and for testing restrictions on these dynamics. Second, it does not impose equivalence between alternative Parallel assumptions. We illustrate the usefulness of our approach by revising the results of several recent papers in which the difference-in-differences technique has been applied.The core assumption to identify the treatment effect in difference-in-differences estimators is the so-called Parallel Paths assumption, namely that the average change in outcome for the treated in the absence of treatment equals the average change in outcome for the non-treated. We define a family of alternative Parallel assumptions and show for a number of frequently used empirical specifications which parameters of the model identify the treatment effect under the alternative Parallel assumptions. We further propose a fully flexible model which has two desirable features not present in the usual econometric specifications implemented in applied research. First...

Performance Modelling of Message-Passing Parallel Programs

Grove, Duncan
Fonte: Universidade de Adelaide Publicador: Universidade de Adelaide
Tipo: Tese de Doutorado Formato: 2020226 bytes; 125555 bytes; application/pdf; application/pdf
Publicado em //2003 EN
Relevância na Pesquisa
36.35%
Parallel computing is essential for solving very large scientific and engineering problems. An effective parallel computing solution requires an appropriate parallel machine and a well-optimised parallel program, both of which can be selected via performance modelling. This dissertation describes a new performance modelling system, called the Performance Evaluating Virtual Parallel Machine (PEVPM). Unlike previous techniques, the PEVPM system is relatively easy to use, inexpensive to apply and extremely accurate. It uses a novel bottom-up approach, where submodels of individual computation and communication events are dynamically constructed from data-dependencies, current contention levels and the performance distributions of low-level operations, which define performance variability in the face of contention. During model evaluation, the performance distribution attached to each submodel is sampled using Monte Carlo techniques, thus simulating the effects of contention. This allows the PEVPM to accurately simulate a program's execution structure, even if it is non-deterministic, and thus to predict its performance. Obtaining these performance distributions required the development of a new benchmarking tool, called MPIBench. Unlike previous tools...

Yali : uma extensão do modelo linda para programação paralela em redes heterogêneas; Yali, an extension to the linda model intended for parallel programming in heterogeneous computer networks

Charao, Andrea Schwertner
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Dissertação Formato: application/pdf
POR
Relevância na Pesquisa
36.4%
Com a disponibilidade de redes que ligam estações cada vez mais poderosas a baixos custos, o interesse em torno de ferramentas que suportam a programação paralela em arquiteturas deste tipo tem aumentado significativamente. Esta dissertação trata do projeto e implementação de YALI (Yet Another Linda Implementation), uma ferramenta destinada ao desenvolvimento e execução de programas paralelos em redes heterogêneas de computadores. Com o objetivo de oferecer uma interface simples e flexível para os usuários programadores, YALI baseia-se no modelo Linda[GEL85], que destaca-se por utilizar uma abstração de alto nível para a cooperação entre processos. Em Linda, processos interagem por intermédio de uma memória associativa logicamente compartilhada, denominada Espaço de Tuplas. Entre outras vantagens deste modelo pode-se citar a simplicidade de suas primitivas e a possibilidade de incorporá-las a uma linguagem seqüencial conhecida, o que contribui fortemente para sua fácil assimilação, mesmo por usuários com pouca experiência em programação paralela. Após uma descrição detalhada do modelo Linda, este trabalho discute varias questões envolvidas no projeto e implementação de sistemas nele baseados. Para oferecer uma visão pratica das soluções mais freqüentemente adotadas para estas questões...

Algoritmos paralelos para alocação e gerência de processadores em máquinas multiprocessadoras hipercúbicas; Parallel algorithms for processor allocation in hypercubes

De Rose, Cesar Augusto Fonticielha
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Dissertação Formato: application/pdf
POR
Relevância na Pesquisa
36.35%
Nos últimos anos, máquinas maciçamente paralelas, compostas de centenas de processadores, vem sendo estudadas como uma alternativa para a construção de supercomputadores. Neste novo conceito de processamento de dados, grandes velocidades são alcançadas através da cooperação entre os diversos elementos processadores na resolução de um problema. Grande parte das máquinas maciçamente paralelas encontradas no mercado utilizam-se da topologia hipercúbica para a interconexão de seus múltiplos processadores, ou podem ser configuradas como tal. Uma alternativa interessante para o compartilhamento da capacidade de processamento destas máquinas é sua utilização como computador agregado a uma rede, servindo a diversos usuários [DUT 91]. Desta forma, a máquina hipercúbica se comporta como um banco de processadores, que permite que cada usuário aloque parte de seus processadores para seu uso pessoal. Isto resulta em um aumento no desempenho da rede ao nível de supercomputadores com um custo relativamente baixo e viabiliza a construção de máquinas hipercúbicas com altas dimensões, evitando que estas sejam sub-utilizadas. Neste tipo de contexto, cabe ao sistema operacional atender as requisições dos usuários do hipercubo compartilhado de forma eficiente...

A Framework for a Multiagent-based Scheduling of Parallel Jobs

Pabico, Jaderick P.
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 26/06/2015
Relevância na Pesquisa
36.35%
This paper presents a multiagent approach as a paradigm for scheduling parallel jobs in a parallel system. Scheduling parallel jobs is performed as a means to balance the load of a system in order to improve the performance of a parallel application. Parallel job scheduling is presented as a mapping between two graphs: one represents the dependency of jobs and the other represents the interconnection among processors. The usual implementation of parallel job scheduling algorithms is via the master-slave paradigm. The master-slave paradigm has inherent communication bottleneck that reduces the performance of the system when more processors are needed to process the jobs. The multiagent approach attempts to distribute the communication latency among the processors which improves the performance of the system as the number of participating processors increases. Presented in this paper is a framework for the behavior of an autonomous agent that cooperates with other agents to achieve a community goal of minimizing the processing time. Achieving this goal means an agent must truthfully share information with other agents via {\em normalization}, {\em task sharing}, and {\em result sharing} procedures. The agents consider a parallel scientific application as a finite-horizon game where truthful information sharing results into performance improvement for the parallel application. The performance of the multiagent-based algorithm is compared to that of an existing one via a simulation of the wavepacket dynamics using the quantum trajectory method (QTM) as a test application. The average parallel cost of running the QTM using the multiagent-based system is lower at higher number of processors.; Comment: 8 pages...