Página 1 dos resultados de 1037 itens digitais encontrados em 0.007 segundos

Estratégias de escalonamento de workflows com tarefas paralelas e sequenciais em grades computacionais.; Strategies for scheduling workflows composed of sequential and parallel tasks on grid environments.

Stanzani, Silvio Luiz
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 18/10/2013 PT
Relevância na Pesquisa
37.64%
A demanda por alto desempenho é um desafio enfrentado por diversas aplicações científicas. Nesse sentido, ambientes para processamento distribuído, tais como, clusters e grades computacionais, têm sido desenvolvidos para prover suporte ao uso de diversos recursos simultaneamente para uma mesma aplicação. Aplicações computacionalmente intensivas são organizadas em workflows e executadas com suporte de middlewares para abstrair a complexidade de uso de tais ambientes. Em ambientes de grade computacional, a execução de workflows contendo tarefas sequenciais e tarefas com paralelismo interno, obtendo bom desempenho, é um desafio, devido à heterogeneidade e comportamento dinâmico do ambiente. Nesse sentido, o escalonamento de workflows em ambientes de grade computacional é essencial. O problema de escalonamento de tarefas, em sua forma geral, é NPCompleto, dessa forma, o estudo do escalonamento de workflows em ambientes de grade computacional é fundamental para aprimorar a execução de aplicações computacionalmente intensivas. O objetivo dessa tese é propor estratégias de escalonamento de workflows, que exploram os seguintes aspectos: Avaliação da possibilidade de executar cada tarefa com paralelismo interno usando recursos de múltiplos clusters; Adaptação de planos de escalonamento no momento da submissão de novos workflows. Foram desenvolvidas duas estratégias: a primeira é uma estratégia para escalonamento estático de workflows...

Publicação e integração de workflows cientificos na web; Publication and integration of scientific workflows on the web

Gilberto Zonta Pastorello Junior
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 06/04/2005 PT
Relevância na Pesquisa
37.56%
Atividades científicas envolvem processos complexos e, frequentemente, diversos especialistas. Além disso, são multidisciplinares e exigem trabalho cooperativo. Isso traz à tona uma série de problemas em Ciência da Computação para apoiar esse trabalho, indo desde a gestão de dados e processos até interfaces adequadas para aplicativos. Esta dissertação contribui na direção do provimento de soluções para alguns desses problemas. Seu foco é em aprimorar os mecanismos de documentação de processos e em possibilitar sua publicação e integração na Web. Isso facilita a especificação e execução de processos distribuídos na Web e o reuso dessas especificações. O trabalho desenvolvido se apóia em padrões da Web Semântica, visando interoperabilidade, e no uso de workflows cientificos para modelar os processos e sua utilização na Web. As principais contribuições deste trabalho são: (i) um modelo de dados, tendo em vista padrões da Web Semântica, para representar workflows científicos e seu armazenamento em bancos de dados. O modelo induz uma metodologia de especificações de workflows que facilita seu reuso e integração; (ii) uma análise comparativa das propostas de padrões para representar workflows em XML; (iii) a proposta de uma arquitetura voltada para a Web para o gerenciamento de documentos (workflows...

Mecanismos de anotação semântica para workfows cientificos; Mechanisms of semantic annotation for scientific workflows

Arnaldo Francisco Vitaliano Filho
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 07/07/2009 PT
Relevância na Pesquisa
27.6%
O compartilhamento de informações, processos e modelos de experimentos entre cientistas de diferentes organizações e domínios do conhecimento vem aumentando com a disponibilização dessas informações e modelos na Web. Muitos destes modelos de experimentos são descritos como workflows científicos. Entretanto, não existe uma padronização para a sua descrição, dificultando assim o reaproveitamento de workflows e seus componentes já existentes. A dissertação contribui para a solução deste problema com os seguintes resultados: a análise dos problemas relativos ao compartilhamento e projeto cooperativo de workflows científicos na Web, análise de aspectos de semântica e metadados relacionados a estes workflows, a disponibilização de um editor Web de workflows usando padrões WFMC e, o desenvolvimento de um modelo de anotação semântica para workflows científicos. Com isto, a dissertação cria a base para permitir a descoberta, reuso e compartilhamento de workflows científicos nas Web. O editor permite que pesquisadores construam seus workflows e anotações de forma online, e permite o consequente teste, com dados externos, do sistema de anotações; The sharing of information, processes and models of experiments is increasing among scientists from many organizations and areas of knowledge...

CEO - uma infraestrutura para orquestração de workflows de serviços em ambientes computacionais híbridos; CEO - an infrastructure to service workflow orchestration in hybrid computational systems

Carlos Roberto Senna
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 27/10/2014 PT
Relevância na Pesquisa
27.63%
Ao longo dos últimos anos bons resultados foram alcançados em iniciativas de computação paralela e distribuída que culminaram nas nuvens computacionais, transformando a Internet em uma usina virtual de processamento. Aplicações complexas organizadas através de workflows em geral são candidatas à paralelização e podem ter seu desempenho fortemente beneficiado quando executadas em grades, nuvens ou ambientes híbridos. No entanto, ainda cabe ao usuário uma parte significativa da preparação desse ambiente (software e hardware) antes de efetivamente usar todo esse poder computacional na execução de workflows. Esta tese apresenta uma infraestrutura para gerenciamento da execução de workflows de serviços fortemente acoplados em ambientes híbridos compostos por grades e nuvens computacionais. A infraestrutura denominada Cloud Execution Orchestration (CEO) é composta por um middleware que faz a gerência da execução de workflows e por uma linguagem (CEO Language - CEOL) especialmente desenhada para a construção de workflows de serviços para esses ambientes. A infraestrutura proposta suporta a execução de workflows interagindo com os domínios do ambiente (grades e nuvens) de forma transparente sem qualquer intervenção do usuário. Com a CEOL o usuário pode construir workflows abstratos...

A method for defining human-machine micro-task workflows for gathering legal information

Luz, Nuno; Silva, Nuno; Novais, Paulo
Fonte: Springer Publicador: Springer
Tipo: Conferência ou Objeto de Conferência
Publicado em //2014 ENG
Relevância na Pesquisa
37.27%
Series : Lecture notes in computer science, ISSN 0302-9743, vol. 8929; With the growing popularity of micro-task crowdsourcing platforms, new workflow-based micro-task crowdsourcing approaches are starting to emerge. Such workflows occur in legal, political and conflict resolution do-mains as well, presenting new challenges, namely in micro-task specification and human-machine interaction, which result mostly from the flow of unstruc-tured data. Domain ontologies provide the structure and semantics required to describe the data flowing throughout the workflow in a way understandable to both humans and machines. This paper presents a method for the construction of micro-task workflows from legal domain ontologies. The method is currently being employed in the context of the UMCourt project in order to formulate in-formation retrieval and conflict resolution workflows.; This work is part-funded by FEDER Funds, by the ERDF (Eu-ropean Regional Development Fund) through the COMPETE Programme (operation-al programme for competitiveness) and by National Funds through the FCT (Portu-guese Foundation for Science and Technology) within the project FCOMP-01-0124-FEDER-028980 (PTDC/EEI-SII/1386/2012). The work of Nuno Luz is supported by the doctoral grant SFRH/BD/70302/2010.

Generating human-computer micro-task workflows from domain ontologies

Luz, Nuno; Silva, Nuno; Novais, Paulo
Fonte: Springer Publicador: Springer
Tipo: Conferência ou Objeto de Conferência
Publicado em //2014 ENG
Relevância na Pesquisa
37.01%
With the growing popularity of micro-task crowdsourcing platforms, a renewed interest in the resolution of complex tasks that require the coopera-tion of human and machine participants has emerged. This interest has led to workflow approaches that present new challenges at different dimensions of the human-machine computation process, namely in micro-task specification and human-computer interaction due to the unstructured nature of micro-tasks in terms of domain representation. In this sense, a semi-automatic generation envi-ronment for human-computer micro-task workflows from domain ontologies is proposed. The structure and semantics of the domain ontology provides a com-mon ground for understanding and enhances human-computer cooperation.; This work is partially funded by FEDER Funds and by the ERDF (European Regional Development Fund) through the COMPETE Programme (operational programme for competitiveness) and by National Funds through the FCT (Portuguese Foundation for Science and Technology) under the projects AAL4ALL (QREN13852) and FCOMP-01-0124-FEDER-028980 (PTDC/EEI-SII/1386/2012).

Modelo de segurança para a composição dinâmica de workflows em arquiteturas de e-government

Fábio Marques; Gonçalo Paiva Dias; André Zúquete
Fonte: AISTI Publicador: AISTI
Tipo: Artigo de Revista Científica
POR
Relevância na Pesquisa
37.16%
As arquiteturas de interoperabilidade permitem a criação de workflows transversais na administração pública e a integração de serviços na perspetiva dos cidadãos e empresas. Neste artigo apresentamos um modelo de segurança que visa as questões levantadas por arquiteturas de interoperabilidade baseadas em agentes autónomos que suportam a composição dinâmica de workflows. O modelo baseia-se numa infraestrutura de chave pública e num conjunto de estruturas de dados baseadas em normas bem conhecidas (X.509 V3 e WSDL). Este modelo de segurança suporta a identificação, autenticação, acreditação e autorização e garante que os resultados produzidos pelos agentes apenas são entregues aos seus destinatários, mesmo que estes destinatários não sejam conhecidos na altura da produção do resultado.

Modelo de segurança para a composição dinâmica de workflows em arquiteturas de e-government

Fábio Marques; Gonçalo Paiva Dias; André Zúquete
Fonte: Associação Ibérica de Sistemas e Tecnologias de Informação Publicador: Associação Ibérica de Sistemas e Tecnologias de Informação
Tipo: Artigo de Revista Científica
POR
Relevância na Pesquisa
37.34%
As arquiteturas de interoperabilidade permitem a criação de workflows transversais na administração pública e a integração de serviços na perspetiva dos cidadãos e empresas. Neste artigo apresentamos um modelo de segurança que visa as questões levantadas por arquiteturas de interoperabilidade baseadas em agentes autónomos que suportam a composição dinâmica de workflows. O modelo baseia-se numa infraestrutura de chave pública e num conjunto de estruturas de dados baseadas em normas bem conhecidas (X.509 V3 e WSDL). Este modelo de segurança suporta a identificação, autenticação, acreditação e autorização e garante que os resultados produzidos pelos agentes apenas são entregues aos seus destinatários, mesmo que estes destinatários não sejam conhecidos na altura da produção do resultado.; Interoperability architectures allow the creation of transversal workflows in the public administration and the integration of services from the perspective of citizens and businesses. In this paper we present a security model to address the security issues that are raised by an interoperability architecture that supports the dynamic composition of e-government workflows by autonomous agents. The model is based in a Public Key Infrastructure and a set of data structures which are supported on well-known standards (X.509 V3 and WSDL). It addresses agent identification...

Arquitetura para execução segura de workflows de eGovernment dinâmicos

Marques, Fábio José Reis Luís
Fonte: Universidade de Aveiro Publicador: Universidade de Aveiro
Tipo: Tese de Doutorado
POR
Relevância na Pesquisa
27.64%
A integração de serviços na perspetiva dos cidadãos e empresas e a necessidade de garantir algumas características da Administração Pública como a versatilidade e a competitividade colocam alguns constrangimentos na conceção das arquiteturas de integração de serviços. Para que seja possível integrar serviços de forma a que se garanta a mutabilidade da Administração Pública, é necessário criar dinamicamente workflows. No entanto, a criação de dinâmica de workflows suscita algumas preocupações ao nível da segurança, nomeadamente em relação à privacidade dos resultados produzidos durante a execução de um workflow e em relação à aplicação de políticas de controlo de participação no workflow pelos diversos executores do mesmo. Neste trabalho apresentamos um conjunto de princípios e regras (arquitetura) que permitem a criação e execução de workflows dinâmicos resolvendo, através de um modelo de segurança, as questões referidas. A arquitetura utiliza a composição de serviços para dessa forma construir serviços complexos a que poderá estar inerente um workflow dinâmico. A arquitetura usa ainda um paradigma de troca de mensagens-padrão entre os prestadores de serviços envolvidos num workflow dinâmico. O modelo de segurança proposto está intimamente ligado ao conjunto de mensagens definido na arquitetura. No âmbito do trabalho foram identificadas e analisadas várias arquiteturas e/ou plataformas de integração de serviços. A análise realizada teve como objetivo identificar as arquiteturas que permitem a criação de workflows dinâmicos e...

Workflows paramétricos para aplicações do método dos elementos finitos em ambientes paralelos heterogêneos

Silva, Vinícius Bueno da
Fonte: Universidade Federal de Mato Grosso do Sul Publicador: Universidade Federal de Mato Grosso do Sul
Tipo: Dissertação de Mestrado
POR
Relevância na Pesquisa
27.48%
O objetivo geral deste trabalho ´e o desenvolvimento de um sistema de workflows param´etricos para aplicac¸ ˜oes do m´etodo dos elementos finitos (MEF) em ambientes paralelos heterogˆeneos. Um workflow ´e um processo definido por um conjunto de atividades que executam sequencialmente e/ou em paralelo e que podem produzir, transformar ou consumir dados. O fluxo de execuc¸ ˜ao de um workflow ´e definido por canais que ligam uma porta de sa´ıda de uma atividade de origem a uma porta de entrada de outra atividade de destino. Por um canal podem trafegar dados ou um sinal de controle da atividade de origem `a de destino, indicando que a ´ultima pode iniciar sua execuc¸ ˜ao. Um workflow param´etrico ´e um modelo no qual uma ou mais atividades s˜ao argumentos de tipo do workflow. No sistema proposto, workflows podem ser gerados a partir de um workflow param´etrico definindo-se quais s˜ao os tipos de atividades correspondentes a cada um dos dos argumento de tipo do modelo. O sistema ´e escrito em C++ e constitu´ıdo de trˆes componentes principais: uma interface gr´afica atrav´es da qual o usu´ario pode interativamente criar, modificar, armazenar e executar workflows; um motor que atua como uma m´aquina virtual paralela respons´avel pela execuc¸ ˜ao de workflows; e uma biblioteca de atividades primitivas que representam os principais blocos b´asicos de construc¸ ˜ao de um programa...

Science in the cloud: Allocation and execution of data-intensive scientific workflows

Szabo, C.; Sheng, Q.; Kroeger, T.; Zhang, Y.; Yu, J.
Fonte: Springer Publicador: Springer
Tipo: Artigo de Revista Científica
Publicado em //2014 EN
Relevância na Pesquisa
37.51%
An important challenge for the adoption of cloud computing in the scientific community remains the efficient allocation and execution of data-intensive scientific workflows to reduce execution time and the size of transferred data. The transferred data overhead is becoming significant with emerging scientific workflows that have input/output files and intermediate data products ranging in the hundreds of gigabytes. The allocation of scientific workflows on public clouds can be described through a variety of perspectives and parameters, and has been proved to be NP-complete. This paper proposes an evolutionary approach for task allocation on public clouds considering data transfer and execution time. In our framework, a solution is represented using an allocation chromosome that encodes the allocation of tasks to nodes, and an ordering chromosome that defines the execution order according to the scientific workflow representation. We propose a multi-objective optimization that relies on a cloud cost model and employs tailored evolution operators. Starting from a population of possible solutions, we employ crossover and mutation operators on both chromosomes aiming at optimizing the data transferred between nodes as well as the total workflow runtime. The crossover operators combine parts of solutions to reduce data overhead...

Web-based Collaborative Workflow Design; Web-gestützter Kollaborativer Entwurf von Workflows

Held, Markus
Fonte: Universidade de Tubinga Publicador: Universidade de Tubinga
Tipo: Dissertação
EN
Relevância na Pesquisa
37.51%
In recent years Scientific Workflows have enormously gained importance, while Workflow Management has been a major aspect of enterprise systems since the 1990s. Business processes as well as queries of biological databases are modelled as workflows. In comparison to other programs, workflows contain a very high degree of domain-specific logic, thus rendering a close cooperation of subect matter experts and software engineers inevitable. This dissertation presents concepts and processes for collaborative workflow development, with the example of e-biology workflows. A set of workflow metrics has been evaluated for controlling these processes. The results were implemented in prototype Rich Internet Applications.; Workflows werden seit den 1990ern in der Wirtschaftsinformatik verwendet und seit einigen Jahren auch zunehmend in der naturwissenschaftlichen Forschung. So werden Geschäftsprozesse ebenso wie z.B. biologische Datenbankabfragen als Workflows verteilter Dienste modelliert. Workflows beinhalten im Vergleich zu anderen Programmen eine besonders hohe Dichte an fachlicher Logik, so dass eine enge Kooperation von Fach-Experten (Subject Matter Experts) und Software-Ingenieuren unerlässlich ist. In dieser Dissertation werden Konzepte und Prozesse für die kollaborative Workflow-Entwicklung vorgestellt und anhand des Beispiels biologischer Workflows untersucht. Zur Unterstützung der Steuerung kollaborativer Workflow-Entwicklungsprozesse wurde eine Menge von Workflow-Metriken evaluiert. Die Ergebnisse wurden exemplarisch in Rich Internet Applications implementiert.

A Workflows Roadmap for the Geosciences

Gil, Yolanda; Deelman, Ewa; Demir, Ibrahim; Duffy, Christopher; Marru, Suresh; Altintas, Ilkay; Pierce, Marlon E.; Wiener, Gerry; Altintas, Ilkay; Braeckel, Aaron; Browdy, Steven F.; Fulker, David; Li, Nicong; Ramirez, Paul; Tarboton, David; Weerawarana,
Fonte: Universidade de Indiana Publicador: Universidade de Indiana
Tipo: Relatório
EN_US
Relevância na Pesquisa
37.54%
The EarthCube Workflows Community Group was formed in March 2012 as part of the NSF EarthCube initiative in response to initial discussions in EarthCube that occurred during 2011. Workflows are used to manage complex computations that have many steps or use large data. Workflow systems assist scientists to select models appropriate for their data, configure them with appropriate parameters, and execute them efficiently. The EarthCube community saw great value in workflow technologies for the future of geosciences. The goal of the EarthCube Workflows Community Group was to begin to elicit requirements for workflows in geosciences, ascertain the state of the art and current practices, identify current gaps in both the use of and capabilities of current workflow systems in the earth sciences through use case studies, and identify grand challenges for the next decade along with the possible paths to addressing those challenges. The group was asked to produce a roadmap for workflows in geosciences. Three other Community Groups were formed (Data, Semantics and Ontologies, and Governance), and each was asked to create a roadmap in their area. The group held a series of virtual and face-to-face workshops to solicit participation from the geosciences community and other relevant researchers. The EarthCube Workflows Community Group set up a public web site where all their activities were made open for participation from the community and all documents were posted for public access and editing (https://sites.google.com/site/earthcubeworkflow/). Presentations and discussions were recorded and posted on the site. A key result of the work of the EarthCube Workflows Community Group activities in Spring and Summer 2012 was the creation of a workflows roadmap for the geosciences. An initial roadmap document for the EarthCube community that was first released in June 2012 and presented to the EarthCube community. A revised roadmap was delivered to the community in August 2012. The roadmap serves as a living document created as a group effort with provisions and a process to update and extend it over time.This document represents the final roadmap of the NSF EarthCube Community Group for workflows in the geosciences. Community feedback is always welcome...

Exploiting data locality in Swift/T workflows using Hercules

Rodrigo Duro, Francisco José; García Blas, Javier; Isaila, Florín Daniel; Carretero Pérez, Jesús; Wozniak, Justin M.; Ross, Rob
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: info:eu-repo/semantics/publishedVersion; info:eu-repo/semantics/bookPart; info:eu-repo/semantics/conferenceObject
Publicado em /11/2014 ENG
Relevância na Pesquisa
37.01%
The ever-increasing power of supercomputer systems is both driving and enabling the emergence of new problem-solving methods that require the efficient execution of many concurrent and interacting tasks. Swift/T, as a description language and runtime, offers the dynamic creation and execution of workflows, varying in granularity, on high-component-count platforms. Swift/T takes advantage of the Asynchronous Dynamic Load Balancing (ADLB) library to dynamically distribute the tasks among the nodes. These tasks may share data using a parallel file system, an approach that could degrade performance as a result of interference with other applications and poor exploitation of data locality. The objective of this work is to expose and exploit data locality in Swift/T through Hercules, a distributed in-memory store based on Memcached, and to explore tradeoffs between data locality and load balance in distributed workflow executions. In this paper we present our approach to enable locality-based optimizations in Swift/T by guiding ADLB to schedule computation jobs in the nodes containing the required data. We also analyze the interaction between locality and load balance: our initial measurements based on various raw file access patterns show promising results. Moreover...

Omnispective analysis and reasoning: an epistemic approach to scientific workflows

Chemboli, Srinivas
Fonte: Universidade Nacional da Austrália Publicador: Universidade Nacional da Austrália
Tipo: Thesis (PhD); Doctor of Philosophy (PhD)
EN_AU
Relevância na Pesquisa
37.34%
This thesis presents the conceptualization, formulation, development and demonstration of Omnispective Analysis and Reasoning (OAR), an epistemic framework for managing intellectual concerns in scientific workflows. Although scientific workflows are extensively used to support the management of experimental and computational research, intellectual concerns are not adequately handled in current practice owing to the focus on low-level implementation details, limited context support, issues in developing shared semantics across disciplines and lack of support for verification and validation of the underlying science of the workflow. The management of intellectual concerns in scientific workflows can be improved by developing a framework for providing a layer of abstraction to lift focus from low-level implementation details, adding context as a workflow parameter, introducing localized ontologies and abstracting and mapping intellectual concerns in the research-domain to workflow specification and execution semantics. Following an examination of typical definitions of scientific workflow offered in literature, the Scientific Method is applied to develop an enhanced definition of a scientific workflow. This definition, which extends the scope of ordered analysis and investigation to a generic problem scenario...

Omnispective Analysis and Reasoning: a framework for managing intellectual concerns in scientific workflows

Chemboli, Srinivas; Boughton, Clive
Fonte: Association for Computing Machinery Publicador: Association for Computing Machinery
Tipo: Conference paper Formato: 5 pages
Relevância na Pesquisa
37.01%
Scientific workflows are extensively used to support the management of experimental and computational research by connecting together different data sources, components and processes. However, certain issues such as the ability to check the appropriateness of the processes orchestrated, management of the context of workflow components and specification, and provision for robust management of intellectual concerns are not addressed adequately. Hence, it is highly desirable to add features to uplift focus from low level details to help clarify the rationale and intent behind the choices and decisions in the workflow specifications and provide a suitable level of abstraction to capture and organize intellectual concerns and map them to the workflow specification and execution semantics. In this paper, we present Omnispective Analysis and Reasoning (OAR), a novel framework for providing the above features and enhancements in scientific workflow management systems and processes. The OAR framework is aimed at supporting effective capture and reuse of intellectual concerns in workflow management.

OCTWAS - Online Check-pointer for Workflows on Apache Spark

Balachandra Bhat, APARNA
Fonte: Quens University Publicador: Quens University
Tipo: Tese de Doutorado
EN; EN
Relevância na Pesquisa
37.34%
With the advent of Web 2.0, Big Data workflows which are being designed in order to extract useful information from data, are run on many engines, one of which is Apache Spark. Apache Spark is a fast and efficient in-memory parallel-processing software framework. By retaining the data in memory, it speeds up the execution of a wide variety of applications. It maintains fault-tolerance by storing information required to recompute the data in case of failure in stable storage. However, for Big Data, recomputing large amounts of data will lead to a performance penalty. In addition, because Apache Spark runs on commodity hardware, the increased likelihood of failure strengthens the need for a fault-tolerance mechanism. In order to reduce the impact of failures on the processing of these workflows, we propose a framework called OCTWAS (Online Check-pointer for Workflows on Apache Spark). OCTWAS makes use of knowledge of how the data is used in a workflow and takes into account the gain in time obtained when the data is check-pointed at a particular stage and a failure occurs. The framework is designed to be lightweight so that the performance does not degrade when there are no failures. OCTWAS decides the check-points and writes the data to the disks at these check-points while the workflow is being executed. OCTWAS has been tested by simulating failures at fixed intervals. A sample workflow has been designed for Apache Spark for testing purposes. The performance when the workflow is run with OCTWAS...

Ontology-based representation and generation of workflows for micro-task human-machine computation

Luz, Nuno
Fonte: Universidade do Minho Publicador: Universidade do Minho
Tipo: Tese de Doutorado
Publicado em 29/04/2015 ENG
Relevância na Pesquisa
27.6%
Doctoral Program in Computer Science; A crescente popularidade das plataformas de crowdsourcing de micro-tarefas levou ao aparecimento de novas abordagens baseadas em fluxos e workflows de micro-tarefas. Juntamente com estas novas abordagens, surgem novos desafios. A falta de estruturação dos dados das micro-tarefas torna difícil, por parte de quem solicita as tarefas, a inclusão de participantes máquina no processo de execução dos workflows. Outro desafio deve-se á falta de componentes que permitam o controlo do fluxo em workflows de micro-tarefas, embora estes componentes sejam comuns em abordagens de workflow tradicionais e em processos de negócio. Nesta tese, é proposto um método para a representação, construção, instanciação e execução de workflows de tarefas em ambientes de computação pessoa-máquina, baseado em ontologias. A representação é capaz de capturar a estrutura e a semântica das operações e dos seus dados, ao mesmo tempo que se mantém próxima do nível conceptual humano. Os workflows são construidos em duas dimensões: a dimensão de domínio estático e a dimensão (da tarefa) dinâmica. Isto permite que os dados de entrada e de saída dos workflows possam ser descritos exclusivamente de acordo com uma ontologia de domínio...

Adaptaciones de workflows para administración de seguridad mediante MDD y aspectos

Giraldo Velásquez, Fáber Danilo
Fonte: Universidad EAFIT; Maestría en Ingeniería; Escuela de Ingeniería. Departamento de Informática y Sistemas Publicador: Universidad EAFIT; Maestría en Ingeniería; Escuela de Ingeniería. Departamento de Informática y Sistemas
Tipo: masterThesis; Tesis de Maestría; acceptedVersion
SPA
Relevância na Pesquisa
37.27%
Este documento presenta una propuesta para abordar el problema de adaptación de workflows, mediante la incorporación de propiedades de seguridad a nivel de modelado de proceso de negocio, controlando el impacto de dicha incorporación sobre el proceso que se interviene y la gestión de intereses transversales (concerns) que se entrelazan unos con otros. La pro-puesta define cómo administrar en forma mantenible, reutilizable y extensible los intereses o concerns derivados de las propiedades de seguridad, a nivel de modelos, de acuerdo con el contexto, las variaciones de las normas y requisitos de proceso de negocio, y estándares de seguridad propuestos para entornos de servicios distribuidos.; xv, 113 p.; This document present a proposal for addressing the problem of workflows adaptation, through the inclusion of security properties at a business modeling level, controlling its impact on the business processes that are intervened, and the management of crosscutting concerns that are woven with each other. The proposal defines how concerns derived from security properties can be managed in a maintainable, reusable and extensible way at model level, according to the context, variations of rules and requirements of business processes...

Evaluating data caching techniques in DMCF workflows using Hercules

Rodrigo Duro, Francisco José; Marozzo, Fabrizio; García Blas, Javier; Carretero Pérez, Jesús; Talia, Domenico; Trunfio, Paolo
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: info:eu-repo/semantics/publishedVersion; info:eu-repo/semantics/bookPart; info:eu-repo/semantics/conferenceObject
Publicado em /10/2015 ENG
Relevância na Pesquisa
37.01%
The Data Mining Cloud Framework (DMCF) is an environment for designing and executing data analysis workflows in cloud platforms. Currently, DMCF relies on the default storage of the public cloud provider for any I/O related operation. This implies that the I/O performance of DMCF is limited by the performance of the default storage. In this work we propose the usage of the Hercules system within DMCF as an ad-hoc storage system for temporary data produced inside workflow-based applications. Hercules is a distributed in-memory storage system highly scalable and easy to deploy. The proposed solution takes advantage of the scalability capabilities of Hercules to avoid the bandwidth limits of the default storage. Early experimental results are presented in this paper, they show promising performance, particularly for write operations, compared to the performance obtained using the default storage services.; This work is partially supported by EU under the COST Program Action IC1305: Network for Sustainable Ultrascale Computing (NESUS). This work is partially supported by the grant TIN2013-41350-P, Scalable Data Management Techniques for High-End Computing Systems from the Spanish Ministry of Economy and Competitiveness.