Página 1 dos resultados de 13840 itens digitais encontrados em 0.053 segundos

MPPI: um modelo de procedência para subsidiar processos de integração; MPPI: a provenance model to support data integration processes

Tomazela, Bruno
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 05/02/2010 PT
Relevância na Pesquisa
66.04%
A procedência dos dados consiste no conjunto de metadados que possibilita identificar as fontes e os processos de transformação aplicados aos dados, desde a criação até o estado atual desses dados. Existem diversas motivações para se incorporar a procedência ao processo de integração, tais como avaliar a qualidade dos dados das fontes heterogêneas, realizar processos de auditoria dos dados e de atribuição de autoria aos proprietários dos dados e reproduzir decisões de integração. Nesta dissertação é proposto o MPPI, um modelo de procedência para subsidiar processos de integração. O modelo enfoca sistemas nos quais as fontes de dados podem ser atualizadas somente pelos seus proprietários, impossibilitando que a integração retifique eventuais conflitos de dados diretamente nessas fontes. O principal requisito do MPPI é que ele ofereça suporte ao tratamento de todas as decisões de integração realizadas em processos anteriores, de forma que essas decisões possam ser reaplicadas automaticamente em processos de integração subsequentes. O modelo MPPI possui quatro características. A primeira delas consiste no mapeamento da procedência dos dados em operações de cópia, edição, inserção e remoção...

Integração de dados para a inteligência empresarial em tempo real.; Real-time data integration for business intelligence.

Ayub, Gustavo Gattass
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 22/03/2011 PT
Relevância na Pesquisa
55.87%
Nos últimos anos, a utilização do Data Warehouse mudou significativamente. Nos dias de hoje, as empresas precisam distribuir informações, num intervalo de tempo adequado, para os colaboradores que atuam na linha de frente do negócio, de modo que estes possam obter um desempenho superior na execução de suas tarefas. O presente trabalho apresenta as novas tendências em inteligência empresarial, dando destaque aos aspectos táticos e operacionais, a necessidade de redução na latência de atualização dos dados, as limitações do ambiente de Data Warehouse nesse contexto. O desenvolvimento deste trabalho baseou-se na revisão da literatura existente, no estudo de novos mecanismos de integração de dados, na apresentação de casos reais de aplicação e em um relato de caso prático. Este trabalho buscou destacar o papel fundamental que as novas tecnologias de integração de dados têm na criação de novos sistemas de apoio e automação de decisões nas empresas realizando negócios em tempo real.; During the last years many things have changed in the utilization the Data Warehouse. Nowadays, enterprises need to distribute information in a timely fashion to front-line workers, enabling them to deliver superior performance in the execution of their duties. This work presents new trends in business intelligence...

Genômica translacional: integrando dados clínicos e biomoleculares; Translational genomics: integrating clinical and biomolecular data

Miyoshi, Newton Shydeo Brandão
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 06/02/2013 PT
Relevância na Pesquisa
55.95%
A utilização do conhecimento científico para promoção da saúde humana é o principal objetivo da ciência translacional. Para que isto seja possível, faz-se necessário o desenvolvimento de métodos computacionais capazes de lidar com o grande volume e com a heterogeneidade da informação gerada no caminho entre a bancada e a prática clínica. Uma barreira computacional a ser vencida é o gerenciamento e a integração dos dados clínicos, sócio-demográficos e biológicos. Neste esforço, as ontologias desempenham um papel essencial, por serem um poderoso artefato para representação do conhecimento. Ferramentas para gerenciamento e armazenamento de dados clínicos na área da ciência translacional que têm sido desenvolvidas, via de regra falham por não permitir a representação de dados biológicos ou por não oferecer uma integração com as ferramentas de bioinformática. Na área da genômica existem diversos modelos de bancos de dados biológicos (tais como AceDB e Ensembl), os quais servem de base para a construção de ferramentas computacionais para análise genômica de uma forma independente do organismo de estudo. Chado é um modelo de banco de dados biológicos orientado a ontologias, que tem ganhado popularidade devido a sua robustez e flexibilidade...

Análise gênica de comorbidades a partir da integração de dados epidemiológicos; Comorbidities genetic analysis from epidemological data integration

Ferraz Néto, Karla
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 01/12/2014 PT
Relevância na Pesquisa
55.83%
A identificação de genes responsáveis por doenças humanas pode fornecer conhecimentos sobre mecanismos patológicos e psicológicos que são essenciais para o desenvolvimento de novos diagnósticos e terapias. Sabemos que uma doença é raramente uma consequência de uma anormalidade num único gene, porém reflete desordens de uma rede intra e intercelular complexa. Muitas metodologias conhecidas na Bioinformática são capazes de priorizar genes relacionados a uma determinada doença. Algumas abordagens também podem validar a pertinência ou não destes genes em relação à doença estudada. Uma abordagem de priorização de genes é a investigação a partir de doenças que acometem pacientes ao mesmo tempo, as comorbidades. Existem muitas fontes de dados biomédicos que podem ser utilizadas para a coleta de comorbidades. Desta forma, podemos coletar pares de doenças que formam comorbidades epidemiológicas e assim analisar os genes de cada doença. Esta análise serve para expandirmos a lista de genes candidatos de cada uma dessas doenças e justificarmos a relação gênica entre essas comorbidades. O objetivo principal deste projeto é o de integração dos dados epidemiológicos e genéticos para a realização da predição de genes causadores de doenças. Isto se dará através do estudo de comorbidade destas doenças.; The identification of genes responsible for human diseases can provide knowledge about pathological and physiological mechanisms that are essential for the development of new diagnostics and therapeutics. It is known that a disease is rarely a consequence of an abnormality in a single gene...

Formalização do processo de tradução de consultas em ambientes de integração de dados XML; Formalization of a query translation process in XML data integration

Alves, Willian Bruno Gomes
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Dissertação Formato: application/pdf
POR
Relevância na Pesquisa
65.94%
A fim de consultar uma mesma informação em fontes XML heterogêneas seria desejável poder formular uma única consulta em relação a um esquema global conceitual e então traduzi-la automaticamente para consultas XML para cada uma das fontes. CXPath (Conceptual XPath) é uma proposta de linguagem para consultar fontes XML em um nível conceitual. Essa linguagem foi desenvolvida para simplificar o processo de tradução de consultas em nível conceitual para consultas em nível XML. Ao mesmo tempo, a linguagem tem como objetivo a facilidade de aprendizado de sua sintaxe. Por essa razão, sua sintaxe é bastante semelhante à da linguagem XPath utilizada para consultar documentos XML. Nesta dissertação é definido formalmente o mecanismo de tradução de consultas em nível conceitual, escritas em CXPath, para consultas em nível XML, escritas em XPath. É mostrado o tratamento do relacionamento de herança no mecanismo de tradução, e é feita uma discussão sobre a relação entre a expressividade do modelo conceitual e o mecanismo de tradução. Existem situações em que a simples tradução de uma consulta CXPath não contempla alguns resultados, pois as fontes de dados podem ser incompletas. Neste trabalho, o modelo conceitual que constitui o esquema global do sistema de integração de dados é estendido com dependências de inclusão e o mecanismo de resolução de consultas é modificado para lidar com esse tipo de dependência. Mais especificamente...

Integrating geo-referenced multiscale and multidisciplinary data for the management of biodiversity in livestock genetic resources

Joost, S.; Colli, L.; Baret, P. V.; Garcia, J. F.; Boettcher, P. J.; Tixier-Boichard, M.; Ajmone-Marsan, P.
Fonte: Wiley-Blackwell Publicador: Wiley-Blackwell
Tipo: Artigo de Revista Científica Formato: 47-63
ENG
Relevância na Pesquisa
55.85%
P>In livestock genetic resource conservation, decision making about conservation priorities is based on the simultaneous analysis of several different criteria that may contribute to long-term sustainable breeding conditions, such as genetic and demographic characteristics, environmental conditions, and role of the breed in the local or regional economy. Here we address methods to integrate different data sets and highlight problems related to interdisciplinary comparisons. Data integration is based on the use of geographic coordinates and Geographic Information Systems (GIS). In addition to technical problems related to projection systems, GIS have to face the challenging issue of the non homogeneous scale of their data sets. We give examples of the successful use of GIS for data integration and examine the risk of obtaining biased results when integrating datasets that have been captured at different scales.

A multi-agent architecture for intelligent data analysis

Queiroz, Jonas F.P.; Guilherme, Ivan Rizzo; Batista, Caio Cesar
Fonte: Universidade Estadual Paulista Publicador: Universidade Estadual Paulista
Tipo: Conferência ou Objeto de Conferência Formato: 215-218
ENG
Relevância na Pesquisa
55.79%
The present study introduces a multi-agent architecture designed for doing automation process of data integration and intelligent data analysis. Different from other approaches the multi-agent architecture was designed using a multi-agent based methodology. Tropos, an agent based methodology was used for design. Based on the proposed architecture, we describe a Web based application where the agents are responsible to analyse petroleum well drilling data to identify possible abnormalities occurrence. The intelligent data analysis methods used was the Neural Network.

A semi-automatic method for indirect orientation of aerial images using ground control lines extracted from airborne laser scanner data

Dos Santos, Daniel Rodrigues; Tommaselli, Antonio Maria Garcia; Dalmolin, Quintino; Mitishita, Edson Aparecido
Fonte: Universidade Estadual Paulista Publicador: Universidade Estadual Paulista
Tipo: Artigo de Revista Científica Formato: 53-61
ENG
Relevância na Pesquisa
55.8%
This paper presents a method for indirect orientation of aerial images using ground control lines extracted from airborne Laser system (ALS) data. This data integration strategy has shown good potential in the automation of photogrammetric tasks, including the indirect orientation of images. The most important characteristic of the proposed approach is that the exterior orientation parameters (EOP) of a single or multiple images can be automatically computed with a space resection procedure from data derived from different sensors. The suggested method works as follows. Firstly, the straight lines are automatically extracted in the digital aerial image (s) and in the intensity image derived from an ALS data-set (S). Then, correspondence between s and S is automatically determined. A line-based coplanarity model that establishes the relationship between straight lines in the object and in the image space is used to estimate the EOP with the iterated extended Kalman filtering (IEKF). Implementation and testing of the method have employed data from different sensors. Experiments were conducted to assess the proposed method and the results obtained showed that the estimation of the EOP is function of ALS positional accuracy.

Data integration issues in the reconstruction of the genome-scale metabolic model of Zymomonas mobillis

Pinto, José P.; Dias, O.; Lourenço, Anália; Carneiro, S.; Ferreira, E. C.; Rocha, I.; Rocha, Miguel
Fonte: Springer-Verlag Berlin Publicador: Springer-Verlag Berlin
Tipo: Parte de Livro
Publicado em //2009 ENG
Relevância na Pesquisa
65.9%
Genome-scale model reconstruction represents a major tool in the field of Metabolic Engineering .This paper reports on a study about data integration issues in the process of genome- scale reconstruction of the metabolic model of the bacterium Zymomonas mobilis, a promising organism for bioethanol production. Data is retrieved from the Entrez Gene, KEGG, BioCyc and Brenda databases, and the several processes involved in data integration from these sources are described, as well as the data quality issues.; Fundação para a Ciência e a Tecnologia (FCT) - POCI/BIO/60139/2004, PhD grant ref. SFRH/BD/41763/2007

Challenges in integrating Escherichia coli molecular biology data

Lourenço, Anália; Carneiro, S.; Ferreira, E. C.; Rocha, I.; Rocha, Miguel
Fonte: Oxford Journals Publicador: Oxford Journals
Tipo: Artigo de Revista Científica
Publicado em //2011 ENG
Relevância na Pesquisa
56%
One key challenge in Systems Biology is to provide mechanisms to collect and integrate the necessary data to be able to meet multiple analysis requirements. Typically, biological contents are scattered over multiple data sources and there is no easy way of comparing heterogeneous data contents. This work discusses ongoing standardisation and interoperability efforts and exposes integration challenges for the model organism Escherichia coli K-12. The goal is to analyse the major obstacles faced by integration processes, suggest ways to systematically identify them, and whenever possible, propose solutions or means to assistmanual curation. Integration of gene, protein and compound data was evaluated by performing comparisons over EcoCyc, KEGG, BRENDA, ChEBI, Entrez Gene and UniProt contents. Cross-links, a number of standard nomenclatures and name information supported the comparisons. Except for the gene integration scenario, in no other scenario an element of integration performed well enough to support the process by itself. Indeed, both the integration of enzyme and compound records imply considerable curation. Results evidenced that, even for a well-studied model organism, source contents are still far from being as standardized as it would be desired and metadata varies considerably from source to source. Before designing any data integration pipeline...

A multivariate approach to the integration of multi-omics datasets

Meng, Chen; Kuster, Bernhard; Culhane, Aedín C; Gholami, Amin Moghaddas
Fonte: BioMed Central Publicador: BioMed Central
Tipo: Artigo de Revista Científica
EN_US
Relevância na Pesquisa
55.95%
Background: To leverage the potential of multi-omics studies, exploratory data analysis methods that provide systematic integration and comparison of multiple layers of omics information are required. We describe multiple co-inertia analysis (MCIA), an exploratory data analysis method that identifies co-relationships between multiple high dimensional datasets. Based on a covariance optimization criterion, MCIA simultaneously projects several datasets into the same dimensional space, transforming diverse sets of features onto the same scale, to extract the most variant from each dataset and facilitate biological interpretation and pathway analysis. Results: We demonstrate integration of multiple layers of information using MCIA, applied to two typical “omics” research scenarios. The integration of transcriptome and proteome profiles of cells in the NCI-60 cancer cell line panel revealed distinct, complementary features, which together increased the coverage and power of pathway analysis. Our analysis highlighted the importance of the leukemia extravasation signaling pathway in leukemia that was not highly ranked in the analysis of any individual dataset. Secondly, we compared transcriptome profiles of high grade serous ovarian tumors that were obtained...

Data Integration using Web Services

Hansen, Mark; Madnick, Stuart; Siegel, Michael
Fonte: MIT - Massachusetts Institute of Technology Publicador: MIT - Massachusetts Institute of Technology
Tipo: Trabalho em Andamento Formato: 128380 bytes; application/pdf
EN_US
Relevância na Pesquisa
65.92%
In this paper we examine the opportunities for data integration in the context of the emerging Web Services systems development paradigm. The paper introduces the programming standards associated with Web Services and provides an example of how Web Services can be used to unlock heterogeneous business systems to extract and integrate business data. We provide an introduction to the problems and research issues encountered when applying Web Services to data integration. We provide a formal definition of aggregation (as a type of data integration) and discuss the impact of Web Services on aggregation. We show that Web Services will make the development of systems for aggregation both faster and less expensive to develop. A system architecture for Web Services based aggregation is presented that is representative of products available from software vendors today. Finally, we highlight some of the challenges facing Web Services that are not currently being addressed by standards bodies or software vendors. These include context mediation...

Maßstabsspezifische Ableitung von thematischen Grundlagendaten für Landschaftsanalysen; Scale-specific derivation of thematic basic data for landscape analysis

Möller, Markus
Fonte: Universidade de Tubinga Publicador: Universidade de Tubinga
Tipo: Dissertação
DE_DE
Relevância na Pesquisa
55.79%
Landschaftsökologische Modellierungen stehen im Spannungsfeld zwischen gesellschaftlichen Ansprüchen und der mangelnden maßstabsspezifischen Verfügbarkeit an thematischen Grundlagendaten und Bezugseinheiten. Gesellschaftliche Ansprüche resultieren aus der nationalen und europäischen Umweltgesetzgebung. Die maßstabsspezifische Datenverfügbarkeit bezieht sich auf die inhaltliche, zeitliche und geometrische Auflösung sowie die Datenqualität. Das Hauptziel der Arbeit besteht in der Entwicklung einer Datenintegrations- und Disaggregierungsprozedur zur maßstabsspezifischen Bereitstellung von Grundlagendaten, die in eine konzeptionelle Umgebung zur Modellierung landschaftsökologischer Prozesse vor dem Hintergrund politischer Rahmenbedingungen einbettet ist. Die Prozedur beruht auf der Verknüpfung von bestehenden funktionalen Hierarchien thematischer Grundlagendaten mit multi-skalaren Objektstrukturen, die sich aus der regionenbasierten Segmentierung kontinuierlicher Flächendaten ableiten. Die statistische Klassifikation der resultierenden Bezugseinheiten unter Berücksichtigung von Zusatzwissen führt zu räumlich-zeitlichen Lückenschlüssen funktionaler Hierarchien. Den Disaggregierungsergebnissen können Qualitätsmaße zugeordnet werden...

Knowledge visualizations: a tool to achieve optimized operational decision making and data integration

Hudson, Paul C.; Rzasa, Jeffrey A.
Fonte: Monterey, California: Naval Postgraduate School Publicador: Monterey, California: Naval Postgraduate School
Tipo: Tese de Doutorado
Relevância na Pesquisa
55.8%
Approved for public release; distribution is unlimited; Approved for public release; distribution is unlimited; The overabundance of data created by modern information systems (IS) has led to a breakdown in cognitive decision-making. Without authoritative source data, commanders’ decision-making processes are hindered as they attempt to paint an accurate shared operational picture (SOP). Further impeding the decision-making process is the lack of proper interface interaction to provide a visualization that aids in the extraction of the most relevant and accurate data. Utilizing the DSS to present visualizations based on OLAP cube integrated data allow decision-makers to rapidly glean information and build their situation awareness (SA). This yields a competitive advantage to the organization while in garrison or in combat. Additionally, OLAP cube data integration enables analysis to be performed on an organization’s data-flows. This analysis is used to identify the critical path of data throughout the organization. Linking a decision-maker to the authoritative data along this critical path eliminates the many decision layers in a hierarchal command structure that can introduce latency or error into the decision-making process. Furthermore...

Master Data Management em ambiente de cloud computing

Martins, Patrícia Alexandra Lagarto
Fonte: Instituto Superior de Economia e Gestão Publicador: Instituto Superior de Economia e Gestão
Tipo: Dissertação de Mestrado
Publicado em //2012 POR
Relevância na Pesquisa
55.82%
Mestrado em Gestão de Sistemas de Informação; A emergência dos Cloud services e do modelo de Cloud Computing que os suporta é incontornável na realidade económica atual, devendo permitir às Organizações a redução dos custos fixos relacionados com a disponibilização de serviços SI/TI. Em ambientes tecnológicos mistos, com aplicações desenvolvidas e mantidas in-premise e aplicações utilizadas no modelo Software as a Service (SaaS), a gestão dos dados torna-se um dos aspetos mais difíceis de gerir. O Master Data Management (MDM) é um método emergente de integração de dados que resulta da necessidade de assegurar a consistência e exatidão dos dados, nomeadamente dos master data. O estilo de implementação ou arquitetura de um sistema de MDM tem de ser o mais adequado dependendo das características dos master data a gerir, do método de utilização e do ambiente tecnológico de cada situação concreta. Para o modelo experimental desenvolvido o estilo de implementação mais adequado foi o hub transacional, pois o cenário em estudo é um ambiente tecnológico misto, sendo os master data disponibilizados via webservice. O resultado da implementação deste artefacto foi uma visão única da entidade de master data. Apesar da solução tecnológica apresentada...

Agent based virtual electronic patient record. From intra to inter-institution data integration

Vieira Marques, Pedro Manuel
Fonte: [Barcelona] : Universitat Autònoma de Barcelona, Publicador: [Barcelona] : Universitat Autònoma de Barcelona,
Tipo: Tesis i dissertacions electròniques; info:eu-repo/semantics/doctoralThesis; info:eu-repo/semantics/publishedVersion Formato: application/pdf
Publicado em // ENG
Relevância na Pesquisa
66.03%
A través dels anys els sistemes d'informació mèdica (SIM) s'han desenvolupat i desplegat, seguint agendes específiques abordant els problemes individuals. Encara que hi ha hagut diversos esforços, encara és necessari millorar la integració de sistemes per tal de superar les barreres de disponibilitat de les dades, sobretot quan l'status quo revela que la majoria de les vegades els sistemes coexisteixen com autistes. L'assoliment d'una visió integrada i transversal de tots els registres d'un pacient no és una tasca fàcil, ja que els patrons de producció i la utilització de les dades en l'assistència sanitària són molt complexes i involucren actors heterogenis i un flux de dades complexe. Aquest és un problema real, tant dins com entre les institucions de salut que fan la tasca d'integració difícil i molt sovint ni tan sols possible. Els agents són entitats de programari autònomes que poden percebre el caràcter dinàmic de l'entorn, permetent proactivitat respecte a les accions que s'adapten millor a un usuari particular per a un determinat conjunt d'objectius. Els agents actuen en representació dels seus usuaris, i a través de la seva activitat social poden interactuar amb l'usuari, amb altres agents i amb el propi entorn a través de l'intercanvi de missatges o fent ús de dispositius auxiliars. La seva flexibilitat per integrar altres tecnologies pot millorar l'escalabilitat del sistema i la seva tolerància a fallades...

A framework for integrating DNA sequenced data

Dutta, Prabin
Fonte: Rochester Instituto de Tecnologia Publicador: Rochester Instituto de Tecnologia
Tipo: Tese de Doutorado
EN_US
Relevância na Pesquisa
55.87%
The Human Genome Project generated vast amounts of DNA sequenced data scattered in disparate data sources in a variety of formats. Integrating biological data and extracting information held in DNA sequences are major ongoing tasks for biologists and software professionals. This thesis explored issues of finding, extracting, merging and synthesizing information from multiple disparate data sources containing DNA sequenced data, which is composed of 3 billion chemical building blocks of bases. We proposed a biological data integration framework based on typical usage patterns to simplify these issues for biologists. The framework uses a relational database management system at the backend, and provides techniques to extract, store, and manage the data. This framework was implemented, evaluated, and compared with existing biological data integration solutions.

Integração de dados em SIG: uma abordagem por tecnologias de uso livre; GIS data integration: a free software approach

Nader, Ricardo Saleimen
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 28/09/2015 PT
Relevância na Pesquisa
55.78%
Foi demonstrada a viabilidade de utilização da biblioteca GDAL/OGR, por meio do seu emprego em processos de conversão sintática entre formatos de dados matriciais e vetoriais controlados, amplamente utilizados nas práticas profissional e de pesquisa em Geografia, Cartografia e Geoprocessamento. Os dados convertidos e processados foram analisados comparativamente em seus parâmetros geométricos, topológicos, alfanuméricos e de referência espacial, de modo a identificar se existiram perdas ou manutenção de informações nesses indicadores. No caso da existência de perdas, foram empregados recursos disponíveis na biblioteca para ajustes nos parâmetros indicados, de modo a tentar retornar ao conteúdo de dados dos arquivos originais. Finalmente, foi apresentada uma metodologia para a superação de desafios de integração de dados geoespaciais em SIG, por meio do emprego de sistemas de uso livre no campo do Geoprocessamento.; It was demonstrated the feasibility of using the GDAL / OGR library, through its usage in syntax conversion processes between raster and vector controlled data formats, widely used in professional practice and research in Geography, Cartography and Geomatics. The translated data were processed and analyzed comparatively in its geometrical...

EPOS: a novel use of CERIF for data intensive science

Bailo, Daniele; Jeffery, Keith G.
Fonte: euroCRIS Publicador: euroCRIS
Tipo: Conference Paper
EN
Relevância na Pesquisa
55.87%
Delivered at the CRIS2014 Conference in Rome; published in Procedia Computer Science 33 (Jul 2014).; Contains conference paper (8 pages) and presentation (58 slides).; One of the key aspects of the approaching data-intensive science era is integration of data through interoperability of systems providing data products or visualization and processing services. Far from being simple, interoperability requires robust and scalable e-infrastructures capable of supporting it. In this work we present the case of EPOS, a plan for data integration in the field of Earth Sciences. We describe the design of its e-infrastructure and show its main characteristics. One of the main elements enabling the system to integrate data, data products and services is the metadata catalogue based on the CERIF metadata model. Such a model, modified to fit into the general e-infrastructure design, is part of a three-layer metadata architecture. CERIF guarantees a robust handling of metadata, which is in this case the key to the interoperability and to one of the features of the EPOS system: the possibility of carrying on data intensive science orchestrating the distributed resources made available by EPOS data providers and stakeholders.

MONIL Language, an Alternative for Data Integration

Larre,Mónica; Torres-Jiménez,José; Morales,Eduardo; Frausto-Solís,Juan; Torres,Sócrates
Fonte: Centro de Investigación en computación, IPN Publicador: Centro de Investigación en computación, IPN
Tipo: Artigo de Revista Científica Formato: text/html
Publicado em 01/03/2006 EN
Relevância na Pesquisa
66%
Data integration is a process of retrieving, merging and storing of data originated in heterogeneous sources of data. The main problem facing the data integration is the structural and semantic heterogeneity of participating data. A concern of research communities in computer sciences is the development of semi-automatic tools to assist the user in an effective way in the data integration processes. This paper introduces a programming language called MONIL, as an alternative to integrate data by means of design, storage and program execution. MONIL is based on the use of meta-data, conversion functions, a meta-model of integration and a scheme of integration suggestions. MONIL offers to the user a dedicated work environment with built-in semi-automatic tools supporting the integration process in three stages.