Página 1 dos resultados de 25148 itens digitais encontrados em 0.072 segundos

Análise de estratégias para processamento de redes geodésicas com o sistema de posicionamento global - GPS; Analyses of strategies for processing of geodetic networks with the global positioning system - GPS

Larocca, Ana Paula Camargo
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 10/03/2000 PT
Relevância na Pesquisa
55.93%
O presente trabalho consiste de apresentação de metodologia para estudo, elaboração e análise de estratégias para processamento de observáveis GPS, para a constituição de redes geodésicas. No desenvolvimento deste trabalho foram utilizados os dados observados da rede geodésica do Estado de São Paulo, concluída em 1994. Esta rede é constituída por vinte e quatro pontos distribuídos pelo estado, mais o vértice CHUA, que é o vértice fundamental da triangulação do Sistema Geodésico Brasileiro. Através das estratégias elaboradas são analisados diversos fatores de importância relevante nos processamentos dos dados GPS, como: influência de dados meteorológicos no processamento de linhas bases longas; resultados de processamentos com efemérides transmitidas e precisas; resultados de processamentos com linhas bases de comprimentos homogêneos e menores ou igual a 150 km; resultados de processamentos considerando apenas duas horas e trinta minutos do tempo total de duração das sessões de observação. Os resultados dos ajustamentos destas estratégias são comparados entre si e se apresenta, então, análises e conclusões sobre a influência dos fatores analisados; The present work consists in the presentation of a methodology for study...

Segurança em processamento de dados; Data processing security

Riccio, Edson Luiz
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 16/10/1981 PT
Relevância na Pesquisa
65.94%
A comunidade empresarial e os profissionais de Sistemas e Processamento de Dados enfrentam atualmente um novo tipo de desafio: A ameaça dos computadores. O crescente volume de computadores e a larga utilização das tecnologias de teleprocessamento e de redes estão levando as organizações à crescente dependencia de sua Estrutura de Informatica e de seu principal produto: os sistemas de informação e os demais elementos a eles associados. Não é dificil constatar que o impacto destas tecnologias tem sido absorvido apenas parcialmente não só por usuários mas tambem pelos profissionais. De fato o desenvolvimento dos computadores não é acompanhado pelo correspondente desenvolvimento dos princípios de Administração de Processamento de Dados. Isso significa que os princípios e normas administrativos e de controle para este tipo de atividade não se encontram no estágio desejado, isto é, não foram estabelecidos princípios e normas definitivos para obter-se uma area de Processamento de Dados completamente segura e confiável. Esta "janela aberta" é, como consequência, o caminho mais curto para práticas criminosas e erros generalizados, os quais resultarão em danos ás operações e aos ativos das organizações. O conceito de segurança amplamente utilizado atualmente refere-se mais à segurança física e não inclui todos os componentes de uma área de Processamento de Dados...

Avaliação de arquitetura paralela para smartphones e tablets utilizando GNU/Linux e MPI para processamento de dados; Evaluation of paralle architecture for smartphones and tablets using GNU/Linux and MPI for data processing

Zanoni, Felipe Sanches
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 06/09/2013 PT
Relevância na Pesquisa
55.84%
A versatilidade e principalmente o poder de processamento dos atuais celulares, mais conhecidos como smartphones, e também dos tablets, impulsionam a computação de algorítimos complexos nesses dispositivos. Cada celular ou tablet pode fazer parte de uma grande rede de computadores com capacidade para processar uma enorme quantidade de dados com um consumo muito baixo de energia se comparado aos computadores convencionais. Um outro grande motivador é que muitos desses celulares possuem o sistema operacional Android, o qual é baseado no núcleo Linux. Isso facilita a migração de projetos já desenvolvidos em computadores para essa nova plataforma móvel, uma vez que é possível executar um sistema operacional completo GNU/Linux nesses dispositivos. O objetivo desse trabalho é avaliar e comparar o desempenho de um cluster híbrido formado por dispositivos móveis e computadores, mostrando que é possível desenvolver aplicativos utilizando MPI para processamento paralelo em celulares da mesma forma com que se desenvolve aplicativos para computadores em GNU/Linux. Os resultados mostram qual é a diferença de poder computacional entre os computadores de arquitetura x86 e os dispositivos móveis de tecnologia ARM.; Versatility and mainly processing power of nowadays smartphones and tablets boost complex algorithms computation on these devices. Each cellphone or tablet can be part of a big computer network capable of processing a huge amount of data with low power consumption compared to personal computers. A great motivator also is that these devices have the Android operational system that is based on Linux kernel...

Análise e avaliação do controle de qualidade de dados hospitalares na região de Ribeirão Preto; Analysis and evaluation of the quality control of hospital data in the Ribeirão Preto region.

Vinci, André Luiz Teixeira
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 08/04/2015 PT
Relevância na Pesquisa
45.9%
Introdução: A Qualidade de Dados é de extrema importância atualmente pela crescente utilização de sistemas de informação, em especial na área da Saúde. O Observatório Regional de Atenção Hospitalar (ORAH) é tido como referência na coleta, processamento e manutenção da qualidade de informações hospitalares devida a extensa base de dados de informações oriundas das Folhas de Alta Hospitalar de hospitais públicos, mistos e privados da região de Ribeirão Preto. Uma verificação sistemática é feita para melhorar a qualidade desses dados impedindo a existência de incompletudes e inconsistências ao final do seu processamento. Objetivo: Estabelecer o panorama da qualidade dos dados das altas hospitalares ocorridas em 2012 para cada hospital parceiro do ORAH na região de Ribeirão Preto. Analisar e identificar o ganho ou perda de qualidade durante as etapas de coleta e processamento dos mesmos. Métodos: Análise do fluxo das informações dentro dos hospitais conveniados ao ORAH em conjunto com a análise da qualidade dos dados armazenados pelo ORAH após seu processamento, a partir da criação de indicadores de completude e consistência. Avaliação da qualidade dos dados em cada etapa do protocolo interno de verificação adotado pelo ORAH...

Alterações cognitivas em trabalhadores de uma empresa de processamento de dados; Cognitive problems in workers of a data processing company

Rosa, Roger dos Santos; Hoefel, Maria da Graca Luderitz; Chaves, Marcia Lorena Fagundes; Nardi, Henrique Caetano; Zago, Marilene
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Artigo de Revista Científica Formato: application/pdf
POR
Relevância na Pesquisa
65.81%
Realizou-se estudo de 191 trabalhadores de uma empresa federal de processamento de dados em Porto Alegre, RS, Brasil, em 1989, objetivando estudar déficits cognitivos. São analisadas as relações entre queixas de alteração de memória e os respectivos desempenhos em testes de avaliação cognitiva segundo três grupos de trabalhadores, o primeiro com atividades automatizadas e repetitivas (digitadores) e dois outros com funções diversificadas. Utilizou-se um teste de rastreamento psiquiátrico para controlar esta possível variável de confusão. Existe uma alta prevalência de queixas de perda de memória (65,4%), apesar de não haver evidências significativas de problemas cognitivos. Observou-se uma associação estatisticamente significativa entre a presença ou não de queixas de memória e o desempenho no teste psiquiátrico. Sugere-se que futuros estudos enfatizem o aspecto de saúde mental e sofrimento psíquico para compreensão destas queixas, tendo em vista as características do processo de trabalho na informática.; A study of 191 data processing workers undertaken in Porto Alegre, Brazil, in 1989, is presented. The relationship between complaints of loss of memory and their respective scores on cognitive testing in three groups of workers...

Inclusão de funcionalidades MapReduce em sistemas de data warehousing

Silva, Dário Almeno Matos da
Fonte: Universidade do Minho Publicador: Universidade do Minho
Tipo: Dissertação de Mestrado
Publicado em 18/12/2013 POR
Relevância na Pesquisa
45.92%
Dissertação de mestrado em Engenharia Informática; Em geral, o processo de aquisição de dados nas organizações tornou-se gradualmente mais fácil. Perante a atual proliferação de dados, surgiram novas estratégias de processamento que visam a obtenção de melhores desempenhos dos processos de análise de dados. O MapReduce é um modelo de programação dedicado ao processamento de grandes conjuntos de dados e que coloca em prática muitos dos princípios da computação paralela e distribuída. Este modelo tem em vista facilitar o acesso aos sistemas paralelos e distribuídos a programadores menos experientes, de forma a que estes possam beneficiar das suas características de armazenamento e de processamento de dados. Os frameworks baseados neste modelo de programação ocupam hoje já uma posição de destaque no mercado, sobretudo no segmento dedicado à análise de dados não estruturados, tais como documentos de texto ou ficheiros log. Na prática, o problema do armazenamento das estruturas multidimensionais de dados e a capacidade de realizar cálculos “on the fly”, com tempos de execução reduzidos, constituem desafios muito importantes que têm que ser, também, encarados pelos sistemas de data warehousing modernos. Com efeito...

Direct infusion mass spectrometry metabolomics dataset: a benchmark for data processing and quality control

Kirwan, Jennifer A; Weber, Ralf J M; Broadhurst, David I; Viant, Mark R
Fonte: Nature Publishing Group Publicador: Nature Publishing Group
Tipo: Artigo de Revista Científica
Publicado em 10/06/2014 EN
Relevância na Pesquisa
55.73%
Direct-infusion mass spectrometry (DIMS) metabolomics is an important approach for characterising molecular responses of organisms to disease, drugs and the environment. Increasingly large-scale metabolomics studies are being conducted, necessitating improvements in both bioanalytical and computational workflows to maintain data quality. This dataset represents a systematic evaluation of the reproducibility of a multi-batch DIMS metabolomics study of cardiac tissue extracts. It comprises of twenty biological samples (cow vs. sheep) that were analysed repeatedly, in 8 batches across 7 days, together with a concurrent set of quality control (QC) samples. Data are presented from each step of the workflow and are available in MetaboLights. The strength of the dataset is that intra- and inter-batch variation can be corrected using QC spectra and the quality of this correction assessed independently using the repeatedly-measured biological samples. Originally designed to test the efficacy of a batch-correction algorithm, it will enable others to evaluate novel data processing algorithms. Furthermore, this dataset serves as a benchmark for DIMS metabolomics, derived using best-practice workflows and rigorous quality assessment.

Impact of Data Processing and Antenna Frequency on Spatial Structure Modelling of GPR Data

De Benedetto, Daniela; Quarto, Ruggiero; Castrignanò, Annamaria; Palumbo, Domenico A.
Fonte: MDPI Publicador: MDPI
Tipo: Artigo de Revista Científica
Publicado em 08/07/2015 EN
Relevância na Pesquisa
45.92%
Over the last few years high-resolution geophysical techniques, in particular ground-penetrating radar (GPR), have been used in agricultural applications for assessing soil water content variation in a non-invasive way. However, the wide use of GPR is greatly limited by the data processing complexity. In this paper, a quantitative analysis of GPR data is proposed. The data were collected with 250, 600 and 1600 MHz antennas in a gravelly soil located in south-eastern Italy. The objectives were: (1) to investigate the impact of data processing on radar signals; (2) to select a quick, efficient and error-effective data processing for detecting subsurface features; (3) to examine the response of GPR as a function of operating frequency, by using statistical and geostatistical techniques. Six data processing sequences with an increasing level of complexity were applied. The results showed that the type and range of spatial structures of GPR data did not depend on data processing at a given frequency. It was also evident that the noise tended to decrease with the complexity of processing, then the most error-effective procedure was selected. The results highlight the critical importance of the antenna frequency and of the spatial scale of soil/subsoil processes being investigated.

Compressive Sensing for 3D Data Processing Tasks: Applications, Models and Algorithms

Li, Chengbo
Fonte: Universidade Rice Publicador: Universidade Rice
ENG
Relevância na Pesquisa
65.92%
Compressive sensing (CS) is a novel sampling methodology representing a paradigm shift from conventional data acquisition schemes. The theory of compressive sensing ensures that under suitable conditions compressible signals or images can be reconstructed from far fewer samples or measurements than what are required by the Nyquist rate. So far in the literature, most works on CS concentrate on one-dimensional or two-dimensional data. However, besides involving far more data, three-dimensional (3D) data processing does have particularities that require the development of new techniques in order to make successful transitions from theoretical feasibilities to practical capacities. This thesis studies several issues arising from the applications of the CS methodology to some 3D image processing tasks. Two specific applications are hyperspectral imaging and video compression where 3D images are either directly unmixed or recovered as a whole from CS samples. The main issues include CS decoding models, preprocessing techniques and reconstruction algorithms, as well as CS encoding matrices in the case of video compression. Our investigation involves three major parts. (1) Total variation (TV) regularization plays a central role in the decoding models studied in this thesis. To solve such models...

Distributed multi-scale data processing for sensor networks

Wagner, Raymond S.
Fonte: Universidade Rice Publicador: Universidade Rice
Tipo: Thesis; Text Formato: 180 p.; application/pdf
ENG
Relevância na Pesquisa
45.97%
Wireless sensor networks provide a challenging application area for signal processing. Sensor networks are collections of small, battery-operated devices called sensor nodes, each of which is capable of sensing data, processing data with an onboard microprocessor, and sharing data with other nodes by forming a wireless, multi-hop network. Since communication power consumption in nodes typically dominates over sensing and processing power consumption by orders of magnitude, it is often more efficient to pose questions on measured data in a distributed fashion within the network than it is to collect data at a single location for centralized processing. Under this model, nodes collaborate with each other in some neighborhood using localized communications and in-network processing to compute answers to users' questions, which are then sent over more costly, long-haul links to a data sink. In this thesis, our contributions to distributed data processing in sensor networks fall into two main categories. First, we develop a new class of multi-scale distributed data processing algorithms based on distributed wavelet analysis. Specifically, we formulate and analyze a novel, distributed wavelet transform (WT) suited to the irregular-grid data samples expected in real-world sensor network deployments. The WT replaces node measurements with a set of wavelet coefficients that are more sparse than the original data and enable subsequent distributed processing. We then develop and analyze protocols for wavelet-based processing...

Uma abordagem à organização e tratamento de dados baseada na resolução de problemas; An approach to organization and data processing based on problem solving

Rodrigues, Fernanda Gabriela Mota
Fonte: Universidade do Minho Publicador: Universidade do Minho
Tipo: Trabalho de Conclusão de Curso
Publicado em //2014 POR
Relevância na Pesquisa
65.79%
Relatório de estágio de mestrado em Ensino do 1.º e 2.º Ciclo do Ensino Básico; Esta investigação procura compreender o impacto que a exploração da Organização e Tratamento de Dados [OTD], baseada na resolução de problemas reais, pode adquirir na aprendizagem do tema, pelos alunos. O estudo de natureza qualitativa baseou-se na metodologia de Investigação-Ação e desenvolveu-se em duas experiências pedagógicas: uma no 1.ºciclo, numa turma mista de 1.º e 4.º ano, e outra no 2.º ciclo, numa turma de 5.º ano. O 1.º ciclo possibilitou a realização de investigações estatísticas relacionadas com o quotidiano dos alunos e o 2.º ciclo proporcionou o desenvolvimento de explorações estatísticas relativas às suas vivências. Como forma de fomentar, também, o desenvolvimento psicossocial dos alunos, adotou-se a metodologia do trabalho cooperativo. A recolha de dados, realizada ao longo das 15 intervenções, socorreu-se de vários instrumentos de recolha, tais como, gravações audiovisuais, produções dos alunos, notas de campo e diários reflexivos da investigadora. Os dados obtidos demonstram que, em ambos os ciclos, as situações problemáticas baseadas no quotidiano ofereceram aos alunos uma efetiva compreensão das finalidades das várias ferramentas relativas ao tema...

Virtual Cluster Management for Analysis of Geographically Distributed and Immovable Data

Luo, Yuan
Fonte: [Bloomington, Ind.] : Indiana University Publicador: [Bloomington, Ind.] : Indiana University
Tipo: Doctoral Dissertation
EN_US
Relevância na Pesquisa
55.88%
Thesis (Ph.D.) - Indiana University, Informatics and Computing, 2015; Scenarios exist in the era of Big Data where computational analysis needs to utilize widely distributed and remote compute clusters, especially when the data sources are sensitive or extremely large, and thus unable to move. A large dataset in Malaysia could be ecologically sensitive, for instance, and unable to be moved outside the country boundaries. Controlling an analysis experiment in this virtual cluster setting can be difficult on multiple levels: with setup and control, with managing behavior of the virtual cluster, and with interoperability issues across the compute clusters. Further, datasets can be distributed among clusters, or even across data centers, so that it becomes critical to utilize data locality information to optimize the performance of data-intensive jobs. Finally, datasets are increasingly sensitive and tied to certain administrative boundaries, though once the data has been processed, the aggregated or statistical result can be shared across the boundaries. This dissertation addresses management and control of a widely distributed virtual cluster having sensitive or otherwise immovable data sets through a controller. The Virtual Cluster Controller (VCC) gives control back to the researcher. It creates virtual clusters across multiple cloud platforms. In recognition of sensitive data...

Gaia Data Processing Architecture

O'Mullane, W.; Lammers, U.; Bailer-Jones, C.; Bastian, U.; Brown, A.; Drimmel, R.; Eyer, L.; Huc, C.; Jansen, F.; Katz, D.; Lindegren, L.; Pourbaix, D.; Luri, X.; Mignard, F.; Torra, J.; van Leeuwen, F.
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 29/11/2006
Relevância na Pesquisa
45.91%
Gaia is ESA's ambitious space astrometry mission the main objective of which is to astrometrically and spectro-photometrically map 1000 Million celestial objects (mostly in our galaxy) with unprecedented accuracy. The announcement of opportunity for the data processing will be issued by ESA late in 2006. The Gaia Data Processing and Analysis Consortium (DPAC) has been formed recently and is preparing an answer. The satellite will downlink close to 100 TB of raw telemetry data over 5 years. To achieve its required accuracy of a few 10s of Microarcsecond astrometry, a highly involved processing of this data is required. In addition to the main astrometric instrument Gaia will host a Radial Velocity instrument, two low-resolution dispersers for multi-color photometry and two Star Mappers. Gaia is a flying Giga Pixel camera. The various instruments each require relatively complex processing while at the same time being interdependent. We describe the overall composition of the DPAC and the envisaged overall architecture of the Gaia data processing system. We shall delve further into the core processing - one of the nine, so-called, coordination units comprising the Gaia processing system.; Comment: 10 Pages, 2 figures. To appear in ADASS XVI Proceedings

Advancements in Big Data Processing in the ATLAS and CMS Experiments

Vaniachine, A. V.; ATLAS, on behalf of the; Collaborations, CMS
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 08/03/2013
Relevância na Pesquisa
45.91%
The ever-increasing volumes of scientific data present new challenges for distributed computing and Grid technologies. The emerging Big Data revolution drives exploration in scientific fields including nanotechnology, astrophysics, high-energy physics, biology and medicine. New initiatives are transforming data-driven scientific fields enabling massive data analysis in new ways. In petascale data processing scientists deal with datasets, not individual files. As a result, a task (comprised of many jobs) became a unit of petascale data processing on the Grid. Splitting of a large data processing task into jobs enabled fine-granularity checkpointing analogous to the splitting of a large file into smaller TCP/IP packets during data transfers. Transferring large data in small packets achieves reliability through automatic re-sending of the dropped TCP/IP packets. Similarly, transient job failures on the Grid can be recovered by automatic re-tries to achieve reliable six sigma production quality in petascale data processing on the Grid. The computing experience of the ATLAS and CMS experiments provides foundation for reliability engineering scaling up Grid technologies for data processing beyond the petascale.; Comment: 7 pages, 7 figures

SuperAGILE data processing services

Lazzarotto, F.; Costa, E.; Del Monte, E.; Donnarumma, I.; Evangelista, Y.; Feroci, M.; Lapshov, I.; Pacciani, L.; Soffitta, P.
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 26/11/2009
Relevância na Pesquisa
45.94%
The SuperAGILE (SA) instrument is a X-ray detector for As- trophysics measurements, part of the Italian AGILE satellite for X-Ray and Gamma-Ray Astronomy launched at 23/04/2007 from India. SuperAGILE is now studying the sky in the 18 - 60 KeV energy band. It is detecting sources with advanced imaging and timing detection and good spectral detection capabilities. Several astrophysical sources has been detected and localized, including Crab, Vela and GX 301-2. The instrument has the skill to resolve correctly sources in a field of view of [-40, +40] degrees interval, with the angular resolution of 6 arcmin, and a spectral analysis with the resolution of 8 keV. Transient events are regularly detected by SA with the aid of its temporal resolution (2 microsec- onds) and using signal coincidence on different portions of the instrument, with confirmation from other observatories. The SA data processing scientic software performing at the AGILE Ground Segment is divided in modules, grouped in a processing pipeline named SASOA. The processing steps can be summarized in data reduction, photonlist building, sources extraction and sources analysis. The software services allow orbital data processing (near real-time), daily data set integration...

Data processing model for the CDF experiment

Antos, J.; Babik, M.; Benjamin, D.; Cabrera, S.; Chan, A. W.; Chen, Y. C.; Coca, M.; Cooper, B.; Farrington, S.; Genser, K.; Hatakeyama, K.; Hou, S.; Hsieh, T. L.; Jayatilaka, B.; Jun, S. Y.; Kotwal, A. V.; Kraan, A. C.; Lysak, R.; Mandrichenko, I. V.; Mu
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Relevância na Pesquisa
55.92%
The data processing model for the CDF experiment is described. Data processing reconstructs events from parallel data streams taken with different combinations of physics event triggers and further splits the events into datasets of specialized physics datasets. The design of the processing control system faces strict requirements on bookkeeping records, which trace the status of data files and event contents during processing and storage. The computing architecture was updated to meet the mass data flow of the Run II data collection, recently upgraded to a maximum rate of 40 MByte/sec. The data processing facility consists of a large cluster of Linux computers with data movement managed by the CDF data handling system to a multi-petaByte Enstore tape library. The latest processing cycle has achieved a stable speed of 35 MByte/sec (3 TByte/day). It can be readily scaled by increasing CPU and data-handling capacity as required.; Comment: 12 pages, 10 figures, submitted to IEEE-TNS

A program for SAXS data processing and analysis

Li, Zhi-hong
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 01/07/2013
Relevância na Pesquisa
55.69%
A computer program for small angle X-ray scattering (SAXS) data processing and analysis named S.exe written in Intel Visual Fortran has been developed. This paper briefly introduces its main theory and function.

A Signal processing approach for preprocessing and 3d analysis of airborne small-footprint full waveform lidar data

Wu, Jiaying
Fonte: Rochester Instituto de Tecnologia Publicador: Rochester Instituto de Tecnologia
Tipo: Dissertação
EN_US
Relevância na Pesquisa
45.91%
The extraction of structural object metrics from a next generation remote sensing modality, namely waveform light detection and ranging (LiDAR), has garnered increasing interest from the remote sensing research community. However, a number of challenges need to be addressed before structural or 3D vegetation modeling can be accomplished. These include proper processing of complex, often off-nadir waveform signals, extraction of relevant waveform parameters that relate to vegetation structure, and from a quantitative modeling perspective, 3D rendering of a vegetation object from LiDAR waveforms. Three corresponding, broad research objectives therefore were addressed in this dissertation. Firstly, the raw incoming LiDAR waveform typically exhibits a stretched, misaligned, and relatively distorted character. A robust signal preprocessing chain for LiDAR waveform calibration, which includes noise reduction, deconvolution, waveform registration, and angular rectification is presented. This preprocessing chain was validated using both simulated waveform data of high fidelity 3D vegetation models, which were derived via the Digital Imaging and Remote Sensing Image Generation (DIRSIG) modeling environment and real small-footprint waveform LiDAR data...

Error effects on the processing of adaptive array data using the BOC

Abushagur, Mustafa
Fonte: Wiley Periodicals - Microwave and Optical Technology Letters Publicador: Wiley Periodicals - Microwave and Optical Technology Letters
Tipo: Artigo de Revista Científica
EN_US
Relevância na Pesquisa
55.75%
The Bimodal Optical Computer (BOC) is considered for Adaptive Phase Array Radar (APAR) data processing. The effect of the errors in the BOC and the number of iterations on the optimum weight calculations for the interference cancelling are studied. Computer simulations for five-and nine-element APARs are presented.; Microwave and Optical Technology Letters article. Please see www3.interscience.wiley.com for more information.

Efficient geographic information systems: Data structures, Boolean operations and concurrency control

Sheng, James Min
Fonte: Rochester Instituto de Tecnologia Publicador: Rochester Instituto de Tecnologia
Tipo: Tese de Doutorado
EN_US
Relevância na Pesquisa
55.88%
Geographic Information Systems (GIS) are crucial to the ability of govern mental agencies and business to record, manage and analyze geographic data efficiently. They provide methods of analysis and simulation on geographic data that were previously infeasible using traditional hardcopy maps. Creation of realistic 3-D sceneries by overlaying satellite imagery over digital elevation models (DEM) was not possible using paper maps. Determination of suitable areas for construction that would have the fewest environmental impacts once required manual tracing of different map sets on mylar sheets; now it can be done in real time by GIS. Geographic information processing has significant space and time require ments. This thesis concentrates on techniques which can make existing GIS more efficient by considering these issues: Data Structure, Boolean Operations on Geographic Data, Concurrency Control. Geographic data span multiple dimensions and consist of geometric shapes such as points, lines, and areas, which cannot be efficiently handled using a traditional one-dimensional data structure. We therefore first survey spatial data structures for geographic data and then show how a spatial data structure called an R-tree can be used to augment the performance of many existing GIS. Boolean operations on geographic data are fundamental to the spatial anal ysis common in geographic data processing. They allow the user to analyze geographic data by using operators such as AND...