Página 1 dos resultados de 22057 itens digitais encontrados em 0.028 segundos

Title Model for Computer Networks Optimization

Pereira, João Henrique de Souza; SATO, L. M.; ROSA, P. F.; Kofuji, Sergio Takeo
Fonte: IEEE-INST ELECTRICAL ELECTRONICS ENGINEERS INC Publicador: IEEE-INST ELECTRICAL ELECTRONICS ENGINEERS INC
Tipo: Artigo de Revista Científica
POR
Relevância na Pesquisa
55.93%
The TCP/IP architecture was consolidated as a standard to the distributed systems. However, there are several researches and discussions about alternatives to the evolution of this architecture and, in this study area, this work presents the Title Model to contribute with the application needs support by the cross layer ontology use and the horizontal addressing, in a next generation Internet. For a practical viewpoint, is showed the network cost reduction for the distributed programming example, in networks with layer 2 connectivity. To prove the title model enhancement, it is presented the network analysis performed for the message passing interface, sending a vector of integers and returning its sum. By this analysis, it is confirmed that the current proposal allows, in this environment, a reduction of 15,23% over the total network traffic, in bytes.

Endereçamento por título: uma forma de encaminhamento multicast para a próxima geração de redes de computadores.; Addressing by title: enabling multicast to the next generation of computers networks.

Silva, Flávio de Oliveira
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 03/10/2013 PT
Relevância na Pesquisa
55.87%
A Internet foi projetada em contexto distante da realidade atual. Novas aplicações, novas tecnologias e dispositivos definem um novo conjunto de requisitos, que, entre outros, consiste de suporte a mobilidade, segurança, QoS e multicast. Pesquisadores de todo o mundo estão engajados no projeto da Internet do Futuro. Enquanto muitos procuram evoluir a Internet atual, outros partem do princípio de que arquitetura atual deve ser ignorada afim de se conceber uma nova arquitetura. Partindo de uma visão disruptiva, este trabalho tem por objetivo definir, projetar e avaliar experimentalmente uma forma de encaminhamento onde o multicast seja um requisito central para as aplicações. Essa forma de encaminhamento é baseada em novas relações entre entidades que se comunicam e na utilização de uma identificação/endereçamento única, não ambígua e independente da topologia: seu Título. A arquitetura Entity Title Architecture (ETArch), construída sobre uma infraestrutura baseada em redes definidas por software, estabelece novas relações entre as entidades de sistemas distribuídos. A definição do Workspace, implementado neste trabalho, permite estabelecer um canal por onde múltiplas entidades se comunicam naturalmente de uma forma multicast...

REASoN - avaliação de confiabilidade e disponibilidade em redes de computadores sustentáveis.; REASoN - reliability and availability evaluation of sustainability-oriented computer networks.

Amaral, Marcelo Carneiro do
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 13/12/2013 PT
Relevância na Pesquisa
66.04%
Redes de computadores orientadas à sustentabilidade ou eficientes energeticamente têm a capacidade de adaptar dinamicamente os modos de consumo de energia dos seus dispositivos de acordo com a demanda do tráfego da rede. Por exemplo, colocar no estado dormente os dispositivos que estão abaixo de um nível de utilização predeterminado, considerado de baixa carga. Neste cenário, existem novos desafios no que diz respeito ao modo como confiabilidade e disponibilidade da rede são avaliadas. O cálculo de confiabilidade e disponibilidade é comumente realizado através das técnicas de cadeia de Markov, ou Conjuntos-Conexos e Conjuntos-Desconexos. Porém, tradicionalmente, estas técnicas são baseadas em valores estáticos e não levam em consideração as mudanças dinâmicas que são inseridas no contexto de redes sustentáveis. Desta forma, este trabalho tem como principais objetivos prover um método capaz de avaliar o impacto na confiabilidade ou disponibilidade da rede, quando alguns dispositivos são colocados e tirados de modos de economia de energia, e apresentar a relação de compromisso entre economia de energia, confiabilidade e disponibilidade da rede. O método proposto, chamado REASoN, é uma composição dos dois métodos supracitados...

The application of distributed virtual machines for enterprise computer management: A two-tier network file system for image provisioning and management

Aguiar, César S.; Cruz, Daniel I.; Ulson, Roberta S.; Cavenaghi, Marcos A.
Fonte: Universidade Estadual Paulista Publicador: Universidade Estadual Paulista
Tipo: Conferência ou Objeto de Conferência Formato: 428-431
ENG
Relevância na Pesquisa
55.98%
In order to simplify computer management, several system administrators are adopting advanced techniques to manage software configuration of enterprise computer networks, but the tight coupling between hardware and software makes every PC an individual managed entity, lowering the scalability and increasing the costs to manage hundreds or thousands of PCs. Virtualization is an established technology, however its use is been more focused on server consolidation and virtual desktop infrastructure, not for managing distributed computers over a network. This paper discusses the feasibility of the Distributed Virtual Machine Environment, a new approach for enterprise computer management that combines virtualization and distributed system architecture as the basis of the management architecture. © 2008 IEEE.

Intrusion detection in computer networks using optimum-path forest clustering

Costa, Kelton; Pereira, Clayton; Nakamura, Rodrigo; Papa, Joao
Fonte: Universidade Estadual Paulista Publicador: Universidade Estadual Paulista
Tipo: Conferência ou Objeto de Conferência Formato: 128-131
ENG
Relevância na Pesquisa
55.87%
Nowadays, organizations face the problem of keeping their information protected, available and trustworthy. In this context, machine learning techniques have also been extensively applied to this task. Since manual labeling is very expensive, several works attempt to handle intrusion detection with traditional clustering algorithms. In this paper, we introduce a new pattern recognition technique called Optimum-Path Forest (OPF) clustering to this task. Experiments on three public datasets have showed that OPF classifier may be a suitable tool to detect intrusions on computer networks, since it outperformed some state-of-the-art unsupervised techniques. © 2012 IEEE.

Detecção de anomalias em redes de computadores; Anomaly detection in computer networks

Bruno Bogaz Zarpelão
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 2010/09/3 PT
Relevância na Pesquisa
65.93%
Anomalias em redes de computadores são desvios súbitos e acentuados que ocorrem no tráfego em consequência de diversas situações como defeitos em softwares, uso abusivo de recursos da rede, falhas em equipamentos, erros em configurações e ataques. Nesta tese, é proposto um sistema de detecção de anomalias em redes de computadores baseado em três níveis de análise. O primeiro nível de análise é responsável por comparar os dados coletados em um objeto SNMP (Simple Network Management Protocol) com o perfil de operações normais da rede. O segundo nível de análise correlaciona os alarmes gerados no primeiro nível de análise utilizando um grafo de dependências que representa as relações entre os objetos SNMP monitorados. O terceiro nível de análise reúne os alarmes de segundo nível utilizando informações sobre a topologia de rede e gera um alarme de terceiro nível que reporta a propagação da anomalia pela rede. Os testes foram realizados na rede da Universidade Estadual de Londrina, utilizando situações reais. Os resultados mostraram que a proposta apresentou baixas taxas de falsos positivos combinadas a altas taxas de detecção. Além disso, o sistema foi capaz de correlacionar alarmes gerados para diferentes objetos SNMP em toda a rede...

Inferindo a fonte e o destino do tráfego anômalo em redes de computadores usando correlação espaço-temporal; Inferring the source and destination of the anomalous traffic in networks using spatio-temporal correlation

Alexandre de Aguiar Amaral
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 24/08/2011 PT
Relevância na Pesquisa
55.87%
Estratégias voltadas para a detecção de anomalias em redes de computadores emitem alarmes como forma de notificação ao administrador de rede. Esses alarmes são essenciais para a gerencia de rede, pois são evidencias de uma anormalidade. Entretanto, uma única anomalia pode gerar um numero excessivo de alarmes, tornando a inspeção manual inviável. Nesta dissertação, e apresentado um sistema de correlação de alarmes automatizado, divido em três camadas, que obtém os alarmes primitivos e apresenta ao administrador de rede uma visão global do cenário afetado pela anomalia. A camada de pré-processamento faz a compressão dos alarmes utilizando seus atributos espaciais e temporais, os quais são reduzidos a um único alarme denominado DLA (Alarme em Nível de Equipamento). A camada de correlação busca, através dos DLAs e de informações sobre a topologia da rede, inferir o caminho de propagação da anomalia, sua origem e destino. A camada de apresentação prove a visualização do caminho e elementos de redes afetados pela propagação da anomalia. O sistema apresentado nesta dissertação foi aplicado em diversos cenários que apresentavam anomalias reais detectadas na rede da Universidade Estadual de Londrina. Foi demonstrada sua capacidade de identificar...

Modelagem de redes de computadores por métodos estatísticos; Modeling of computer networks by statistical methods

Renata Lussier Spagnol
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 09/12/2011 PT
Relevância na Pesquisa
65.96%
A sociedade atual é dependente das Redes de Computadores para seu cotidiano e, portanto, mantê-las em boas condições de operação é essencial. Reagir aos problemas é uma estratégia que implica em degradação ou interrupção da rede e incorre geralmente em altos custos. é preferível detectar antecipadamente os problemas e corrigi-los proativamente, o que implica no uso de técnicas preditivas para controle, tais como os métodos estatísticos. Este trabalho determinou a possibilidade de se avaliar a rede com um menor número de variáveis em relação a um modelo existente e apontou maneiras de aprimorar a qualidade do monitoramento com uso técnicas estatísticas mais recentes e menos usuais. Os experimentos realizados consistiram-se na análise de traços de uma rede real previamente armazenados em bases de dados, sobre os quais foram aplicados cálculos de coeficiente de correlação linear para redução de variáveis. Ajustou-se um modelo para a rede com métodos de análises de Séries Temporais e foram testadas as cartas de Soma Acumulativa (CUSUM) e de Média Móvel Exponencialmente Ponderada (MMEP) em substituição às de média e amplitude. Obteve-se uma redução inicial de 23 para 4 na quantidade de variáveis a monitorar estatisticamente...

Deadlock detection in computer networks.

Goldman, Barry
Fonte: Massachusetts Institute of Technology Publicador: Massachusetts Institute of Technology
Tipo: Tese de Doutorado Formato: [14] leaves, [166] p.; 15026965 bytes; 15026723 bytes; application/pdf; application/pdf
ENG
Relevância na Pesquisa
55.9%
Thesis. 1977. M.S.--Massachusetts Institute of Technology. Dept. of Electrical Engineering and Computer Science.; MICROFICHE COPY AVAILABLE IN ARCHIVES AND ENGINEERING.; Bibliography : leaf 83.

A unified theory of flow control and routing in data communication networks

Golestaani, Seyyed Jamaaloddin
Fonte: Massachusetts Institute of Technology Publicador: Massachusetts Institute of Technology
Tipo: Tese de Doutorado Formato: 94 leaves; 5064620 bytes; 5064383 bytes; application/pdf; application/pdf
ENG
Relevância na Pesquisa
55.92%
by Seyyed Jamaaloddin Golestaani.; Thesis (Ph.D.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 1980.; MICROFICHE COPY AVAILABLE IN ARCHIVES AND ENGINEERING.; Includes bibliographical references.

Desenvolvimento de um Web Lab SOA no domínio de redes de computadores; Development of the Web Lab SOA in computer networks domain

Farias, Adriano Fiad
Fonte: Universidade Federal de Uberlândia Publicador: Universidade Federal de Uberlândia
Tipo: Dissertação
POR
Relevância na Pesquisa
65.93%
A diversidade de ambientes de EAD (Educação a Distância) para Web proporciona a seus usuários diferentes funcionalidades que podem ser exploradas no processo de ensino e aprendizagem a distância. Considerando tal premissa, este trabalho apresenta o desenvolvimento de um laboratório de acesso remoto ou WebLab, segundo o paradigma de computação orientada a serviço. Nesta arquitetura, os blocos elementares são serviços que, recursivamente, podem ser combinados na construção de serviços mais complexos. Cada recurso físico ou lógico do laboratório é modelado e implementado como um serviço, e assim, experimentos oferecidos pelo Web- Lab são construídos pela composição destes serviços. Apresenta-se um WebLab, construído segundo a arquitetura proposta, explorando experimentos no domínio de redes de computadores. Dentre as características marcantes da arquitetura do WebLab proposto, destacam-se a independência de plataforma; padronização para troca de mensagens utilizando XML (eXtensible Markup Language); comunicação entre o domínio do usuário e domínio do Laboratório utilizando protocolo SOAP (Simple Object Access Protocol); escalabilidade para representar e configurar os hosts do laboratório; flexibilidade para inserção de novos recursos físicos/lógicos exigindo pouco esforço por parte dos proponentes; composição de experimentos sem alteração dos já existentes. __________________________________________________________________________________________ ABSTRACT; The diversity of EAD (The Distance Education) environments for Web provides its users with different features that can be applied in the process of teaching and learning at distance. Considering such premise...

Redefining attack: taking the offensive against networks

Michael, Robert J.; Staples, Zachary H.
Fonte: Monterey, California. Naval Postgraduate School Publicador: Monterey, California. Naval Postgraduate School
Tipo: Tese de Doutorado Formato: xxiv, 141 p. : ill. (some col.) ;
Relevância na Pesquisa
55.97%
Approved for public release; distribution is unlimited; This thesis done in cooperation with the MOVES Institute; The Information Age empowers individuals, and affords small groups an opportunity to attack states' interests with an increasing variety of tactics and great anonymity. Current strategies to prevail against these emerging threats are inherently defensive, relying on potential adversaries to commit mistakes and engage in detectable behavior. While defensive strategies are a critical component of a complete solution set, they cede initiative to the adversary. Moreover, reactive measures are not suited to quickly suppress adversary networks through force. To address this shortfall in strategic planning, the science of networks is rapidly making clear that natural systems built over time with preferential attachment form scale-free networks. These networks are naturally resilient to failure and random attack, but carry inherent vulnerabilities in their highly connected hubs. Taking the offensive against networks is therefore an exercise in discovering and attacking such hubs. To find these hub vulnerabilities in network adversaries, this thesis proposes a strategy called Stimulus Based Discovery, which leads to rapid network mapping and then systematically improves the accuracy and validity of this map while simultaneously degrading an adversary's network cohesion. Additionally...

Developing a reliable methodology for assessing the computer network operations threat of North Korea

Brown, Christopher
Fonte: Monterey, California. Naval Postgraduate School Publicador: Monterey, California. Naval Postgraduate School
Tipo: Tese de Doutorado Formato: xiv, 77 p. : ill. (some col.) ;
Relevância na Pesquisa
66.09%
Approved for release; distribution is unlimited; Computer network operations (CNO) can be considered a relatively new phenomenon being encount modern warfare. Computer network operation is comprised of three components, computer network attack computer network exploitation (CNE), and computer network defense (CND). Computer network attack is def operations to disrupt, deny, degrade, or destroy information resident in computer networks, or the computers and ne themselves. Computer network exploitation is the intelligence collection and enabling operations to gather data from adversary automated information systems (AIS) or networks. Finally, computer network defense are those me internal to the protected entity, taken to protect and defend information, computers, and networks from disruption, degradation, or destruction. No longer is warfare limited to the use of kinetic weapons and conventional methods of war. Computer network operations have become an integral part of our adversary's arsenal and more attention must be paid to the effects of CNO activities, particularly CNA and CNE being conducted by our adversaries. Of the many states suspected of conducting active CNO activities against the United States and other nations, none warrants more attention than North Korea. This thesis presents the development of methodology using information available from open sources. This work is intended to prove that a useful methodology for assessing the CNO capabilities and limitations of North Korea can be developed using only open source information.; Lieutenant...

Towards Simulation and Emulation of Large-Scale Computer Networks

Van Vorst, Nathanael M
Fonte: FIU Digital Commons Publicador: FIU Digital Commons
Tipo: Artigo de Revista Científica Formato: application/pdf
Relevância na Pesquisa
55.95%
Developing analytical models that can accurately describe behaviors of Internet-scale networks is difficult. This is due, in part, to the heterogeneous structure, immense size and rapidly changing properties of today's networks. The lack of analytical models makes large-scale network simulation an indispensable tool for studying immense networks. However, large-scale network simulation has not been commonly used to study networks of Internet-scale. This can be attributed to three factors: 1) current large-scale network simulators are geared towards simulation research and not network research, 2) the memory required to execute an Internet-scale model is exorbitant, and 3) large-scale network models are difficult to validate. This dissertation tackles each of these problems. First, this work presents a method for automatically enabling real-time interaction, monitoring, and control of large-scale network models. Network researchers need tools that allow them to focus on creating realistic models and conducting experiments. However, this should not increase the complexity of developing a large-scale network simulator. This work presents a systematic approach to separating the concerns of running large-scale network models on parallel computers and the user facing concerns of configuring and interacting with large-scale network models. Second...

Uma proposta de otimização no processo de integração entre redes infra-estruturadas e MANET's; A optimization proposal on integration process between infraestructured networks and MANETs

Schneiders, Luis Antônio
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Dissertação Formato: application/pdf
POR
Relevância na Pesquisa
55.87%
Uma Rede Móvel Ad Hoc (MANET) consiste em uma coleção de terminais que possuem uma interface de transmissão e recepção sem fio (wireless) e que se movimentam em uma determinada área de abrangência. Geralmente esses terminais fazem uso de freqüências de rádio nas comunicações e configuram uma rede não infraestruturada. As MANETs, também conhecidas como independentes, não necessitam de qualquer infra-estrutura pré-existente para prover comunicação entre os nós, contudo, são utilizadas, principalmente quando integradas à Internet. Essa integração, apesar de possível, normalmente necessita de um gateway que encaminhe os pacotes entre as redes de computadores, respeitando as suas características individuais. Problemas, assim como atrasos e perdas de pacotes, podem ser provocados pelas diferenças intríncias aos protocolos de roteamento. Embora o Internet Engineering Task Force (IETF) proponha diversos protocolos de roteamento para as MANETs, o presente trabalho investiga o protocolo de roteamento Ad hoc On-Demand Distance Vector (AODV), por ser considerado um dos protocolos mais implementados e estudados pelo grupo de trabalho do IETF. O nodo gateway, embora já esteja implementado no protocolo de roteamento AODV (HAMIDIAN...

Using Information Theory to Study the Efficiency and Capacity of Caching in the Computer Networks

Ryabko, Boris
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 13/10/2013
Relevância na Pesquisa
55.9%
Nowadays computer networks use different kind of memory whose speeds and capacities vary widely. There exist methods of a so-called caching which are intended to use the different kinds of memory in such a way that the frequently used data are stored in the faster memory, wheres the infrequent ones are stored in the slower memory. We address the problems of estimating the caching efficiency and its capacity. We define the efficiency and capacity of the caching and suggest a method for their estimation based on the analysis of kinds of the accessible memory.

Traffic Dynamics of Computer Networks

Fekete, Attila
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 07/10/2008
Relevância na Pesquisa
55.96%
Two important aspects of the Internet, namely the properties of its topology and the characteristics of its data traffic, have attracted growing attention of the physics community. My thesis has considered problems of both aspects. First I studied the stochastic behavior of TCP, the primary algorithm governing traffic in the current Internet, in an elementary network scenario consisting of a standalone infinite-sized buffer and an access link. The effect of the fast recovery and fast retransmission (FR/FR) algorithms is also considered. I showed that my model can be extended further to involve the effect of link propagation delay, characteristic of WAN. I continued my thesis with the investigation of finite-sized semi-bottleneck buffers, where packets can be dropped not only at the link, but also at the buffer. I demonstrated that the behavior of the system depends only on a certain combination of the parameters. Moreover, an analytic formula was derived that gives the ratio of packet loss rate at the buffer to the total packet loss rate. This formula makes it possible to treat buffer-losses as if they were link-losses. Finally, I studied computer networks from a structural perspective. I demonstrated through fluid simulations that the distribution of resources...

An Applied Study on Educational Use of Facebook as a Web 2.0 Tool: The Sample Lesson of Computer Networks and Communication

Kayri, Murat; Cakir, Ozlem
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 02/09/2010
Relevância na Pesquisa
55.96%
The main aim of the research was to examine educational use of Facebook. The Computer Networks and Communication lesson was taken as the sample and the attitudes of the students included in the study group towards Facebook were measured in a semi-experimental setup. The students on Facebook platform were examined for about three months and they continued their education interactively in that virtual environment. After the-three-month-education period, observations for the students were reported and the attitudes of the students towards Facebook were measured by three different measurement tools. As a result, the attitudes of the students towards educational use of Facebook and their views were heterogeneous. When the average values of the group were examined, it was reported that the attitudes towards educational use of Facebook was above a moderate level. Therefore, it might be suggested that social networks in virtual environments provide continuity in life long learning.; Comment: 11 pages

A Multilayer Model of Computer Networks

Shchurov, Andrey A.
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 02/09/2015
Relevância na Pesquisa
55.99%
The fundamental concept of applying the system methodology to network analysis declares that network architecture should take into account services and applications which this network provides and supports. This work introduces a formal model of computer networks on the basis of the hierarchical multilayer networks. In turn, individual layers are represented as multiplex networks. The concept of layered networks provides conditions of top-down consistency of the model. Next, we determined the necessary set of layers for network architecture representation with regard to applying the system methodology to network analysis.; Comment: 5 pages, 4 figures. ISSN:2231-2803

Characteristics of Destination Address Locality in Computer Networks: A Comparison of Caching Schemes

Jain, R.
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 24/09/1998
Relevância na Pesquisa
55.93%
The size of computer networks, along with their bandwidths, is growing exponentially. To support these large, high-speed networks, it is neccessary to be able to forward packets in a few microseconds. One part of the forwarding operation consists of searching through a large address databse. This problem is encountered in the design of bridges, routers, gateways and name servers. Caching can reduce the lookup time if there is a locality in the address reference pattern. Using a destination reference trace measured on an extended local are a network, we attempt to see if the destination refernces do have a significant locality. We compared the performance of MIN, LRU, FIFO, and random cache replacement algorithms. We found that the interactive (terminal) traffic in our sample had quite different locality behavior than that of the noninteractive traffic. The interactive traffic did not follow the LRU stack model while the noninteractivetraffic did. Examples are shown of the environments in which caching can help as well as those in which caching can hurt, unless the cache size is large.