quarta-feira, 16 de julho de 2014

GERÊNCIA DE MEMÓRIA PRINCIPAL

RESUMO: A gerência da memória principal tem um papel vital para um bom desempenho geral do sistema. Através dela o sistema pode definir e administrar como os programas irão utilizar essa memória, tendo foco em uma maior disponibilidade e compartilhamento da memória bem como dos recursos computacionais. Os tipos de alocação de memória referem-se em o sistema operacional encontrar um equilíbrio pra com os espaços ocupados e não ocupados da memória para prevenir fragmentações da memória e melhorar o desempenho. As técnicas de alocação são usadas para minimizar a fragmentação ou impedir que ela ocorra com maior frequência. O swapping é uma técnica para alternar processos entre a memória principal e a secundária e visa garantir um melhor uso para a memória.
Palavras-chave: gerência, memória, alocação

1 INTRODUÇÃO

Antigamente, considerava-se a memória principal um recurso escasso e caro. Por causa disso, foi preciso desenvolver sistemas que ocupassem pouca memória e aperfeiçoassem o uso de recursos ao mesmo tempo. Nos dias atuais, vê-se a redução de custo e aumento de capacidade da memória principal e, mesmo assim, seu gerenciamento é indispensável em um projeto de sistema operacional. Como em sistemas multiprogramáveis houve maior demanda de usuários e aplicações que utilizem a memória principal, sua gerência se tornou vital para esses sistemas.

2 GERÊNCIA DE MEMÓRIA PRINCIPAL

Funções

Ao executar algo, o sistema operacional deve sempre transferir o programa da memoria secundária para a principal, mas, com o tempo, podem-se haver diferenças no tempo de acesso dessas duas memórias, caso isso persista, poderá causar sérios problemas ao seu desempenho. A gerência de memória deve maximizar o compartilhamento de processador e recursos mantendo os processos residentes na memória principal. Também permitir execução de programas maiores que a memória física, através de overlay e memória virtual. As áreas de memória ocupadas por processos devem ser protegidas, se um programa tentar acessar indevidamente a memória, o sistema deve impedi-lo. Além disso, deve-se ser oferecidos mecanismos de compartilhamento para que processos possam compartilhar dados de forma segura.

Alocação de memória

Alocação contígua simples

A memória principal é dividida entre o sistema operacional e o programa do usuário. O usuário possui controle total da memória principal, no entanto, alguns sistemas implementam um registrador para delimitar a área do sistema operacional e do usuário. Com isso, o sistema verifica se o programa a ser executado está dentro dos limites, caso contrário, será cancelado.
Nesse tipo de alocação, apenas um usuário pode dispor dos recursos computacionais. Se houver espaço livre na memória principal durante a execução de um programa, este não poderá ser utilizado.

Técnica de Overlay

Os programas são divididos em módulos que são executados de forma independente, ocupando uma mesma área da memória. Em um programa com três módulos, haverá um principal, um de cadastramento e outro de impressão, sendo o de cadastramento e impressão independentes. Essa independência sugere que um módulo não necessita estar presente se já houver outro na memória. Como o módulo principal é comum aos outros dois, este permanece na memória o tempo todo. Na pratica, se a memória for insuficiente, os módulos de cadastramento e impressão utilizarão a mesma área da memória (área de overlay). O tamanho da área de overlay é definido pelo tamanho do maior módulo, ou seja, se houver um módulo de 4kb e outro de 2kb, a área de overlay terá 4kb. Essa técnica tem sua vantagem por expandir a memória, porém, sua utilização exige cuidados, pois poderá gerar problemas com aplicações, pela transferência excessiva de módulos entre memória principal e secundária.

Alocação Particionada Estática

Nos primeiros sistemas multiprogramáveis, dividia-se a memória em partições (pedaços) fixas, com tamanho definido na inicialização, de acordo com os programas a serem executados no ambiente. Caso houvesse necessidade de alterar o tamanho das partições, o sistema deveria ser desativado e reinicializado. Os programas só podiam ser executados em uma partição específica, e mesmo que houvesse outras partições e outros programas, estes não seriam processados. Isso é característica da época em que os compiladores e montadores usavam o código absoluto (referenciável ao endereço físico da memória), mas com evolução dos mesmos, o código passou a ser relocável (referenciável ao início do código).
Isso significa que os programas podem ser executados a partir de qualquer posição. Ao carregar o programa, o loader calcula o endereço a partir de sua posição inicial e, no caso se um programa A e outro B terminarem, o programa E pode se executado em qualquer outra partição. Essa é a alocação particionada estática relocável. Essa gerência dispõe de uma tabela de controle das partições, com o endereço inicial de cada uma, seu tamanho e seu estado de uso. Essa tabela é analisada sempre que um programa é carregado na memória. A proteção é assegurada por dois registradores, caso haja violação aos limites de memória por eles estabelecidos, o programa será interrompido. Tanto no absoluto quanto no relocável há espaços não preenchidos nas partições. Isso, decorrente da alocação fixa das partições, gera um problema conhecido como fragmentação interna.

Alocação Particionada dinâmica

Nesse tipo de alocação, partições de tamanho fixo foram deixadas de lado, pois cada programa passou a utilizar o espaço necessário, tornando a área sua partição. Resolvido o problema da fragmentação, foi possível aumentar o grau de compartilhamento da memória. Porém, na alocação particionada dinâmica ocorre-se outro tipo de fragmentação: a externa. Essa fragmentação ocorre quando os programas estão terminando e deixam espaços cada vez menores para os novos ingressarem. Uma solução para este problema é conforme o termino dos programas, esses espaços vão sendo reunidos para formar uma área maior, já outra solução envolve a relocacão de todas as partições ocupadas, criando uma única área livre. Mas, para que isso seja possível, o sistema deve ser capaz de mover os programas da memória principal (relocação dinâmica), porém, a complexidade do seu algoritmo e consumo de recursos do sistema podem tornar a relocação dinâmica inviável.

Estratégias de Alocação

A função das estratégias de alocação é minimizar a fragmentação externa. A escolha de uma delas depende de vários fatores, sendo o mais importante o tamanho dos programas processados no ambiente. Independente da escolha, o sistema terá uma lista de áreas livres, com o endereço e tamanho de cada área.

Best-fit: a partição escolhida é aquela em que o programa deixa o menor espaço sem uso. Diminui-se o tempo de busca por uma área desocupada, pois a lista de áreas livres fica ordenada por tamanho. No entanto, sua desvantagem está na tendência de ter cada vez mais pequenas áreas não-contíguas, o que aumenta a fragmentação.

Worst-fit: essa é o oposto da anterior, pois escolhe a partição com maior espaço sem uso. Essa técnica deixa maiores espaços livres que permitem a um maior numero de programas utilizarem a memória, diminuindo assim, a fragmentação.

First-fit: nesta estratégia, a primeira partição livre que dispor tamanho suficiente para carregar o programa é a escolhida. A lista de áreas livres está ordenada por endereços crescentemente. Como o método tenta primeiro utilizar as áreas livres de endereços mais baixos, há uma grande chance de se obter uma grande partição livre nos endereços de memória mais altos. Das três é a mais rápida e consome menos recursos.

Swapping

O swapping é uma técnica aplicada á gerência de memória para programas que esperam por memória livre para serem executados. O sistema escolhe um processo residente, que é transferido da memória principal para a secundária (swap out), depois o processo é carregado retornando para a memória principal (swap in) e pode continuar sua execução normalmente. O processo escolhido deve ser aquele com menores chances de ser escalonado para evitar o swapping desnecessário. Os processos em swapping podem estar em estado de espera ou de pronto, quando saem do swapping são ditos não-residentes (outswapped).
Para que essa técnica seja possível, o sistema deve dispor de um loader que implemente relocação dinâmica de programas. A relocação dinâmica é realizada através de um registrador denominado registrador de relocação. Quando o programa é carregado na memória, o registrador recebe o endereço inicial da posição da memória que o programa ocupa. Toda vez que ocorrer uma referência a algum endereço, o endereço contido na instrução será somado ao conteúdo do registrador, gerando o endereço físico. Sendo assim, um programa pode ser carregado em qualquer posição na memória.
O swapping permite um maior compartilhamento da memória principal e melhor utilização dos recursos do computador. Seu problema é o elevado custo das operações de entrada/saída (swap in/out). Em caso de pouca memória disponível, o sistema pode ficar totalmente dependente do swapping. Essa situação denomina-se thrashing e é considerado um problema crítico na gerência de memória dos sistemas operacionais.

REFERÊNCIAS BIBLIOGRÁFICAS
STALLINGS, Willian. Operating Systems – Internals and Design Principles. Sixth Edition. Peason Prentice hall. New Jersey, 2009.
MACHADO, Francis Berenger. Arquitetura de Sistemas Operacionais. Rio de Janeiro: LTC, 2007.
TANEMBAUM, Andrew S. Sistemas Operacionais: projeto e implementação. 2.ed Porto Alegre: Bookman, 2000.

OSPF E RIP

INTRODUÇÃO

RIP é um protocolo de roteamento interno bem antigo e com alguns problemas, porém é bem estabelecido e simples, o que fez sua popularidade. No entanto, na tentativa de se ter um protocolo de roteamento melhor, surgiu o OSPF, com mais capacidades para sistemas maiores e mais complexos do que o RIP. Este trabalho conceitua um pouco das características desses dois protocolos, tanto quanto sua historia, vantagens ou desvantagens.

OSPF

Open Shortest Path First (OSPF) foi desenvolvido no final de 1980 para fornecer um protocolo de roteamento interior mais capaz para sistemas autônomos maiores ou mais complexas que não estavam sendo bem servida por RIP. Ele usa o caminho mais curto dinâmica primeiro ou algoritmo de roteamento de estado de link, com cada roteador mantém um banco de dados contendo informações sobre o estado ea topologia do conjunto de redes. Devido a alterações para o conjunto de redes, os roteadores enviam informações do estado atualizada, que permite que cada roteador para calcular dinamicamente o melhor caminho para qualquer rede, em qualquer ponto no tempo. OSPF é um complemento para RIP em que RIP é simples, mas limitada, onde OSPF é mais capaz, mas mais complicado.
O conceito fundamental por trás OSPF é uma estrutura de dados chamada de banco de dados link-state (LSDB). Cada roteador em um sistema autônomo mantém uma cópia dessa base de dados , que contém informações na forma de um grafo direcionado que descreve o estado atual da autonomia sistema. Cada ligação a uma rede ou outro roteador é representado por uma entrada no banco de dados, e cada um tem um custo associado (ou métrica ). A métrica pode ser feito para incluir muitos aspectos diferentes do desempenho rota, e não apenas uma contagem de saltos simples como é usado em RIP.
Para determinar rotas reais, cada roteador usa seu banco de dados link-state para a construção de uma árvore de caminho mais curto . Esta árvore mostra os links do router para o outro roteador e rede, e permite que a rota de menor custo para qualquer local a ser determinado . À medida que novas informações sobre o estado do conjunto de redes chega, esta árvore pode ser recalculado, de modo que o melhor caminho é ajustado dinamicamente com base nas condições de rede. Quando mais de uma rota com um custo igual existe, o tráfego pode ser compartilhado entre as rotas.
Características e desvantagens do OSPF
Além desses benefícios óbvios do algoritmo link-state, o OSPF inclui vários outros recursos de valor, especialmente para grandes organizações. Ele suporta autenticação de segurança, e todos os três principais tipos de endereçamento IP (classful, sub-redes classful e classless). Para grandes sistemas autônomos, OSPF também permite que os roteadores sejam agrupados e organizados em uma topologia hierárquica. Isto permite uma melhor organização e melhoria do desempenho através da redução link-state anúncio de tráfego.
Naturalmente, a funcionalidade superior e muitas características do OSPF não vêm sem um custo. Neste caso, o custo principal é a de complexidade . Onde RIP é um protocolo simples e fácil de usar, OSPF requer mais trabalho e mais experiência para configurar corretamente e manter. Isto significa que mesmo que o OSPF é considerado melhor do que RIP tecnicamente, não é para todos. O papel óbvio para OSPF é como um protocolo de roteamento para sistemas autônomos maiores ou mais alto-desempenho, deixando RIP para cobrir as internetworks menores e mais simples.

RIP

O Routing Information Protocol (RIP) é um dos protocolos de roteamento internos mais antigos e populares. Ele usa um algoritmo de vetor de distância com cada roteador mantém uma tabela indicando como chegar a várias redes no sistema autônomo ea distância a ela em saltos. RIP é popular porque é bem estabelecida e simples, mas tem uma série de limitações importantes. A história do protocolo e como ele veio a alcançar destaque é um tanto interessante. Ao contrário de muitos outros protocolos importantes no conjunto TCP / IP, RIP não foi desenvolvido pela primeira vez formalmente usando o processo de normalização RFC.
Pelo contrário, ela evoluiu como norma industrial de facto e só se tornou um padrão da Internet no futuro. Sua origem veio junto com a Ethernet, pois ao mesmo tempo em que esta estava sendo desenvolvido, o Centro de Pesquisa de Palo Alto da Xerox (PARC) criou um protocolo de camada superior para rodar em Ethernet chamado Xerox PARC Universal Protocol (PUP). PUP necessitava um protocolo de roteamento, então Xerox criou um protocolo chamado de gateway Information Protocol (GWINFO). Isso foi mais tarde rebatizado de Routing Information Protocol e usado como parte do conjunto de protocolos Xerox Network System (XNS).
A popularidade do RIP deveu-se em grande parte à sua inclusão no BSD; este por sua vez foi um resultado da relativa simplicidade do protocolo. RIP utiliza o algoritmo de vetor de distância (também chamado de algoritmo de Bellman-Ford depois que dois de seus inventores) para determinar rotas. Cada roteador mantém uma tabela de roteamento que contém entradas para várias redes ou hosts da rede interna. Cada entrada contém duas peças principais de informação: O endereço da rede ou host, e a distância para ele, medido em saltos, que é simplesmente o número de roteadores que um datagrama deve passar para chegar ao seu destino.

RIP Visão Operacional, Vantagens e Limitações

Em uma base regular, cada roteador na rede interna envia sua tabela de roteamento em uma mensagem especial em cada uma das redes a que está ligado, usando UDP. Outros roteadores receber essas tabelas e usá-las para atualizar os seus próprios quadros. Isto é feito tomando cada uma das vias que recebem e adicionando um salto extra. Por exemplo, se o roteador A recebe uma indicação de roteador B que a rede N1 é de 4 saltos de distância, em seguida, uma vez que router A e router B são adjacentes, a distância do roteador A para N1 é 5. Depois de um roteador atualiza suas tabelas, que por sua vez envia esta informação para outros roteadores em suas redes locais. Com o tempo, a informação de distância de roteamento para todas as redes se propaga ao longo de toda a inter-rede.
RIP é direta na operação, fácil de implementar, e pouco exigente do poder de processamento do roteador, o que o torna atraente, especialmente em sistemas autônomos menores. Existem, no entanto, algumas limitações importantes que surgem devido à simplicidade do protocolo. Para começar, lúpulo, muitas vezes não são a melhor métrica para usar na escolha de rotas. Há também um certo número de problemas que surgem com o próprio algoritmo. Estes incluem a convergência lenta (demora em ter todos os roteadores concordar com as mesmas informações de roteamento) e problemas relacionados com falhas de ligação de rede. RIP inclui vários recursos especiais para resolver alguns desses problemas, mas outros são limitações inerentes ao protocolo. Por exemplo, o RIP só suporta um máximo de 15 saltos entre destinos, tornando-o inadequado para grandes sistemas autônomos, e isso não pode ser mudado.

Desenvolvimento de RIP versão 2 (RIP-2)

Alguns outros problemas com RIP foram resultado de ter sido desenvolvido no início de 1980 quando o TCP / IP ainda estava em sua infância. Ao longo do tempo, como a utilização de protocolos TCP / IP alterado, RIP tornado obsoleto. Em resposta, o RIP versão 2 , ou RIP-2 foi criado no início de 1990. RIP-2 define um novo formato de mensagem para RIP e inclui uma série de novos recursos, incluindo suporte para endereçamento sem classes, autenticação, e do uso de multicast em vez de transmissão para melhorar o desempenho da rede. Ele foi definido pela primeira vez em RFC 1388, RIP Version 2 de transporte Informações adicionais , publicado em Janeiro de 1993. Este RFC foi revisto na RFC 1723, e finalizado em RFC 2453, RIP Version 2 de Novembro de 1998.

REFERÊNCIAS
TCP/IP Guide, OSPF Overview, history, Standards and Versions. Disponível em: <http://www.tcpipguide.com/free/t_OSPFOverviewHistoryStandardsandVersions.htm> Acessado em: 15 de junho de 2014
TCP/IP Guide, RIP Overview, history, Standards and Versions. Disponível em: <http://www.tcpipguide.com/free/t_RIPOverviewHistoryStandardsandVersions.htm> Acessado em: 15 de junho de 2014

INTERNET PROTOCOL VERSION 4 (IPv4)

INTRODUÇÃO

A versão mais usada do Internet Protocol (designada por IP versão 4 ou IPv4) não foi substancialmente alterada desde a publicação do RFC 791 em 1981. O IPv4 tem dado provas de ser robusto, facilmente implementado e Inter operável, tendo suportado o teste de escalar um conjunto de redes num utilitário global do tamanho da Internet atual. Este fato demonstra a qualidade da respectiva concepção original. No entanto, a concepção inicial não antecipou o recente crescimento exponencial da Internet e o iminente esgotamento do espaço de endereços IPv4.
1 Internet Protocol Version 4

A internet conhecida atualmente é um aglomerado de computadores espalhados ao redor do mundo, disponibilizando serviços diversos a quem tiver interesse e autorização para acessá-los. Dessa forma, internautas localizados num extremo do mundo, podem acessar dados alocados em servidores a milhares de Km de distância. Para que computadores distintos, rodando Sistemas Operacionais diferentes, possam se comunicar, se faz necessário que estes computadores tenham os mesmos padrões de comunicação. Isso se torna possível graças ao protocolo IP. É ele que dá aos equipamentos na web um endereço único, possibilitando que sejam identificados e encontrados e, consequentemente, que a comunicação ocorra entre os diversos agentes da internet: internautas, servidores, provedores e roteadores entre outros. O IP também é a linguagem que a internet entende, estabelecendo padrões para que a comunicação ocorra.
O protocolo IP não trabalha sozinho, ele faz parte de uma pilha de protocolos que, juntos, realizam o serviço de interconexão dos dispositivos. Essa pilha de protocolos é formada ainda pelo protocolo TCP (Transport Control Protocol), que é responsável por fazer com que a mensagem chegue a seus destinatários, pelo DNS (Domain Name System), pelo HTTPS, SMTP, ICMP, e mais uma infinidade de protocolos auxiliares. O IP predominante na internet até o presente momento é o IP versão 4 (IPv4), padrão que vem se estendendo desde os primórdios das redes de computadores e que está com os dias contados.
O IPv4 é composto por uma cadeia de 04 octetos, ou seja, 04 sequências de 08 bits, 32 no total, podendo ser representado na forma binária ou decimal. Um exemplo de número IP no formato binário: 11000000 10101000 00000000 00000001. Para um melhor entendimento, é melhor colocar esse IP em forma decimal: 192.168.0.1. Assim fica mais fácil identificar um computador em uma rede qualquer.

1.1 Máscara de sub-rede e classes IP

Máscara de sub-rede no protocolo IP refere-se a um conjunto de 32 bits, semelhantes ao próprio endereço IP, responsável por separar o endereço IP em porções, denominados Classes, assim a máscara define qual a porção do IP é destinado a rede e qual porção refere-se aos hosts(1).
Os endereços IP´s são divididos em cinco classes, A, B, C, D e E. A classe D é
reservada para Broadcast e a classe E para futuras utilizações. O que define a classe é o
primeiro octeto (ou seja, os oito primeiros bits).
O octeto 127 é um valor reservado para loopback (auto teste). Mas nem por isso deixa
de ser classe A. A quantidade de redes por classe é definida assim ( será mostrado as classes
que são utilizadas):
 Classe A: usa o primeiro bit para sua identificação. Como na classe A são 8 bits para
identificar a rede, e 1 bit é reservado para identificar a classe. 8-1=7 Então (2 elevado
na 7) –2 = 126 redes. Porque –2 ? Porque não se usa o 0.x.y.z. e o endereço 127.x.y.z
é para auto teste (loopback). Como na classe A sobram 24 bits, o numero de hosts
suportado é: (2 elevado na 24) -2 = 16.777.214.
 Classe B: usa os dois primeiros bits para sua identificação. Na classe B são 16 bits
para identificar a rede, então 16 bits de rede –2 bits de identificação da classe = 14. 2
elevado na 14=16.384 redes. Porque não –2 ? Como o primeiro octeto inicia em 10,
não existe a possibilidade de ser tudo 0 ou 1. A classe B tem 16 para hosts, então: (2
elevado na 16) -2 = 65.534.
 Classe C: usa os três primeiros bits para identificar a classe, e 24 bits para identificar a
rede. 3-24=21 2 elevado na 21=2.097.152 redes. Como o primeiro octeto inicia em
110, não existe a possibilidade de ser tudo 0 ou 1. Já a classe C com 8 bits, o numero
de hosts se dá em: (2 elevado na 8) -2 = 254. No calculo de máquinas suportadas
(hosts) diminui-se 2 porque na mascara de subrede tudo zero é igual ao endereço da
rede e tudo um é igual a broadcast.
As classes IP incorporam então uma nova porção de bits ao endereço IP, tornando o
endereço um conjunto de dois grupos, o primeiro representando os computadores de uma rede
e o segundo a própria rede. Como exemplo o IP 10.1.7.25. Esse é um IP de classe A e sua máscara de sub-rede padrão(2) é a 255.0.0.0, ou seja, o endereço completo seria 10.1.7.25 255.0.0.0. A máscara de sub-rede torna-se imprescindível para que possamos saber qual porção do protocolo se refere a rede e qual porção aos hosts.
Sendo o IP 10.1.7.25 da classe A, definido pela máscara 255.0.0.0, se for alterado qualquer número dos 03 octetos finais, o endereço continuará a fazer parte da mesma rede, a rede 10, portanto os IPs 10.1.7.25, 10.1.7.46, 10.5.6.23, 10.185.96.54 estão todos dentro da mesma rede e todos se comunicaram sem problemas. Agora se for alterado o número do primeiro octeto, entrar-se-á em outra rede. Então se for usado o endereço 11.10.54.23 ou 17.26.98.5 estará em redes distintas e, por conseguinte, esses endereços não conseguem se comunicar.

1.2 IPv4 com os dias contados

Por não conseguir atender mais a demanda por novos endereços web, visto que, na atualidade, essa demanda cresce astronomicamente, o protocolo IPv4 está com seus dia contados. Esse crescimento tem relação com inúmeros fatores, entre eles o uso de dispositivos móveis, como smartphones, tablets e notebooks, o crescimento de empresas com portais web e a disseminação do acesso à internet entre as classes mais baixas da população. Por ser composto de 32 bits, o protocolo IPv4 consegue disponibilizar um total de 4.294.967.296 endereços válidos. Esse número, apesar de extenso, já está praticamente esgotado.

 REFERÊNCIAS
 Geocities, IPv4. Disponível em: <http://www.geocities.ws/janoasif/ipv4.doc> Acessado em: 15 de junho de 2014
Info, IPv4. Disponível em: <http://info.iet.unipi.it/~cicconetti/imcne07/02 - IPv4.pdf> Acessado em: 15 de junho de 2014
Invasão Proibida, Uma abordagem sobre o protocolo IP versões 4 e 6. Disponível em: <http://invasaoproibida.wordpress.com/2012/12/11/uma-abordagem-sobre-o-protocolo-ip-versoes-4-e-6/> Acessado em: 15 de junho de 2014

REDES DE ÁREA LOCAL (LAN)

Redes que conectam computadores em uma área limitada como uma casa ou um edifício de escritórios. ARCnet, Token Ring e outros padrões de tecnologia foram utilizados no passado, mas Ethernet e Wi-Fi são as duas tecnologias mais comuns para redes locais.

1.1 Ethernet
 Em 1973, os pesquisadores Bob Metcalfe e David Boggs, do Xerox Corporation's Palo Alto Research Center (mais conhecido como PARC), criaram e testaram a primeira rede Ethernet. Metcalfe tentava conectar o computador "Alto" da Xerox a uma impressora e acabou desenvolvendo um método físico de cabeamento que conectava os dispositivos na Ethernet. Ele também criou os padrões de comunicação em cabos. Com o amadurecimento das redes, o padrão Ethernet cresceu para agregar novas tecnologias. Mas os mecanismos de operação de todas as redes Ethernet atuais se baseiam no sistema original de Metcalfe.
O conceito de ethernet se baseia na comunicação compartilhada por um único cabo para todos os dispositivos da rede. O dispositivo conectado ao cabo tem a capacidade de se comunicar com qualquer outro dispositivo, permitindo que a rede se expanda para acomodar novos dispositivos sem ter de modificar os dispositivos antigos. O nome ethernet vem da ideia de pontos da rede enviando mensagens (pacotes), através de um cabo comum ou canal, chamado de éter (ether), sendo uma referencia ao éter luminífero. Cada ponto tem uma chave de 48 bits única, conhecida como endereço mac, que assegura que todos os endereços dessa rede tenham endereços distintos.
Dados gerais:
  •  Método de acesso: CSMA/CD
  •  Taxa de transmissão: 10 Mbits/seg
  •  Topologia física: barramento, estrela, árvore
  •  Unidade de informação: pacote, com tamanho variável, desde 60 bytes a 1514 bytes
  •  Os pacotes podem percorrer vários caminhos para atingir o destino final
  •  Topologia lógica: barramento
Com o CSMA/CD(Carrier Sense Multiple Acess with Colision Detection), qualquer estação pode transmitir quando percebe o meio livre e uma colisão ocorre quando duas ou mais estações tentam transmitir simultaneamente. A Ethernet possui dois modos de transmissão: o half-duplex, onde cada estação transmite ou recebe informações, não acontecendo transmissão simultânea, e o full-duplex, onde cada estação transmite e/ou recebe, podendo ocorrer transmissões simultâneas. 1.1.1 Fast Ethernet: o padrão Fast Ethernet manteve do padrão ethernet o endereçamento, o formato do pacote, o tamanho e o mecanismo de detecção de erro. As mudanças mais significativas em relação ao padrão Ethernet são o aumento de velocidade que foi para 100 Mbps e o modo de transmissão que pode ser half-duplex ou full-duplex. 1.1.2 Gigabit Ethernet: este novo padrão agregou valor não só ao tráfego de dados como também ao de voz e vídeo. O Gigabit Ethernet foi desenvolvido para suportar o quadro padrão ethernet, isto significa manter a compatibilidade com a base instalada de dispositivos Ethernet e Fast Ethernet e não requerer tradução do quadro. Possui taxa de transmissão de 1gbps(1000mbps) e, na sua essência, segue o padrão Ethernet com detecção de colisão, regras de repetidores, aceita modo de transmissão half-duplex e full-duplex.

1.2 Token Ring
Desenvolvida pela IBM em meados de 1980, opera a uma velocidade de transmissão de 4 a 16 Mbps, utilizando como meio de transmissão o par trançado, sendo que, o protocolo token funciona passando uma permissão de transmissão para cada estação do anel consecutivamente e essa permissão fornecida pelo protocolo é chamada de token (bastão ou ficha de passagem) a qual vai passando de estação em estação na rede.
Diferentemente das redes Ethernet que usam uma topologia lógica de barramento, as redes Token Ring utilizam uma topologia lógica de anel. Quanto à topologia física, é utilizado um sistema de estrela parecido com o 10BaseT, onde se tem hubs inteligentes com 8 portas cada ligados entre si. Tanto os hubs quanto as placas de rede e até mesmo os conectores dos cabos têm que ser próprios para redes Token Ring. Existem alguns hubs combo, que podem ser utilizados tanto em redes Token Ring quanto em redes Ethernet.
O custo de montar uma rede Token Ring é muito maior que o de uma rede Ethernet, e sua velocidade de transmissão está limitado a 16 mbps, contra os 100 mbps permitidos pelas redes Ethernet. Porém, as redes Token Ring trazem algumas vantagens sobre sua concorrente: a topologia lógica em anel é quase imune a colisões de pacote, e pelas redes Token Ring obrigatoriamente utilizarem hubs inteligentes, o diagnóstico e solução de problemas é mais simples. Devido a estas vantagens, as redes Token Ring ainda são razoavelmente utilizadas em redes de médio a grande porte. Contudo, não é recomendável pensar em montar uma rede Token Ring para seu escritório, pois os hubs são muito caros e a velocidade de transmissão em pequenas redes é bem mais baixa que nas redes Ethernet.
A transmissão de dados em redes Token também é diferente. Ao invés de serem irradiados para toda a rede, os pacotes são transmitidos de estação para estação (daí a topologia lógica de anel). A primeira estação transmite para a segunda, que transmite para a terceira, etc. Quando os dados chegam à estação de destino, ela faz uma cópia dos dados para sí, porém, continua a transmissão dos dados. A estação emissora continuará enviando pacotes, até que o primeiro pacote enviado dê uma volta completa no anel lógico e volte para ela. Quando isto acontece, a estação pára de transmitir e envia o pacote de Token, voltando a transmitir apenas quando receber novamente o Token. Indústrias utilizam este tipo de rede em suas linhas de montagem.
Evolução da velocidade da rede Token Ring:
  •  Token Ring: 4 a 16 Mbits/seg
  •  Direct Token Ring ou Full-Duplex Token Ring: 32 Mbits/seg
  •  High Speed Token Ring: 100 Mbits/seg
  •  Gigabit Token Ring: 1 Gbits/seg
O sistema de Token é mais eficiente em redes grandes e congestionadas, onde a diminuição do número de colisões resulta em um maior desempenho em comparação com redes Ethernet semelhantes. Porém, em redes pequenas e médias, o sistema de Token é bem menos eficiente do que o sistema de barramento lógico das redes Ethernet, pois as estações têm de esperar bem mais tempo antes de poder transmitir.

1.3 FDDI
Com a finalidade de desenvolver uma rede de alto desempenho de propósito geral (FDDI), o grupo de trabalho ANSI (American National Standard Institute) X3T9. 5 foi formado, em 1980, o qual adotou a estrutura do projeto IEEE 802 para redes locais.
Características:
  •  Fibra óptica
  •  Alta velocidade: 100 Mbits/seg
  •  Longa distância
  •  Redes de trafego intenso
  •  Símbolos: 32 símbolos - sequências de 5 bits ( 16 símbolos de dados(O-F), 8 símbolos de controle(Q, H, I, J, K, T, R, S), 8 símbolos de violação(V))
A tecnologia LAN FDDI (Fiber Distributed Data Interface) é uma tecnologia de acesso à rede em linhas de tipo fibra óptica. Trata-se, com efeito, de um par de anéis (um é “primário”, o outro, permitindo recuperar os erros do primeiro, ou “secundário”). O FDDI é um anel de ficha de detecção e correção de erros (é aí que o anel secundário tem a sua importância). A ficha circula entre as máquinas a uma velocidade muito elevada. Se este não chegar à extremidade de certo prazo, a máquina considera que houve um erro na rede.
Evolução do FDDI – FDDI II:
  •  Mesma arquitetura física do FDDI
  •  Serviço isócrono
  •  Estação que não opere o FDDI II, ele não é ativado
  •  FDDI III:
  •  EPSL (Enhanced Performance and Services LAN)
  •  Nova geração da FDDI
  •  Serviço assíncrono
  •  Modo de Transferência assíncrono (ATM)
  •  Compatível com a SDH (Syncrhonous Digital Hierarchy)
  • - STS-3 (155,52 Mbps)
  • - STS-12 (622,08 Mbps)
  • - STS-48 (2,4 Gbps)
A topologia FDDI assemelha-se rigorosamente à de um token ring com a diferença de que um computador que faz parte de uma rede FDDI pode também ser ligado a um concentrador MAU de uma segunda rede. Fala-se então de sistema biconectado. Com o uso de cabos de fibra óptica, concede-se capacidades de transmissão muito elevadas (em escala até de Gigabits por segundo) e a oportunidade de se alargarem a distâncias de até 200 km.

1.4 Wi-Fi (IEEE 802.11)
As redes sem fio estão se tornando cada vez mais populares pela sua facilidade de instalação/configuração. A tecnologia wireless (sem fio) é uma alternativa às redes locais cabeadas ou pode ser usada como uma extensão da rede cabeada utilizando radiofrequência (RF). Também chamado de Wi-Fi, define os padrões para funcionamento de redes sem fios por meio de radiofrequência. Sua arquitetura foi criada para funcionar como link final entre o usuário, sem fio, e a rede, com fios, cabos, switches, roteadores etc.
A comunicação ao longo da rede sem fio é muito parecida com a comunicação de rádio emissor-receptor. Funciona assim: o adaptador sem fio para computador traduz os dados na forma de um sinal de rádio e os transmite usando uma antena. Então o roteador sem fio recebe o sinal e o decodifica. Depois envia a informação para a Internet usando uma conexão física Ethernet com fios. O processo também funciona ao contrário, com o roteador recebendo informação da Internet, traduzindo-a na forma de sinal de rádio e enviando-a para o adaptador sem fio do computador.
Padrões:
1.4.1 802.11a
Opera em taxas de até 54Mbps, utiliza a tecnologia OFDM para gerar osinal. Este padrão foi criado em conjunto com o padrão 802.11b. Não existe uma comunicação com o padrão 802.11b pois o padrão 802.11a utiliza a frequência 5Ghz.
1.4.2 802.11b
Criado em julho de 1998, este padrão só foi aprovado em setembro de 1999. Este utiliza a tecnologia spread spectrum DSSS operando com taxas de até 11Mbps.
1.4.3 802.11g
Este padrão é uma extensão do padrão 802.11b. Apesar de existir uma compatibilidade entre estes padrões por trabalharem na mesma faixa de frequência, há uma diferença entre eles pois o padrão 802.11g utiliza OFDM ao invés do DSSS. A tecnologia de transmissão OFDM por ser mais eficiente chega a uma taxa de transmissão de 54Mbps.
1.4.4 802.11i
Este padrão foi homologado em julho de 2004. O IEEE 802.11i diz respeito aos mecanismos de autenticação e privacidade sendo seu principal protocolo conhecido como RSN (Robust Security Network) permitindo uma comunicação mais segura em relação a outras tecnologias. Está inserido o protocolo WPA que provê soluções de segurança para o protocolo WEP. Também foi implementado o protocolo WPA2 que utiliza o algoritmo de criptografia AES (Advanced Encryption Standard). Estes mecanismos de segurança serão vistos na Aula 4 – Mecanismos de Segurança.
1.4.5 802.11n
Seu principal objetivo é aumentar a velocidade de 54Mbps para até 600Mbps sendo utilizado quatro canais para transmissão. Em relação aos padrões atuais há poucas mudanças. A mais significativa delas é uma modificação do OFDM, conhecida como MIMO-OFDM (Multiple Input, Multiple Out-OFDM). O MIMO-OFDM faz agregação de quadros transmitidos em múltiplos canais na camada MAC. Ao contrário dos padrões 802.11a e 802.11g que operam com canais de 20Mhz, os canais do 802.11n operam em uma faixa de frequência de 40Mhz por canal fazendo com que praticamente a taxa efetiva de transmissão dobre. O aparelho access point pode, por exemplo, transmitir com duas antenas e receber com três (normalmente um access point possui de três a seis antenas).

1.5 ARCNET
Anexed Resource Computer Network (Arcnet abreviado) é um protocolo de comunicação para redes de área local. Arcnet foi a primeira rede amplamente disponível para microcomputadores, tornou-se popular na década de 1980 para tarefas de automação de escritório. Posteriormente, foi aplicada a sistemas embarcados, onde certas características do protocolo são especialmente úteis.
A Arcnet é uma arquitetura de rede antiga, que existe desde a década de 70. De lá pra cá houve avanços, mas não o suficiente para manter as redes Arcnet competitivas frente às redes Ethernet e outras tecnologias modernas. As redes Arcnet são capazes de transmitir a apenas 2.5 mbps e quase não existem drivers for Windows para as placas de rede. Poucas pessoas ainda a usam atualmente em modo de compatibilidade, usando drivers MS-DOS antigos.Atualmente as redes Arcnet estão em vias de extinção, placas Arcnet à venda são raras e mesmo que as consiga, enfrentará uma via sacra atrás de drivers para conseguir fazê-las funcionar, isso se conseguir.
Apesar de suas limitações, o funcionamento de rede Arcnet é bem interessante por causa de sua flexibilidade. Como a velocidade de transmissão dos dados é bem mais baixa, é possível usar cabos coaxiais de até 600 metros, ou cabos UTP de até 120 metros. Por serem bastante simples, os hubs Arcnet também são baratos. O funcionamento lógico de uma rede Arcnet também se baseia num pacote de Token, a diferença é que ao invés do pacote ficar circulando pela rede, é eleita uma estação controladora da rede, que envia o pacote de Token para uma estação de cada vez. Apesar de completamente obsoletas, muitos dos conceitos usados nas redes Arcnet foram usados para estabelecer os padrões atuais de rede.

1.6 IEEE 802.6 - DQDB - Distributed Queue Dual Bus
O grupo de trabalho IEEE 802.6 surgiu no segundo semestre de 1981 com o objetivo de definir um padrão para transporte de dados em alta velocidade numa região metropolitana. Em 1986 a Telecom da Austrália apresenta uma proposta denominada QPSX( Queued Packet and Synchronous circuit eXchange ), sendo esta adotada em 1987 pelo grupo IEEE 802.6 como padrão, sendo chamada agora de DQDB( Distributed Queue Dual Bus ).
O DQDB proporciona duas formas de comunicação integradas, são elas, comutação de circuitos e comutação de pacotes, sendo que a capacidade total do canal é compartilhada de forma flexível e completa entre os dois modos de comutação. Estes dois modos funcionam independentemente, mas juntosproporcionam o suporte básico para a integração de serviços isócronos( audio, vídeo, etc. ) e não-isócronos( troca de dados, telemetria, etc. ) na mesma rede. Os canais de comutação de circuitos no DQDB podem ser configurados desde taxas muito baixas até taxas altas que suportam transmissão de vídeo e interfaces RDSI. A arquitetura é baseada em dois barramentos unidirecionais que carregam dados em sentidos opostos. Cada estação da rede tem acesso aos dois barramentos. A conexão de uma estação ao barramento é feita com uma ligação de leitura direta ao barramento e uma ligação de escrita através de uma porta lógica ou.
Uma rede DQDB é essencialmente não-bloqueável e pode conter um número ilimitado de estações conectadas. Além disso, apresenta importantes características operacionais como: alta confiabilidade, controle de congestionamento e tolerância a falhas. Atualmente sistemas DQDB estão sendo instalados por muitas operadoras em cidades inteiras, com comprimentos que chegam a até 160 quilômetros (99 milhas) com velocidades de uma linha DS3 (44,736 Mbit /s)]. Outras implementações são o uso de fibra óptica por um período de até 100 km e velocidades de cerca de 150 Mbit / s.

1.7 Cambridge Ring
O Anel Cambridge foi uma das primeiras redes locais (LANs). Operou-se com uma taxa de linha de 10 Mbps usando um tamanho de ranhura de 38 bits. Dois bytes de endereço e os dois bytes de dados foram realizadas em cada ranhura. Foi basicamente uma arquitetura de rede local experimental que foi desenvolvida na universidade Cambridge em meados dos anos 70. Essa rede utiliza topologia de anel com 255 nós. Pacotes são carregados da maquina que envia e marcados como recebido pela maquina destino e descarregados no retorno ao remetente, assim pode-se haver tantos remetentes simultâneos como pacotes. Pessoas associadas com o projeto incluem Andy Hopper, David Wheeler, Maurice Wilkes, e Roger Needham

1.8 Bluetooth
Desenvolvida pela Ericsson em 1994, este padrão de comunicação sem fio de curto alcance é utilizado em inúmeros dispositivos, como telefones celulares, mouses, joysticks, câmeras digitais, impressoras, teclados, cd players, fones de ouvido, entre outros. Este padrão de comunicação utiliza uma faixa de rádio não licenciada ISM (industrial, scientific, medical) entre 2,4 GHz e 2,485GHz e opera comuma taxa de transferência de dados de 1Mbps para baixo consumo de energia até 24Mbps para alta velocidade.
A estrutura de uma rede baseada na tecnologia Bluetooth Wireless Personal Area Network (BT-WPAN) é formada por piconets, que é um conjunto de no máximo oito dispositivos Bluetooth. Dentro das piconets um dispositivo é designado mestre e os outros escravos, sendo possível a comunicação de diferentes piconets através do dispositivo mestre comum entre ambas, assim temos a formação de uma scatternet. A dificuldade de manutenção e troca de bateria torna a autonomia energética um fator crítico para a escolha da tecnologia de comunicação entre os sensores.

 REFERÊNCIAS

Universidade Federal do Rio de Janeiro, Redes de Sensores sem Fio. Disponível em: <http://www.gta.ufrj.br/grad/10_1/rssf/protocolos.html> Acesso em: 13 de abril de 2014
Cambridge University, Cambridge Ring Hardware. Disponível em: <http://web.archive.org/web/20120716230723/http://koo.corpus.cam.ac.uk/projects/earlyatm/cr82/> Acessado em: 20 de abril de 2014
NewsGeneration, Rede Privada Virtual. Disponível em: <http://www.rnp.br/newsgen/9811/vpn.html> Acessado em: 13 de abril de 2014
Protocols. Disponível em:<http://www.protocols.com/> Acessado em: 18 de abril de 2014
TORRES, Gabriel Redes de Computadores. Ver. Rev. e Atual. Rio de Janeiro: Novaterra, 2010
Guia do Hardware, Arcnet. Disponível em: <hardware.com.br> Acesso em: 10 de abril de 2014

História da Internet

A internet surgiu como estratégia militar para possibilitar a sobrevivência das redes de comunicação e a segurança das informações em caso de ataque nuclear. Michael Dertouzos, ex-diretor do laboratório de ciência da computaçãoAche os cursos e faculdades ideais para você. É fácil e rápido. do Massachusetts Institute of Technology (MIT) é um dos pioneiros da internet. O sucesso dos computadores de tempo compartilhado provocou pressões financeiras cada vez maiores sobre a Advanced Research Projects Agency (Arpa), pois cada grupo de pesquisa financiado pela agência exigia mais computadores, mais caros e maiores. A Arpa procurou aumentar a eficiência dos investimentos estimulando os grupos a dividir máquinas distantes entre si. Ao mesmo tempo, os fatores técnicos apontavam para a possibilidade sensacional de conectar as máquinas.

O protótipo da Arpanet foi criado em 1969 e a primeira demonstração pública aconteceu em 1972. No princípio, a rede limitava-se a ligar algumas unidades militares e universidades. Em meados da década de 70, havia apenas 20 universidades conectadas à Arpanet. Com o tempo, várias outras redes foram surgindo e se unindo à iniciativa da agência de pesquisas do Departamento de Defesa norte-americano. Em 1983, a Arpanet já era grande demais para atender os requisitos de eficiência e segurança dos militares. A saída foi abandonar o projeto e fundar uma rede privativa, a Milnet. Ainda nos anos 80, a National Science Foundation criou a Csnet (para a comunidade científica) e junto com a IBM, a Bitnet (para estudiosos de matérias não-científicas). A conjunção destas e de outras redes levou o nome de Arpa-Internet, mais tarde conhecida apenas como internet.

Foi somente no ano de 1990, com a queda nos preços dos equipamentos, que a Internet começou a alcançar a população em geral. Neste ano, o engenheiro inglês Tim Bernes-Lee desenvolveu a World Wide Web, possibilitando a utilização de uma interface gráfica e a criação de sites mais dinâmicos e visualmente interessantes. A partir deste momento, a Internet cresceu em ritmo acelerado. A década de 1990 tornou-se a era de expansão da Internet. Para facilitar a navegação pela Internet, surgiram vários navegadores (browsers) como, por exemplo, o Internet Explorer da Microsoft e o Netscape Navigator.O surgimento acelerado de provedores de acesso e portais de serviços on line contribuíram para este crescimento. A Internet passou a ser utilizada por vários segmentos sociais. Os estudantes passaram a buscar informações para pesquisas escolares, enquanto jovens utilizavam para a pura diversão em sites de games. As salas de chat tornaram-se pontos de encontro para um bate-papo virtual a qualquer momento. Desempregados iniciaram a busca de empregos através de sites de agências de empregos ou enviando currículos por e-mail. As empresas descobriram na Internet um excelente caminho para melhorar seus lucros e as vendas on line dispararam, transformando a Internet em verdadeiros shopping centers virtuais.

terça-feira, 15 de julho de 2014

AS ERAS GEOLÓGICAS E A HISTORIA DA TERRA

Em uma galáxia chamada Via Láctea, constituída por cerca de 200 bilhões de estrelas e com uma massa de cerca de 750 bilhões e um trilhão de massas solares é que se localiza nosso sistema solar no qual pertence a terra. A Terra formou-se há aproximadamente 4,5 bilhões de anos. Ao longo desse tempo, ela sofreu transformações que deixaram marcas nas rochas, o que permite dividir a sua história numa Escala Geológica de Tempo. A forma da Terra é aproximadamente a de um elipsoide de revolução, com diâmetro maior, ao longo do equador, de 12.712km e um diâmetro menor, ao longo dos seus polos, de 12.555km.
Na composição da terra, o Núcleo, apresenta ferro e níquel, tem uma espessura aproximada de 3.470 km, enquanto a Camada Intermediária, composta de sulfetos e óxidos, tem uma espessura média de 1.700 km. O Manto é composto por silicatos e ferro e tem uma espessura aproximada de 1.100km. Apenas a Crosta, também chamada de Litosfera, é acessível à observação direta, sendo dividida em Crosta Superior, composta de sedimentos e granitos, com uma espessura variando de 15 a 25 km, e uma Crosta Inferior, composta de rochas basálticas, cuja espessura chega a atingir 75km.
A origem, a formação, as contínuas transformações da Terra, e os materiais orgânicos que a constituem, são estudados pela Geologia. A Geologia divide a história do planeta em eras geológicas. Essas eras correspondem a grandes intervalos de tempo divididos em períodos. Esses períodos se subdividem em épocas e idades. Cada uma dessas subdivisões corresponde a algumas importantes alterações ocorridas na evolução da Terra, como pode se ver na tabela abaixo:
ERA
PERÍODO / INÍCIO
ÉPOCA
PRINCIPAIS EVENTOS
CENOZÓICA
Quaternário 1,8 milhões de anos
Holoceno
(recente)
- "Era do Homem". O homem torna-se a forma de vida dominante sobre a Terra.
- Estabilização do clima.
Pleistoceno
- Glaciações mais recentes.
- Domínio dos mamíferos de grande porte.
- Evolução do homo sapiens
Terciário 65 milhões de anos
Plioceno
- Avanço das geleiras.
- A vegetação é dominada pelos campos e savanas.
- Aparecimento de mamíferos ruminantes.
Mioceno
- Formação de grandes campos.
- Mudanças climáticas levam a formação da calota polar Antártica.
Oligoceno
- Aparecimento de elefantes e cavalos.
- Aparecimento de vários tipos de gramíneas.
Eoceno
- Surgimentos da maior parte das ordens de mamíferos.
Paleoceno
- Domínio dos mamíferos de porte pequeno a médio.
MESOZÓICA
Cretáceo
146 milhões de anos

- Primeiras plantas com flores, grupos modernos de insetos, pássaros e mamíferos.
Jurássico
208 milhões de anos

- Pterossauros e primeiros pássaros.
- Dinossauros vagueiam pela Terra.
Triássico
245 milhões de anos

- Primeira aparição dos dinossauros.
PALEOZÓICA
Permiano
286 milhões de anos

- Primeiro grande evento de extinção em massa.
- Formação do supercontinente Pangea.
Carbonífero
360 milhões de anos

- Formação das enormes florestas de pteridófitas (samambaias) e o registro das primeiras gimnospermas (espécies com ementes).
Devoniano
410 milhões de anos

- Aparecimento dos primeiros vertebrados terrestres, primeiros artrópodes terrestres, incluindo os insetos e as aranhas;
- Expansão dos diversos tipos de corais;
- Diversificação dos peixes.
Siluriano
440 milhões de anos

- Estabilização do clima.
- Derretimento do gelo glacial, elevação dos níveis dos oceanos.
- Evolução dos peixes. Aparecimento dos peixes com mandíbulas;
- Primeiras evidências de vida no meio terrestre, incluindo alguns parentes das aranhas e das centopéias, além das primeiras plantas vasculares.
Ordoviciano
505 milhões de anos

- É conhecido pela ocorrência de invertebrados marinhos diversos.
Cambriano
544 milhões de anos

- Segundo registros fósseis, este período marca o aparecimento da maioria dos grupos principais de animais.
PROTEROZÓICA
2,5 bilhões de anos

- A formação das terras continentais se estabiliza;
- Registro dos primeiros fósseis de organismos unicelulares;
- Primeira evidência de oxigênio na atmosfera.
ARQUEANA
3,8 bilhões de anos

- Formação de 70% das massas dos continentes;
- Aparecimento dos primeiros organismos vivos anaeróbicos, isto é, utilizam metano ou hidrogênio no metabolismo, em vez de oxigênio.
HADEANA
Não é um período geológico. Não existem rochas na Terra, tão antigas.
4,5 bilhões de anos

- Formação do Sistema Solar.
- Solidificação da crosta terrestre.
Raciocinar grandes intervalos de tempo parece meio difícil de entender. Por isso o exemplo abaixo o tempo geológico foi convertido em um período de apenas 24 horas. Assim, torna-se mais fácil a compreensão da passagem do tempo de cada era e período:
ESCALA GEOLÓGICA DE TEMPO (Conversão para 24 horas)
ERA
PERÍODO
INÍCIO
DURAÇÃO (horas)
EM ANOS
24 HORAS
Cenozóica
Quaternário
1.800.000
23h 59min 25s
00h 00min 35s
Terciário
65.000.000
23h 39min 12s
00h 20min 13s
Mesozóica
Cretáceo
146.000.000
23h 13min 17s
00h 25min 55s
Jurássico
208.000.000
22h 53min 26s
00h 19min 50s
Triássico
245.000.000
22h 41min 36s
00h 11min 50s
PALEOZÓICA
Permiano
286.000.000
22h 28min 29s
00h 13min 07s
Carbonífero
360.000.000
22h 04min 48s
00h 23min 41s
Devoniano
410.000.000
21h 48min 48s
00h 16min 00s
Siluriano
440.000.000
21h 39min 12s
00h 09min 36s
Ordoviciano
505.000.000
21h 18min 24s
00h 20min 48s
Cambriano
544.000.000
21h 05min 55s
00h 12min 29s
PROTEROZÓICA
2.500.000.000
10h 40min 00s
10h 25min 55s
ARQUEANA
3.800.000.000
03h 44min 00s
06h 56min 00s
HADEANA
4.500.000.000
00h 00min 00s
03h 44min 00s
Como se vê na tabela acima, o tempo de existência do homem é muito curto, trata-se de poucos segundos.
AS ERAS E SUAS CARACTERÍSTICAS
Era Hadeana: A Era Hadeana (de hades = inferno), foi ai que iniciou-se a formação da Terra a partir da poeira e gás que orbitavam o Sol há aproximadamente 4,5 bilhões de anos. Ao consolidar-se, a superfície do planeta transformou-se em um oceano de rochas em ebulição e enxofre líquido. Enormes crateras, resultantes do intenso bombardeio de asteroides e das explosões vulcânicas, completavam a paisagem. Com o tempo, formou-se uma atmosfera quente, densa e carregada de poeira e cinzas, sendo composta principalmente de nitrogênio, amônia, hidrogênio, monóxido de carbono, metano e vapor de água, oriundos dos vulcões. Qualquer rocha que conseguisse resfriar e tomar forma era imediatamente soterrada por novo fluxo de lava ou explodia em pedaços atingida por outro asteróide. É provável que nesse momento, houve uma grande colisão com a Terra, no qual acabou dando origem a Lua. Gradativamente o planeta perdeu calor, permitindo que o vapor de água exalado dos vulcões e oriundos dos cometas formasse as primeiras chuvas.
Era Arqueana: iniciou-se 700 milhões de anos após a formação da Terra. A maior parte das rochas superficiais havia esfriado e a maior parte do vapor de água condensou-se, formando um oceano global. Até mesmo a maior parte do dióxido de carbono havia sido mudado químicamente e foi depositado no fundo do oceano como calcário. A atmosfera era então composta principalmente de nitrogênio e vapor de água, e o céu está repleto de nuvens. O interior da Terra ainda estava bastante quente e ativo e erupções vulcânicas eram comuns, formando um grande número de pequenas ilhas alinhadas em cadeias. Essas ilhas eram empurradas de sua posição original, como resultado dos movimentos que ocorriam em profundidade e, ocasionalmente, colidiam entre si formando ilhas cada vez maiores. Os mais antigos fósseis da Terra foram encontrados em rochas do Arqueano, com cerca de 3,5 bilhões de anos. O Arqueano durou aproximadamente 1,3 bilhões de anos.
Era Proterozóica: a Era Proterozóica formou, junto com a Arquena e a Hadeana o chamado período Pré-Cambriano, que durou aproximadamente 4 bilhões de anos, quase 90% da História Geológica da Terra. Dois supercontinentes acabaram por ser formados ao longo do equador, em lados opostos do planeta, resultado das colisões entre as pequenas ilhas iniciadas no Arqueano e que prosseguiram durante todo o Proterozóico. Uma vez que a Terra esfriou mais um pouco, existia uma menor quantidade de vulcões ativos e os núcleos dos dois continentes eram agora mais largos e bem mais estáveis. Isso possibilitou que a vida se desenvolvesse na Terra. Nessa época, a vida se encontrava na forma unicelular exclusivamente no oceano. No fim do Proteozóico, surgiram as primeiras criaturas multicelulares. Tais criaturas ainda não possuíam partes duras, como conchas ou dentes, daí a dificuldades de serem encontrados seus fósseis. Durante os últimos 2 bilhões de anos, as algas e bactérias que dominaram o oceano, consumiram bastante dióxido de carbono, liberando no processo um terrível poluente: o oxigênio livre. Boa parte desse oxigênio foi combinado com ferro e outros elementos, formando grandes depósitos minerais, não sem antes provocar um dos maiores desastres ecológicos que se tem notícia. A maioria das bactérias que dominaram o planeta até então eram anaeróbicas e, por não conseguir sobreviver nesse ambiente rico em oxigênio, foram dizimadas. A Terra, no final do Proterozóico, estava muito fria e coberta por uma imensa camada de gelo, visível mesmo ao longo das regiões equatoriais.
Era Paleozóica (paleo = antigo + zoico = vida): a atividade vulcânica, no Paleozóico, era bem mais amena, alternando-se períodos de calmaria com grandes explosões em todo o planeta. Os primeiros peixes, esponjas, corais e moluscos surgiram ainda no período Cambriano, mas teve-se que esperar pelo menos 12 minutos (até o período Ordoviciano) para ver as primeiras plantas terrestres. O clima mudava com tanta frequência que provocava sucessivas extinções em massa de espécies recém surgidas. Como agora as espécies passaram a apresentar partes duras (conchas, dentes etc.), algumas delas podiam ser preservadas como fósseis, possibilitando a sua descoberta e estudo. No período Devoniano, ocorreu uma grande catástrofe ecológica que dizimou quase 97% de todas as espécies existentes. No período Carbonífero, grandes florestas e pântanos foram formados e destruídos sucessivamente, formando os depósitos de carvão explorados até hoje.
Era Mesozóica: no início do Mesozóico formou-se um supercontinente, chamado de Pangea, que foi depois dividido em dois grandes continentes que passaram a ser conhecidos como Laurásia, ao norte, e Gonduana, ao sul. Nessa era surgiu uma imensa variedade de dinossauros, herbívoros em sua maioria, que reinaram no planeta durante mais de 160 milhões de anos. Porém, um meteoro de pelo menos 15km de diâmetro atingiu a atual península de Yukatan (México) jogando bilhões de toneladas de poeira na atmosfera marcou o final dessa era. Uma grande noite se abateu sobre o planeta, impedindo a fotossíntese das plantas, que não puderam alimentar os herbívoros, que por sua vez não puderam servir de alimento aos carnívoros. Pelo menos a metade das espécies existentes foi extinta nessa grande catástrofe, inclusive todos os grandes dinossauros, abrindo espaço para que os mamíferos iniciassem o seu reinado, que perdura até os dias atuais.
Era Cenozóica: nesse período, houve fragmentação dos grandes continentes até a conformação atual. A América do Sul separou-se da África, surgindo o Oceano Atlântico Sul; a Austrália separou-se da Antártica e a América do Norte separou-se da Europa. Grandes cadeias de montanhas foram formadas nessa deriva continental e novos ecossistemas foram formados e isolados dos demais, permitindo a especialização de algumas espécies. Por volta de 150.000 anos atrás, viu-se os primeiros grupos de Homo sapiens caçando no continente africano. Essa nova espécie sobreviveu à última glaciação e migrou apressadamente para os demais continentes. Dominou todas as outras espécies e começou a usar a escrita e, portanto, a fazer História, no último décimo do último segundo.



Cosmologia de Plasma

Cosmologia de plasma é uma cosmologia não-padrão, que enfatiza as propriedades eletromagnéticas de plasmas astrofísicos. Cosmologia Plasma inclui explicações qualitativas para a evolução do universo - a partir da radiação cósmica de fundo, a galáxia de formação, a estrutura em larga escala. Fundamental para suas explicações são interpretações de muitos fenômenos astrofísicos por escalar os resultados de experiências de laboratório. Embora no final de 1980 a início de 1990, houve discussão limitada sobre os méritos da cosmologia de plasma, hoje defensores dessas idéias são mais ignorados pela comunidade cosmologia profissional.
História
Escrevendo em 2003, na sexta edição especial da IEEE Transactions on Plasma Science , editor convidado Anthony Peratt escreveu que houve muitos que ajudaram a pioneira cosmologia de plasma, incluindo alguns citado na primeira edição especial em 1986, ou seja, Kristian Birkeland , Irving Langmuir , PAM Dirac , Karl G. Jansky , Grote Reber , Edward. V. Appleton , e Hannes Alfvén.
Escritor Jeff Kanipe escreveu em Astrofísica e Ciência Espacial, que:
"Cosmologia Plasma surgiu a partir do trabalho pioneiro de Hannes Alfven. Partindo de seus estudos na década de 1950 de radiação síncrotron de emissões causadas por elétrons em espiral quase à velocidade da luz em um campo magnético (Alfven e Herlofson, 1950b) [5] , Alfven propôs que folhas de correntes elétricas devem cruzam o universo (Alfven, 1950a; [6] Alfven e Falthammar de 1962, [7] ). Interação com esses campos eletromagnéticos permitiria plasmas para expor estrutura complexa e movimento Assim, nas escalas grandiosas. , o universo teria uma estrutura celular e filamentar ".
Oskar Klein em um artigo publicado em 1950, propôs pela primeira vez que plasmas astrofísicos podem desempenhar um papel importante na formação de galáxias. Cerca de 12 anos depois, Hannes Alfvén , um laureado com o Nobel de Física , que a hipótese de que a assimetria baryon observada no universo deveu-se a uma condição inicial ambiplasma mistura de matéria e antimatéria. A substância hipotética formariam bolsos de matéria e bolsos de antimatéria que iria expandir para fora, como a aniquilação entre matéria e antimatéria ocorreu nos limites. Foi proposto por Alfvén, portanto, que passou a viver em um dos bolsos que continham principalmente bárions em vez de antibaryons. Os processos que regem a evolução e as características do universo em sua maior escala seria regido principalmente por este recurso. A hipótese ambiplasma foi desenvolvido independentemente dos rivais do Big Bang e estado estacionário modelos que eram os dois concorrentes mais populares cosmologias. Juntamente com os cientistas por Carlqvist e Carl-Gunne Fälthammar, a equipe de pesquisa sueco desenvolveu o que viria a ser chamado de modelo de Alfvén-Klein - um progenitor de hoje fora do padrão proposta de "cosmologia de plasma".
Visão global
Cosmologia de Plasma postula que a característica mais importante do universo é que a matéria que ele contém é composto quase inteiramente de plasma astrofísico. O estado da matéria conhecido como plasma é um condutor de eletricidade recolha de partículas carregadas, possivelmente em conjunto com as partículas neutras ou de pó, que apresenta um comportamento coletivo e que responde como um todo a forças eletromagnéticas. As partículas carregadas são geralmente os íons e elétrons resultantes do aquecimento de um gás. Estrelas e o meio interestelar são compostas de plasma de diferentes densidades . Física de Plasma é indiscutivelmente aceito a desempenhar um papel importante em muitos fenômenos astrofísicos.
Os pressupostos básicos da cosmologia plasma que diferem de cosmologia padrão são:
  1. Desde que o universo é quase todo plasma, forças eletromagnéticas são iguais em importância com a gravidade em todas as escalas.
  2. Uma origem em tempo para o universo for rejeitado, devido à causalidade de argumentos e rejeição do ex nihilo modelos como uma forma furtiva de criacionismo.
  3. Uma vez que cada parte do universo que observamos está evoluindo, ele assume que o próprio universo está evoluindo bem, apesar de uma expansão escalar como previsto a partir da métrica FRW não é aceite como parte desta evolução.
Defensores cosmologia de plasma enfatizam as ligações entre processos físicos observáveis ​​em laboratórios na Terra e os que governam o cosmos; como muitos processos cosmológicos possíveis são explicados pelo comportamento de um plasma em laboratório. Os defensores contrastaram isso com a teoria do Big Bang, que tem ao longo de sua existência exigiram a introdução de recursos como a inflação, matéria escura e energia escura que não tenham sido detectados ainda em experimentos de laboratório.
Enquanto cosmologia plasma nunca teve o apoio da maioria dos astrônomos ou físicos, poucos pesquisadores continuaram a promover e desenvolver a abordagem, e publicar em edições especiais dos IEEE Transactions on Plasma Science (ver por exemplo as questões em 2000 , 2003 e 2007 ) bem como em outras revistas e jornais. O nível de detalhe no desenvolvimento da cosmologia do big bang não é comparável com o observado na cosmologia de plasma, evidenciado pela quantidade de artigos científicos publicados sobre as duas abordagens.
O modelo de Alfvén
Hannes Alfvén (1908-1995) fez avanços significativos no estudo de plasmas e sua aplicação à física e astronomia.
As hipóteses de alfvén relativas a cosmologia pode ser dividido em três zonas distintas.
  1. O plasma cósmico, uma descrição empírica do universo com base nos resultados obtidos em experiências de laboratório em plasmas
  2. Correntes Birkeland (força filamentos livres), um mecanismo proposto para a formação de estruturas em grande escala no universo.
  3. Teoria ambiplasma, com base em um plasma hipotético matéria / antimatéria.
Plasma Cósmico
Na sequência dos trabalhos de Kristian Birkeland. A pesquisa de Alfvén em plasma levou-o a desenvolver o campo da magneto, uma teoria que matematicamente modelos de plasma magnético como fluido , e para o qual ele ganhou o Prêmio Nobel de Física em 1970 . No entanto, Alfvén apontou que magnetohydrodynamics é uma aproximação que é preciso somente em plasmas densos, como a de estrelas, onde as partículas colidem com frequência. Não é válido nos plasmas muito mais diluída do meio interestelar e intergaláctico médio, onde os elétrons e íons círculo em torno do campo magnético linhas. Alfvén dedicou uma grande parte de seu discurso de Nobel para atacar esse erro "plasma pseudo".
Alfvén sentiu que muitas outras características de plasmas desempenhou um papel mais significativo nos plasmas cósmicos. Estes incluem:
  • Escalabilidade de plasma, Birkeland correntes, correntes elétricas que se formam circuitos elétricos no espaço,
  • Plasma camadas duplas,
  • A estrutura celular de plasma,
Alfvén e seus colegas começaram a desenvolver cosmologia plasma na década de 1960 e 70, como uma extrapolação de suas mais cedo de grande sucesso teorias dos fenômenos do sistema solar e. Eles apontaram esses fenômenos extremamente semelhantes existiram em plasmas em todas as escalas por causa da inerente leis de escala, em última instância, derivadas de leis de Maxwell. Uma escala invariante em plasmas é a velocidade, de modo que plasmas em escalas de laboratório até superaglomerados de galáxias apresentam fenômenos semelhantes em uma gama de velocidades de dezenas a milhares de quilômetros por segundo. Por sua vez essa invariância significa que a duração das escalas fenômenos plasma como seu tamanho, de modo que as galáxias de cem mil anos-luz de deparar com tempos de evolução característicos de bilhões de anos escala para fenômenos laboratório escala transitória com duração de um microssegundo.
Enquanto a gravidade torna-se importante em grandes escalas, forças magnéticas também podem ser importantes uma vez que mesmo no plasma neutro (como quase tudo plasmas astrofísicos) forças magnéticas têm alcance infinito, como a gravidade. Por exemplo, no Superaglomerado local de galáxias, o campo magnético é pelo menos 0,3 microgauss sobre um volume de 10 megaparsecs no raio centrado na forma leitosa, assim aqui a densidade de energia do campo magnético excede a densidade de energia gravitacional por, pelo menos, uma ordem de grandeza.
Alfvén e seus colaboradores apontaram para dois fenômenos de plasma que têm posição de destaque em desenvolvimentos posteriores da cosmologia de plasma:
  1. A formação de filamentos sem força.
  2. A explosão de dupla camada, onde a separação de carga se acumula em um plasma de corrente de carga, levando à interrupção da corrente, a geração de altos campos elétricos e a aceleração de partículas energéticas. Este fenómeno, que foi observado pela primeira vez no laboratório, foi sugerido por Alfvênico como um mecanismo possível para a geração de raios cósmicos.
Forçar filamentos livres
Quando as correntes se movem através de qualquer plasma, eles criam campos magnéticos que, por sua vez desviam as correntes de tal maneira que as correntes paralelas atraem-se mutuamente (o efeito de aperto ). O plasma assim torna-se naturalmente não homogêneo, com correntes e plasmas organizando-se em filamentos sem força, em que as correntes se movem na mesma direção do campo magnético.
Esses filamentos agem juntos e, por sua vez, formam (para grandes filamentos suficientes) instabilidades gravitacionais que causam aglomerados para formar ao longo dos filamentos, como contas em um colar. Estes aglomerados gravitacionalmente-bound, fiação no campo magnético do filamento, geram forças elétricas que criam um novo conjunto de correntes que se deslocam para o centro do aglomerado, como em um gerador de disco. Este, por sua vez, cria um novo conjunto de filamentos em espiral que definem o estágio da coalescência de objetos menores. Uma hierarquia de estrutura é assim formada.
A chamada travagem magnética nestes filamentos, como Alfvênico e colegas mostraram, pode ser importante para o processo de colapso gravitacional , porque eles servem como um mecanismo para transferir o momento angular do aglomerado contratante. Sem um processo de transferência de momento angular, a formação de galáxias e estrelas seria impossível como forças centrífugas impediria contração. A controversa Cosmologia de Plasma afirma que esses processos de plasma podem finalmente explicar a estrutura em larga escala do universo e sua organização filamentar de superaglomerados , aglomerados , galáxias , estrelas e planetas . Após o trabalho de Alfvén, filamentos altamente magnetizados foram descobertos em várias escalas no cosmos, de escalas parsec no centro da galáxia para filamentos de superaglomerados que se estendem por centenas de megaparsecs.
Ambiplasma
Como considerações teóricas e evidências experimentais da física de partículas mostraram que a matéria e antimatéria sempre vieram a existir em quantidades iguais, Alfvén e Klein, no início dos anos 1960 desenvolveram uma teoria da evolução cosmológica com base no desenvolvimento de um " ambiplasma ", composto por quantidades iguais de matéria e antimatéria. Alfvén teorizou que se um ambiplasma foi afetado por ambos os campos gravitacionais e magnéticos, como se poderia esperar em regiões de grande escala de espaço, matéria e antimatéria naturalmente separados uns dos outros. Quando pequenas nuvens de matéria colidiram com pequenas nuvens de antimatéria, as reações de aniquilação em sua fronteira faria com que eles se repelissem, mas essas nuvens se fundem, levando a cada vez maiores regiões do universo que consistem quase que exclusivamente a matéria ou antimatéria. Eventualmente, as regiões se tornariam tão grandes que os raios gama produzidos pelas reações de aniquilação nas suas fronteiras seriam quase não observáveis.
Esta explicação do predomínio da matéria no universo local contrasta com a proposta por grande estrondo da cosmologia, o que exige uma produção assimétrica de matéria e antimatéria em alta energia . (Se a matéria e antimatéria foram produzidas em quantidades iguais no Big Bang extremamente denso, aniquilação teria reduzido a densidade universal a apenas alguns bilionésimos de que a observada.) Tal produção de matéria-antimatéria assimétrica nunca foi observado na natureza.
Alfvén e Klein, em seguida, passaram a usar sua teoria ambiplasma para explicar a relação Hubble entre redshift e distância. Eles a hipótese de que uma grande região do universo, composto por peças alternadamente contendo matéria e antimatéria, gravitacionalmente recolhida até regiões de antimatéria o assunto e foram forçados a ficar juntos, liberando enormes quantidades de energia e levando a uma explosão. Em nenhum momento, neste modelo, no entanto, é que a densidade de nossa parte do universo tornar-se muito elevado. Esta explicação era atraente, porque se nós estávamos no centro da explosão que iria observar os deslocamentos Doppler de recuo como partículas redshifts, e as partículas mais distantes seria o movimento mais rápido e, portanto, têm a maior redshift.
Esta explicação da relação Hubble não resiste à análise, no entanto. Carlqvist determinou que não havia nenhuma maneira que um tal mecanismo possa levar as redshits muito elevados, comparáveis ​​a ou maiores do que a unidade, que foram observadas. Além disso, era difícil ver como o alto grau de isotropia do universo visível poderia ser reproduzida neste modelo. Enquanto o processo de separação de Alfvén foi o som, parece quase impossível para o processo de reverter e levar a uma re-mistura de matéria e antimatéria.
Características e problemas
Nos últimos vinte e cinco anos, a cosmologia de plasma tem se expandido para desenvolver modelos de formação da estrutura em larga escala, os quasares , a origem dos elementos leves, a radiação cósmica de fundo e da relação redshift-distância.
Formação de estrutura


Simulação de formação de galáxias do Peratt: quadros individuais de plasma na simulação de dois filamentos adjacentes Birkeland, que apresentam curvas de rotação planas e sem exigência de matéria escura. O diagrama refere-se às vistas em corte transversal de dois filamentos de plasma de largura .. ~ 35 KPC e separação cerca de ~ 80 KPC. (A extensão axial é determinada pelo comprimento do "micro-pinça" dentro do filamento (em comparação com a analogia de filamentos de laboratório) ou a largura da camada dupla formada na corrente Birkeland, estes são tipicamente comparável a largura filamentosa. (Peratt, 1986) versão animada
No início dos anos 1980, Peratt , um ex-aluno de Alfvén, que foi usado em instalações de supercomputadores Maxwell Laboratories e mais tarde em Los Alamos National Laboratory para simular o conceito de galáxias de Alfvén sendo formadas por nuvens primordiais de fiação plasma em um filamento magnético da Fälthammar. A simulação começou com duas nuvens esféricas de plasma presas em filamentos magnéticos paralelos, cada um carregando uma corrente de cerca de 10 18 amperes. Em um vídeo criado a partir da simulação, as nuvens começam a girar em torno de si, rotação sobre seu próprio eixo e distorcer a sua forma até que uma forma espiral emerge. Peratt comparam as várias fases em sua simulação com formas de galáxias observadas, concluindo que pareciam muito semelhantes. Além disso, as formas de Perrat tinham curvas de rotação planas sem invocar a matéria escura.
A simulação de Peratt difere substancialmente do modelo padrão de formação de galáxias que dependem da formação da estrutura hierárquica da matéria escura nos superaglomerados, aglomerados e galáxias observadas hoje no universo. O tamanho e a natureza de tais formas são baseadas em uma condição inicial das anisotropias primordiais visto no espectro de potência da radiação cósmica de fundo. A maioria dos astrofísicos aceitam a matéria escura como um fenômeno real e um ingrediente vital na formação da estrutura, o que não pode ser explicado pelo apelo aos processos eletromagnéticos. As estimativas de massa de conjuntos galácticos usando lente gravitacional, que é uma medida independente das curvas de rotação, também indicam que há uma grande quantidade de matéria escura presente independente das medições de curvas de rotação de galáxias.
Em meados dos anos 80 Lerner usou a filamentação de plasma para desenvolver uma explicação geral da estrutura em larga escala do universo. Lerner concluiu que a cosmologia de plasma pode produzir estruturas de grande escala, enquanto ele argumentou que grande estrondo cosmologia não acomodou a formação de estruturas muito grandes (como anula 100 Mpc ou mais de diâmetro) na quantidade limitada de tempo disponível desde o Big Bang. Simulações recentes, entretanto, mostram um acordo áspero entre observações de levantamentos de galáxias e N-corpo simulações cosmológicas do modelo Lambda-CDM . Muitos astrônomos acreditam que a obtenção de um acordo detalhado entre as observações e as simulações no modelo big bang vão exigir simulações melhoradas de formação da estrutura (com computadores mais rápidos e de maior resolução) e uma melhor compreensão teórica de como identificar vazios e inferir a distribuição da matéria escura invisível a partir da distribuição de galáxias luminosas.
A teoria de Lerner permite que a massa de objectos condensados ​​formados a ser previsto como uma função da densidade. Filamentos magneticamente confinados inicialmente compactar de plasma, o qual é então condensado gravitacionalmente numa distribuição fractal da matéria. Para que isso aconteça, o plasma deve ser de colisão - uma partícula deve colidir com pelo menos um outro em que cruza o objeto. Caso contrário, as partículas vão apenas continuar em órbitas, como os planetas do sistema solar. Esta condição leva à previsão de uma relação de escala fractal em que as estruturas são formadas com densidade inversamente proporcional ao seu tamanho. Esta relação de escala fractal (com dimensão fractal igual a dois) é uma previsão chave da cosmologia plasma. Dez anos atrás, as medições de um número limitado de contagem de galáxias parecia indicar que um escalonamento fractal era possível.
No modelo big bang, pelo contrário, o princípio cosmológico sugere que o universo é homogêneo em grandes escalas e estruturas formam hierarquicamente: os menores objetos, formando primeiro, seguido por objetos maiores. Estudos têm sugerido que a longo escalonamento fractal é verdade apenas em pequenas escalas, e que as observações indicam que o universo é homogêneo em grandes escalas sem evidência da estrutura de grande escala exigida pelo universo fractal. A maior contagem de número galáxia para data , o Sloan Digital Sky Survey , confirma esse quadro.
Quasares
Lerner desenvolveu um modelo de plasma de quasares com base no foco de plasma denso dispositivo de fusão. Neste dispositivo, convergindo filamentos de forma atual uma bola apertada, magneticamente confinado de plasma no eixo de eletrodos cilíndricos. À medida que o campo magnético da bola, ou plasmóide , decai, gera enormes campos elétricos que aceleram um feixe de íons em uma direção e um feixe de elétrons na outra. No modelo de Lerner, as correntes elétricas geradas por uma galáxia girando em um campo magnético intergaláctico convergir para o centro, produzindo um plasmóide gigante, ou quasar. Esta entidade metaestável, confinado pelo campo magnético da corrente que flui através dele, gera ambos os feixes de radiação intensa e observadas com quasares e núcleos ativos de galáxias. Lerner comparação em detalhes as previsões deste modelo com as observações dos quasares. Isto contradiz o modelo padrão de quasares distantes como núcleos galácticos ativos (isto é, os buracos negros supermassivos que são iluminadas pela radiação da matéria luminosa que estão em acreção ).
Abundância de Elementos leves
A teoria de formação da estrutura permitiu Lerner para calcular o tamanho de estrelas formadas na formação de uma galáxia e, portanto, as quantidades de hélio e outros elementos leves que serão geradas durante a formação de galáxias. Isto levou as previsões de que um grande número intermediário de estrelas de massa (4-12 massas solares) seria gerado durante as formações de galáxias. Teoria de evolução estelar Padrão indica que essas estrelas produzem e emitem para o ambiente grandes quantidades de hélio-4, mas muito pouco carbono, nitrogênio e oxigênio.


Os cálculos de plasma, que não continham variáveis ​​livres, levou a uma gama mais ampla de abundâncias previsto que havia grande estrondo de nucleossíntese, porque um processo que ocorre em galáxias individuais estariam sujeitos à variação individual. O valor mínimo previsto é consistente com o mínimo observado valores de abundância de 4 He. A fim de contabilizar os valores observados de deutério e vários isótopos de lítio , Eric Lerner tem postulou que os raios cósmicos a partir do início estrelas poderiam, por colisões com ambientes de hidrogênio e outros elementos, produz elementos da luz desaparecidos em nucleossíntese estelar.
Fundo em Microondas
Há muito que se observou que a quantidade de energia libertada para produzir a quantidade observada de hélio-4 é a mesma que a quantidade de energia contida no fundo de microondas (CMB). Defensores cosmologia Plasma argumentam que essa correspondência é explicada pela nucleossíntese estelar de hélio liberando a energia CMB exigido das estrelas nos estágios iniciais da formação de galáxias. Lerner e outros afirmam que a poeira pesada nessas galáxias thermalize a radiação e reemite-la na medida-IR. Para que tal modelo para produzir o observado quase perfeito espectro de corpo negro, a hipótese de Lerner e Peratt e Peter independentemente de que a energia é termalizada e isotropized por um emaranhado de filamentos de plasma denso, magneticamente confinados que permeiam o meio intergaláctico.
Uma vez que os filamentos hipotéticos iria espalhar radiação mais de 100 micrómetros, previa a teoria de que a radiação mais do que isso a partir de fontes distantes serão espalhadas e, assim, vai diminuir mais rapidamente com a distância do que a radiação menor que 100 micrómetros. Lerner concluiu que tal absorção ou dispersão foi demonstrada comparando rádio e radiação infravermelha de galáxias a várias distâncias. Mais distante, maior será o efeito de absorção de Lerner também sugere que este efeito explica o facto bem conhecido que o número de fontes de rádio diminui com o aumento do desvio para o vermelho mais rapidamente do que o número de fontes ópticas.
Lerner desenvolveu ainda mais este modelo combinando a isotrópico e espectro de corpo negro homogênea da CMB utilizando a fração de alta latitude galáctica do conjunto de dados do COBE . Ao contrário do modelo do Big Bang, não houve quaisquer cálculos de uma fonte angular espectro para comparação com os WMAP dados por apoiantes da cosmologia plasma ou quaisquer dados que resolve a estrutura pico da anisotropia CMB.
O modelo de plasma da CMB prevê que a maior parte da radiação observada origina relativamente perto de nós, no "nevoeiro rádio" de filamentos, em oposição à visão de que o Big Bang CMB origina a alta redshift e grande distância. Possível suporte para este próximo origem do radation CMB é apresentado por Lieu et al. em um estudo do efeito Sunyaev-Zel'dovich de 31 aglomerados de galáxias. Neste efeito, a CMB por trás dos clusters é um pouco "sombra" por elétrons quentes em clusters. Lieu mostraram que o efeito para estes grupos foi, no máximo, um quarto do que o previsto. Lieu concluiu que, tomados pelo valor de face, os dados indicaram que não havia "nenhuma evidência forte para uma origem de emissão da CMB em locais além do redshift médio de nossa amostra cluster (ou seja, z ~ 0,1)." O estudo é muito novo, e ainda não foi publicado em um peer revista revista.
Além disso, algumas análises da CMB indicam que o quadrupolo momento é inesperadamente baixa e que o momento é octupole inesperadamente planar. Além disso, existem vários inesperadamente bons alinhamentos dos planos dos momentos quadrupolo e octupole uns com os outros e com a eclíptica, com a direção do dipolo cosmológica, com os equinócios, e com o plano supergalactic. Eric Lerner sugeriu que esta corresponde a um modelo em que o Superaglomerado Local filamento iria nos proteger mais distante radiação filamento CMB, embora ele não tenha oferecido um modelo detalhado prever este fenômeno. Uma vez que os low-l multipolos são os únicos com os erros mais sistemáticos, alguns pesquisadores argumentam que esses efeitos desaparecem quando a remoção do primeiro plano da CMB é cuidadosamente explicada.
Redshifts
Redshifts cosmológicos são um fenômeno onipresente que é resumido por lei de Hubble em que as galáxias mais distantes têm maiores redshifts. Um dos pressupostos fundamentais da cosmologia de plasma é que esta observação não indica um universo em expansão.
Em um artigo de 2005, Lerner usou dados recentes sobre galáxias de alto redshift do Hubble Ultra Deep Field , em uma tentativa para testar as previsões da explicação expandindo-universo da relação Hubble. O modelo do Big Bang prevê o brilho da superfície aparente (brilho por unidade de área aparente) de galáxias da mesma magnitude absoluta deve diminuir o aumento da distância de acordo com a específica lei de potência calculada pelo Tolman . Lerner concluiu que as observações mostram que o brilho superficial de galáxias até um redshift de seis são constantes previsto por um universo não-expansão e em flagrante contradição com o big bang. Lerner afirma que as tentativas de explicar esta discrepância por mudanças na morfologia galáxia levam a previsões de galáxias que são incrivelmente brilhante e denso. Os modelos padrão de galáxias sugerem, no entanto, a morfologia galáxia é muito diferente em altas redshifts.
Resultado de Lerner não concorda com os resultados de Lubin e Sandage, astrônomos Caltech e dos Observatórios Carnegie , que realizaram testes semelhantes em uma seleção de bem-calibrado galáxias-redshift menor (até z de 0,92) de alta qualidade e concluiu que eles são consistente com um universo em expansão. Outra medida da expansão do universo, a dilatação do tempo de supernovas curvas de luz, também é citada como evidência de que o universo está se expandindo. No entanto, Lerner afirma no mesmo jornal que este não é o caso.
Enquanto os apoiadores cosmologia plasma têm apoiado explicações alternativas da relação Hubble, incluindo o efeito do lobo , CREIL , e luz cansada mecanismos, a maioria dos cosmólogos consideram o universo em expansão a ser suportado pela preponderância de evidências observacionais em cosmologia.
A relatividade geral e cosmologia plasma
Às vezes é argumentado que a idade finita do universo é uma previsão genérica da relatividade geral para cosmologias realistas. No entanto, provas de uma singularidade universal no passado todos dependem de hipóteses adicionais, o que pode ou não ser verdade. Por exemplo, Stephen Hawking e George Ellis argumentou que a geração do, isotrópico radiação cósmica de fundo térmico necessariamente implica uma singularidade gravitacional em nosso universo, se a constante cosmológica é zero. O seu cálculo da densidade da matéria e, portanto, sua conclusão baseava-se na pressuposto que Thomson dispersão é o processo mais eficiente para termalização. Mas em plasmas altamente magnetizadas outros processos, como a absorção de síncrotron inversa pode ser muito mais eficiente, como Lerner aponta em sua teoria do fundo de microondas. [60] Com essa absorção eficiente e re-emissão, a quantidade de plasma necessário para a thermalize radiação cósmica de fundo podem ser ordens de grandeza menor do que a necessária para produzir uma singularidade. As implicações da relatividade geral para a cosmologia de plasma não foram estudados em detalhe.
Futuro
A cosmologia de plasma não é uma teoria científica amplamente aceita, e até mesmo seus defensores concordam as explicações fornecidas são menos detalhadas do que as de cosmologia convencional. O seu desenvolvimento tem sido prejudicada, assim como a de outras alternativas para a cosmologia do Big Bang, através da atribuição exclusiva de financiamento do governo para pesquisa em cosmologia convencional. A maioria dos cosmologistas convencionais argumentam que esse viés é devido à grande quantidade de evidência observacional detalhada que valida a seis parâmetro modelo simples, Lambda-CDM do Big Bang.
Valores em cosmologia plasma
Os seguintes físicos e astrônomos ajudaram, direta ou indiretamente, para o desenvolvimento deste campo:
  • Hannes Alfvén - Junto com Birkeland, pai de Plasma Cosmologia e foi um dos pioneiros em laboratório com base na física de plasma. Recebido o único Prêmio Nobel já concedido a um físico de plasma.
  • Kristian Birkeland - Primeiro sugeriu que correntes elétricas polares [ou auroras electrojets ] estão conectados a um sistema de filamentos (agora chamado de "Correntes Birkeland") que corria ao longo das linhas do campo geomagnético para dentro e para fora da região polar. Sugeriu que o espaço não é um vácuo, mas em vez disso é cheio com o plasma. Pioneered the technique of "laboratory astrophysics", which became directly responsible for our present understanding of the aurora.
  • Eric Lerner - Alegações de que o meio intergaláctico é um forte absorvedor da radiação cósmica de microondas de fundo com a absorção ocorrendo em filamentos estreitos. Sustenta que os quasares não estão relacionados com os buracos negros, mas são bastante produzido por um processo de auto-compressão magnética semelhante ao que ocorre no foco plasma.
  • Anthony Peratt - Desenvolvido simulações de computador de formação de galáxias, usando correntes de Birkeland, juntamente com a gravidade. Junto com Alfvén, organizou conferências internacionais sobre Plasma Cosmologia.
  • Gerrit L. Verschuur - Rádio astrônomo, escritor de "assuntos interestelares: ensaios sobre a curiosidade e a descoberta astronômica" e "catástrofes cósmicas".