Relatório diz que país se empenhou para desenvolver projeto de bomba.
Ministro francês disse que país convocará Conselho de Segurança.
A França disse nesta quarta-feira (9) que pretende pedir a convocação do Conselho de Segurança e poderá pressionar por sanções sem precedentes contra o Irã, depois que um relatório da agência nuclear da ONU afirmou que o país se empenhou para desenvolver um projeto de bomba atômica.
"Está sendo pedida a convocação de uma reunião do Conselho de Segurança", disse o ministro de Relações Exteriores da França, Alain Juppé, à rádio RFI.
Em um comunicado, Juppé afirmou ser necessário ampliar a pressão diplomática. "Se o Irã se recusar à atender às demandas da comunidade internacional e recusar qualquer cooperação séria, nós estaremos firmes para adotar sanções em uma escala sem precedentes, com outros países que também estão dispostos a isso", disse Juppé. Na entrevista à rádio, ele declarou ser preciso impor duras sanções "para impedir o Irã de continuar a obter recursos que lhe permitam prosseguir com suas atividades, violando as normas internacionais."
O aguardado relatório da Agência Internacional de Energia Atômica (AIEA), divulgado na terça-feira à noite, detalhou novas evidências apontando para um aparente esforço coordenado e sigiloso por parte do Irã para obter a capacidade de produzir bombas atômicas.
Citando informações 'críveis' de Estados membros e de outras fontes, a AIEA listou uma série de atividades concernentes ao desenvolvimento de armas nucleares, como testes com explosivos potentes e o desenvolvimento de um detonador para bombas atômicas.
adaptado de
fonte: http://g1.globo.com/mundo/noticia/2011/11/franca-alerta-ira-sobre-sancoes-sem-precedentes-1.html
Isso É O Fim
Solicite hoje mesmo uma cotação para divulgar a sua publicidade no ISSO É O FIM
SOLICITE AGORA MESMO UMA COTAÇÃO PARA DIVULGAR A SUA PUBLICIDADE NO ISSO É O FIM !
PARA DIVULGAR E VENDER OS SEUS PRODUTOS, E, OS SEUS SERVIÇOS !
quarta-feira, 9 de novembro de 2011
terça-feira, 8 de novembro de 2011
Explosão de gás e cinzas na área do Mar Calmo
TelevisiónCanaria obteve imagens exclusivas da pluma de vapor e cinzas a partir do processo de erupção.
direto: Veja imagens da explosão na Telenoticias uma às 20h30
atividade sísmica é reativado em El Hierro. Volta das quatro da tarde foi uma explosão no local onde nas últimas horas algumas houve uma borbulhante contínua. Alguns falam moradores de uma coluna de fumaça a vários metros pode ser vista da costa. Além disso, o local é claramente visível em torno de um verde que se espalhou para o mar. Isto é visto borbulhando do chão por dias, como um ponto branco no meio de uma grande mancha verde, onde as ondas concêntricas são gerados às vezes surgem vapor piroclásticos e cada vez mais frequentemente surgem jorro de gases vulcânicos. O mais espetacular desses eventos ocorreu na tarde de sábado, às 18h00 pm (Ilhas Canárias), quando um saco de gás criou uma enorme bolha vapor e cinzas subiu 20-25 metros acima da superfície do mar. Foi tão impressionante que as autoridades decidiram evacuar La Restinga uma segunda vez, pensando que o cone vulcânico tinham vindo para a superfície e poderia tornar-se erupção explosiva. No entanto, o comité científico, disse na segunda-feira que este não era o cenário que agora enfrenta La Restinga, mas para outro, sem risco para a população: a expulsão de bolhas de gás que explodiu regulares para borbulhando na superfície. Dezenas de curiosos e jornalistas chegaram nesta terça-feira para a costa de La Restinga para testemunhar este fenômeno por si mesmos.
Fonte: http://www.rtvc.es/noticias/v%C3%ADdeo-explosi%C3%B3n-de-gases-y-cenizas-en-el-hierro-79650.aspx
Vulcão mais ativo da África entra em erupção
Mesmo expirando lava, não apresenta riscos diretos para a população
O vulcão mais ativo da África lançou lava, fumaça e cinzas no céu noturno, oferecendo um espetáculo no Parque Nacional Virunga, na República Democrática do Congo.
A lava está escorrendo longe das áreas povoadas e não oferece risco aos animais e aos humanos, segundo as autoridades.
O Nyamuragira entra em erupção em média a cada dois anos. Ele fica a aproximadamente 40 quilômetros ao norte da cidade de Goma, na província de Kivu Norte, e a noroeste de outro vulcão ativo, o Nyiragongo
Fonte: http://g1.globo.com/mundo/noticia/2011/11/vulcao-mais-ativo-da-africa-entra-em-erupcao.html
Nova versão do robô 'Asimo' será usada em usina de Fukushima
'Asimo' ganha nova versão que permite que o robô realize novas atividades (Foto: Itsuo Inouye/AP)
Honda Motor apresentou máquina nesta terça-feira (8) no Japão.
Braço do robô será usado para abrir e fechar válvulas na usina.
A Honda Motor apresentou nesta terça-feira (8), no Japão, a nova versão do robô Asimo, que ganhou 2 cm de acolchoado nos pés. A máquina consegue correr a 9 km/h, três a mais que na versão anterior. O Asimo também enfrenta superfícies irregulares sem cair e ganhou novos sensores, que dão sensibilidades aos dedos para que o robô abra uma garrafa térmica.
Algumas dessas novas habilidades foram desenvolvidas para ajudar na recuperação da usina nuclear de Fukushima, que foi atingida pelo tsunami no Japão em março. A tecnologia do braço do robô será usada para abrir e fechar válvulas, aptidão que nenhum robô tem hoje. Esse tipo de tarefa é considerado perigoso para os seres humanos por causa da radiação.
fonte: http://g1.globo.com/tecnologia/noticia/2011/11/nova-versao-do-robo-asimo-sera-usada-em-usina-de-fukushima.html
Honda Motor apresentou máquina nesta terça-feira (8) no Japão.
Braço do robô será usado para abrir e fechar válvulas na usina.
A Honda Motor apresentou nesta terça-feira (8), no Japão, a nova versão do robô Asimo, que ganhou 2 cm de acolchoado nos pés. A máquina consegue correr a 9 km/h, três a mais que na versão anterior. O Asimo também enfrenta superfícies irregulares sem cair e ganhou novos sensores, que dão sensibilidades aos dedos para que o robô abra uma garrafa térmica.
Algumas dessas novas habilidades foram desenvolvidas para ajudar na recuperação da usina nuclear de Fukushima, que foi atingida pelo tsunami no Japão em março. A tecnologia do braço do robô será usada para abrir e fechar válvulas, aptidão que nenhum robô tem hoje. Esse tipo de tarefa é considerado perigoso para os seres humanos por causa da radiação.
fonte: http://g1.globo.com/tecnologia/noticia/2011/11/nova-versao-do-robo-asimo-sera-usada-em-usina-de-fukushima.html
Pesquisa mostra interferência humana na ocorrência de terremotos
O pesquisador Leonardo Seeber, do Observatório Terrestre Lamont-Doherty, em Nova York, divulgou um estudo que mostra como as ações humanas podem influenciar a ocorrência de terremotos. Segundo ele, não são somente as forças naturais que causam estes desastres.
As análises de Seeber mostram que os impactos da engenharia na natureza são comuns e têm ocorrido com mais frequência há pouco mais de meio século. Um dos exemplos usados para comprovar a teoria foi o terremoto de 1967, ocasionado em consequência da construção de da represa Koyna, na Índia.
Apesar de ter um argumento bem formado, o especialista admite que é difícil diferenciar os terremotos ocasionados por causar naturais ou por ações humanas. A falta de apoio das
empresas durante as investigações torna o processo ainda mais árduo.
“Os representantes das empresas responsáveis geralmente se recusam a admitir a responsabilidade e dificultam a obtenção de dados que comprovem essa influência”, declarou ele ao New York Times.
Seeber explica que a mudança na pressão consequente da construção de represas ou exploração de petróleo podem facilmente ocasionar a ruptura de uma falha geológica. Essas são as duas principais atividades humanas que podem resultar em terremotos ou desastres maiores. Em contrapartida, o processo de obtenção de gás natural não está na lista de causadores de terremotos de Seeber. Com informações do New York Times.
fonte: http://www.ciclovivo.com.br/noticia.php/3556/pesquisa_mostra_interferencia_humana_na_ocorrencia_de_terremotos/
As análises de Seeber mostram que os impactos da engenharia na natureza são comuns e têm ocorrido com mais frequência há pouco mais de meio século. Um dos exemplos usados para comprovar a teoria foi o terremoto de 1967, ocasionado em consequência da construção de da represa Koyna, na Índia.
Apesar de ter um argumento bem formado, o especialista admite que é difícil diferenciar os terremotos ocasionados por causar naturais ou por ações humanas. A falta de apoio das
empresas durante as investigações torna o processo ainda mais árduo.
“Os representantes das empresas responsáveis geralmente se recusam a admitir a responsabilidade e dificultam a obtenção de dados que comprovem essa influência”, declarou ele ao New York Times.
Seeber explica que a mudança na pressão consequente da construção de represas ou exploração de petróleo podem facilmente ocasionar a ruptura de uma falha geológica. Essas são as duas principais atividades humanas que podem resultar em terremotos ou desastres maiores. Em contrapartida, o processo de obtenção de gás natural não está na lista de causadores de terremotos de Seeber. Com informações do New York Times.
fonte: http://www.ciclovivo.com.br/noticia.php/3556/pesquisa_mostra_interferencia_humana_na_ocorrencia_de_terremotos/
Hubble observa directamente o disco em torno de um Buraco Negro
Esta imagem mostra um quasar ampliado gravitacionalmente por uma galáxia no pano da frente, que pode ser vista como uma forma ténue em torno das duas imagens brilhantes do quasar.
Crédito: NASA, ESA e J.A. Muñoz (Universidade de Valência)
(clique na imagem para ver versão maior)
Crédito: NASA, ESA e J.A. Muñoz (Universidade de Valência)
(clique na imagem para ver versão maior)
Uma equipa de cientistas usou o Telescópio Espacial Hubble da NASA/ESA para observar um disco de acreção de um quasar - um brilhante disco de matéria que está lentamente a ser sugada para o buraco negro central da sua galáxia. O seu estudo faz uso de uma nova técnica que usa lentes gravitacionais para dar um grande aumento de poder ao telescópio. A incrível precisão do método permitiu aos astrónomos medir directamente o tamanho do disco e traçar a temperatura ao longo de partes diferentes do disco. Estas observações mostram um nível de precisão equivalente a avistar grãos individuais de poeira na superfície da Lua.
Embora os próprios buracos negros sejam invisíveis, as forças que libertam provocam alguns dos fenómenos mais brilhantes do Universo. Os quasares - diminutivo para objectos quasi-estelares - são discos brilhantes de matéria que orbitam buracos negros supermassivos, aquecendo e emitindo radiação extremamente brilhante à medida que o fazem.
"O disco de acreção no quasar tem um tamanho normal de alguns dias-luz, ou aproximadamente 100 mil milhões de quilómetros de diâmetro, mas situam-se a milhares de milhões de anos-luz de distância. Isto significa que o seu tamanho aparente, quando visto da Terra, é tão pequeno que provavelmente nunca teríamos um telescópio suficientemente poderoso para ver a sua estrutura directamente," explica Jose Muñoz, o líder científico deste estudo.
Até agora, o pequeníssimo tamanho aparente dos quasares significava que a maioria do nosso conhecimento da sua estrutura interna era baseada em extrapolações teóricas, e não através de observações directas.
Este diagrama mostra como o Hubble é capaz de observar um quasar, um disco brilhante de matéria em torno de um distante buraco negro, embora este esteja normalmente demasiado longínquo para ver sem ajuda de lentes gravitacionais.
Crédito: NASA, ESA
(clique na imagem para ver versão maior)
Crédito: NASA, ESA
(clique na imagem para ver versão maior)
A equipa observou um grupo de distantes quasares graças a lentes gravitacionais alinhadas a outras galáxias no pano da frente, produzindo algumas imagens do quasar.
Avistaram diferenças subtis em cor entre as imagens, e mudanças em cor ao longo do tempo das observações. Parte destas diferenças de cor são provocadas pelas propriedades da poeira nas galáxias intervenientes: a luz oriunda de cada uma das imagens ampliadas seguiu um percurso diferente pela galáxia, por isso as várias cores encapsulam informação acerca do material dentro da galáxia. A medição do modo como a poeira dentro destas galáxias bloqueia a luz (conhecido dos astrónomos como a lei da extinção) a tais distâncias é só por si um resultado importante do estudo.
Para um dos quasares estudados, no entanto, existem sinais claros que as estrelas na galáxia interveniente estavam a passar através do percurso da luz do quasar. À medida que o efeito gravitacional da galáxia interveniente distorcia e ampliava a luz do quasar, também as estrelas desta galáxia distorciam subtilmente e ampliavam a luz de partes diferentes do disco de acreção à medida que passavam pelo percurso da luz do quasar.
Ao registar a variação em cor, a equipa foi capaz de reconstruir o perfil de cores ao longo do disco de acreção. Isto é importante porque a temperatura de um disco de acreção aumenta com a proximidade ao buraco negro, e as cores emitidas pela matéria quente tornam-se mais azuladas quanto mais quentes forem. Isto permitiu à equipa medir o diâmetro do disco de matéria quente, e traçar a temperatura a distâncias diferentes do centro.
Descobriram que o disco mede entre quatro e onze dias-luz e diâmetro (aproximadamente 100 a 300 mil milhões de quilómetros). Embora esta medição mostre grandes incertezas, é mesmo assim extremamente precisa para um pequeno objecto a esta enorme distância, e o método mostra grande potencial para um crescimento na sua precisão futuramente.
"Este resultado é muito relevante porque significa que somos agora capazes de obter dados observacionais da estrutura destes sistemas, em vez de nos basearmos apenas na teoria," afirma Muñoz. "As propriedades físicas dos quasares não são ainda bem compreendidas. Esta nova capacidade de obter medições observacionais abre por isso uma nova janela para melhor compreender a natureza destes objectos."
Fonte: http://www.ccvalg.pt/astronomia/noticias/2011/11/8_quasar_lente_gravitacional.htm
Gigante mancha no sol desencadeia erupção solar
Uma poderosa erupção solar irrompeu na última quinta-feira, 3 de novembro, a partir de uma mancha na superfície do sol extremamente larga, sendo uma das maiores vista em anos. A erupção foi classificada como um dos mais potentes tipos de tempestades que nossa estrela pode desencadear.
A erupção desencadeou algumas interrupções nas comunicações de rádio na Terra cerca de 45 minutos mais tarde. A sonda da NASA Solar Dynamics Observatory (SDO) e uma nave espacial observaram o sol, tiraram fotos e fizeram vídeos da erupção durante a grande tempestade solar.
Uma erupção é uma poderosa liberação de energia que ilumina o sol, e é frequentemente associada com uma área de maior atividade magnética na superfície solar. Esta atividade magnética também pode inibir o fluxo de calor para a superfície em um processo chamado de convecção, que cria áreas escuras e bem mais frias do que o restante da superfície do sol, chamadas de manchas solares.
Mais tarde em outra área do sol, no mesmo dia da erupção, uma explosão de partículas carregadas, chamada ejeção de massa coronal, foi liberada a partir da superfície. Esta erupção veio do lado de trás do sol e é voltada em direção ao planeta Vênus, por isso não representa nenhum risco para a Terra.
A NASA foi capaz de observar tanto a ejeção de massa coronal como a erupção solar porque tem um conjunto de sondas de observação do sol que captam várias direções o tempo todo. E esses recentes acontecimentos no sol fazem parte de um crescente aumento de atividades em nossa estrela ultimamente, já que seu ciclo de maior atividade acontecerá por volta de 2013. [Space]
Fonte: http://hypescience.com/gigante-mancha-no-sol-desencadeia-erupcao-solar/?utm_medium=twitter&utm_source=twitterfeed
A erupção desencadeou algumas interrupções nas comunicações de rádio na Terra cerca de 45 minutos mais tarde. A sonda da NASA Solar Dynamics Observatory (SDO) e uma nave espacial observaram o sol, tiraram fotos e fizeram vídeos da erupção durante a grande tempestade solar.
Uma erupção é uma poderosa liberação de energia que ilumina o sol, e é frequentemente associada com uma área de maior atividade magnética na superfície solar. Esta atividade magnética também pode inibir o fluxo de calor para a superfície em um processo chamado de convecção, que cria áreas escuras e bem mais frias do que o restante da superfície do sol, chamadas de manchas solares.
Mais tarde em outra área do sol, no mesmo dia da erupção, uma explosão de partículas carregadas, chamada ejeção de massa coronal, foi liberada a partir da superfície. Esta erupção veio do lado de trás do sol e é voltada em direção ao planeta Vênus, por isso não representa nenhum risco para a Terra.
A NASA foi capaz de observar tanto a ejeção de massa coronal como a erupção solar porque tem um conjunto de sondas de observação do sol que captam várias direções o tempo todo. E esses recentes acontecimentos no sol fazem parte de um crescente aumento de atividades em nossa estrela ultimamente, já que seu ciclo de maior atividade acontecerá por volta de 2013. [Space]
Fonte: http://hypescience.com/gigante-mancha-no-sol-desencadeia-erupcao-solar/?utm_medium=twitter&utm_source=twitterfeed
Asteroide atinge ponto mais próximo da Terra nesta noite desta terça (8)
Nasa calcula quea menor distância será às 21h28 (horário de Brasília).
Especialista garante que asteroide não bate na Terra nos próximos séculos.
O asteroide 2005 YU55, que está passando perto da Terra, deve atingir nesta terça-feira (8) o ponto mais próximo de nosso planeta. A Nasa calcula que, às 21h28 (horário de Brasília), o corpo celeste estará a menos de 325 mil quilômetros da Terra, ou seja, mais perto que a distância que nos separa da Lua.
"Essa a aproximação mais rente de um asteroide que já ficamos sabendo com antecedência em toda a história", afirma Lance Benner, pesquisador do Laboratório de Propulsão de Jatos (JPL), órgão da Nasa responsável por essas contas.
"O 2005 YU55 não vai bater na Terra, pelo menos não dentro do período que conseguimos calcular, que se estende por vários séculos", completa o especialista.
Asteroide 2005 YU55, em imagem desta segunda (7) (Foto: Nasa/JPL-Caltech )
O 2005 YU55 passa com regularidade perto de Vênus, da Terra e de Marte, mas não chega tão próximo de nós há pelo menos 200 anos.
A última vez que um corpo celeste tão grande chegou tão perto de nós foi em 1976, mas, na época, os astrônomos não previram a visita. A próxima visita de um asteroide desse tamanho está prevista para 2028.
Astrônomos amadores que quiserem tentar ver o asteroide vão precisar de um telescópio de, pelo menos, 15 cm.
clica na foto para ver animação
fonte: http://g1.globo.com/ciencia-e-saude/noticia/2011/11/asteroide-atinge-ponto-mais-proximo-da-terra-na-noite-desta-terca-8.html
Especialista garante que asteroide não bate na Terra nos próximos séculos.
O asteroide 2005 YU55, que está passando perto da Terra, deve atingir nesta terça-feira (8) o ponto mais próximo de nosso planeta. A Nasa calcula que, às 21h28 (horário de Brasília), o corpo celeste estará a menos de 325 mil quilômetros da Terra, ou seja, mais perto que a distância que nos separa da Lua.
"Essa a aproximação mais rente de um asteroide que já ficamos sabendo com antecedência em toda a história", afirma Lance Benner, pesquisador do Laboratório de Propulsão de Jatos (JPL), órgão da Nasa responsável por essas contas.
"O 2005 YU55 não vai bater na Terra, pelo menos não dentro do período que conseguimos calcular, que se estende por vários séculos", completa o especialista.
Asteroide 2005 YU55, em imagem desta segunda (7) (Foto: Nasa/JPL-Caltech )
O 2005 YU55 passa com regularidade perto de Vênus, da Terra e de Marte, mas não chega tão próximo de nós há pelo menos 200 anos.
A última vez que um corpo celeste tão grande chegou tão perto de nós foi em 1976, mas, na época, os astrônomos não previram a visita. A próxima visita de um asteroide desse tamanho está prevista para 2028.
Astrônomos amadores que quiserem tentar ver o asteroide vão precisar de um telescópio de, pelo menos, 15 cm.
clica na foto para ver animação
fonte: http://g1.globo.com/ciencia-e-saude/noticia/2011/11/asteroide-atinge-ponto-mais-proximo-da-terra-na-noite-desta-terca-8.html
Queima dos foguetes da sonda Phobos poderá será vista do Brasil
No próximo dia 8 de novembro, um evento muito raro e interessante poderá ser visto nos céus de grande parte do Brasil. Trata-se do acionamento dos foguetes propulsores que arremessarão a nave russa Phobos-Grunt rumo ao planeta vermelho.
Cerca de 2.5 horas após de ser lançada a partir do cosmódromo de Baikonur, no Cazaquistão, a sonda russa Phobos-Grunt (Solo de Fobos) acionará pela primeira vez os foguetes, que a colocarão em uma órbita elíptica de 250x4700 km ao redor da Terra. Para sorte de nós brasileiros e sul-americanos, esse evento vai ocorrer exatamente sobre o Brasil e poderá ser visto ao longo de uma grande parte do país.
Se tudo correr como planejado, o momento exato da ignição será às 20h55m47s, quando a sonda estiver exatamente sobre a região oeste do Paraná. Devido a altitude, o evento poderá ser visto e acompanhado em quase todo o território nacional e também na América do Sul. O tempo total de queima é de 10 minutos.
Aproximadamente 2 horas depois, às 23h02m48s será a vez da segunda queima dos foguetes, que colocarão a sonda rumo ao Planeta Vermelho. Desta vez o acionamento dos propulsores ocorrerá sobre o oceano Pacífico e será visível em todo o noroeste da costa da América do Sul, com visibilidade sobre toda a Região Amazônica. O tempo total de queima também será de 10 minutos.
Brilho
Não se sabe ao certo qual será o brilho produzido durante a queima. Alguns observadores estimam algo em torno de 3 e 5 magnitudes. Assim, observadores localizados em lugares afastados dos grandes centros urbanos e com céu limpo deverão ver o evento sem a necessidade de instrumentos. Em locais mais poluídos aconselhamos o uso de um pequeno binóculo, mas vale também tentar ver a olho nu.
Sonda Phobs-Grunt
Se tudo der certo, Phobos-Grunt será um marco na exploração espacial. A sonda deverá pousar na superfície da lua marciana Phobos, coletar amostras do solo e após algum tempo de estudo retornar à Terra com a preciosa carga. Essa será a primeira vez que uma nave terrestre regressará com material de outro sistema planetário.
A sonda já deveria ter partido em outubro de 2009 e atingido a órbita de Marte 11 meses depois. No entanto, com o objetivo de assegurar maior confiabilidade à missão os engenheiros russos adiaram a partida da Phobos-Grunt até a nova janela de lançamento, em novembro de 2011.
Durante o tempo em que permanecer na lua marciana o robô funcionará como uma estação observação geológica e meteorológica, com experimentos programados para coletar dados que servirão para ajudar a compreender a formação dos planetas do sistema solar.
Acompanhe
O lançamento está previsto para ocorrer às 20:16:03 UTC (18h16m03s pelo horário de Brasília) e os horários apresentados só são válidos se não houver mudança de horários.
Você pode acompanhar a posição da sonda Phobos-Grunt através do nosso aplicativo SatView, que vai plotar a posição da sonda a partir do momento do lançamento. Para que você saiba exatamente para onde olhar será preciso selecionar corretamente a cidade onde você está e em seguida utilizar a opção "Prev. 5 Dias", que lhe informará para onde olhar no momento em que os foguetes estão acionados (20h55m47s e 23h02m48s do dia 8 de novembro).
O aplicativo também possui um chat onde você poderá conversar com outros observadores e tirar dúvidas do uso do Satview.
Para acessar o SatView, clique aqui
Para saber mais sobre a missão Phobos-Grunt, clique aqui
Apolo11.com - Todos os direitos reservados
fonte: http://www.apolo11.com/spacenews.php?titulo=Queima_dos_foguetes_da_sonda_Phobos_podera_sera_vista_do_Brasil&posic=dat_20111103-102137.inc
segunda-feira, 7 de novembro de 2011
Casa Branca afirma: "não existem sinais de vida extraterrestre"
O governo dos Estados Unidos afirmou no site da Casa Branca que ainda "não há evidências" de que exista vida fora de nosso planeta, nem que algum "extraterrestre" tenha entrado em contato com "a raça humana".
Em duas iniciativas distintas, 17 mil cidadãos assinaram documentos no qual pedem que Washington torne público seu conhecimento sobre a existência de seres de outro planeta.
Numa tentativa de se aproximar da população, o presidente americano, Barack Obama, lançou em setembro o site "We the people", no qual incentiva manifestações, pedidos e perguntas sobre a vida extraterrestre.
Os signatários pedem que sejam abertos ao público "todos os arquivos de todas as agências e dos militares relacionados ao fenômeno". Exigem também que o assunto seja discutido em audiências públicas no Congresso.
Phil Larsson, assessor da divisão de política espacial e comunicações da Casa Branca, afirma que nenhuma informação sobre a ocorrência de vida em outro planeta foi ocultada do público. Apesar disso, o funcionário diz que isso não significa que o assunto não precisa ser explorado e que existem numerosos projetos para comprovar se existe vida extraterrestre.
Larsson cita como exemplo a missão do telescópio Kepler, da Nasa, que tem como objetivo detectar a existência de planetas com condições de vida similares à Terra. Além disso, cita a próxima missão a Marte: "Mars Science Laboratory".
O assessor diz ainda que cientistas e matemáticos afirmam com "visão estatística" que entre os trilhões de planetas existentes no Universo é possível que exista um que possua vida.
No entanto, as possibilidades de contato, "especialmente com os inteligentes", são "extremamente pequenas" devido às grandes distâncias.
"O fato é que não temos evidências de presença extraterrestre aqui na Terra", conclui Larsson
Fonte: http://http//noticias.terra.com.br/ciencia/noticias/0,,OI5459648-EI301,00.html?utm_medium=twitter&utm_source=twitterfee
O FEMA sabe de algo que não sabemos?
Um teste de âmbito nacional do Sistema de Alerta de Emergência ocorrerá em quarta-feira, 9 de novembro em
02:00 EST através de estações de TV e rádio.
Data de lançamento: 9 de junho de 2011
Número de Lançamento: HQ-11-099
WASHINGTON, DC - O Departamento de Homeland EUA Agência de Gestão de Segurança Federal de Emergência (FEMA) ea Federal Communications Commission (FCC) irá realizar o primeiro teste de âmbito nacional do Sistema de Alerta de Emergência (EAS). O teste nacional ocorrerá em quarta-feira, 9 de novembro a 2 horas, horário padrão do leste e pode durar até três minutos e meio.
texto na integra
fonte: http://www.fema.gov/news/newsrelease.fema?id=55722
02:00 EST através de estações de TV e rádio.
Data de lançamento: 9 de junho de 2011
Número de Lançamento: HQ-11-099
WASHINGTON, DC - O Departamento de Homeland EUA Agência de Gestão de Segurança Federal de Emergência (FEMA) ea Federal Communications Commission (FCC) irá realizar o primeiro teste de âmbito nacional do Sistema de Alerta de Emergência (EAS). O teste nacional ocorrerá em quarta-feira, 9 de novembro a 2 horas, horário padrão do leste e pode durar até três minutos e meio.
texto na integra
fonte: http://www.fema.gov/news/newsrelease.fema?id=55722
Iceberg do tamanho de Berlim aparece na Antártica
Um iceberg enorme que irá crescer até 880 quilômetros quadrados está se formando em uma plataforma de gelo na Antártica Ocidental.
O iceberg começou como uma rachadura superficial no lençol de gelo, localizado em frente à Geleira Ilha Pine, na região antártica. A fenda, encontrada em outubro, corre por quase 32 quilômetros, e imagina-se que tenha 65 metros de profundidade.
Com a rachadura aumentando a cada dia, o iceberg vai se formar quando quebrar da plataforma maciça de gelo. Espera-se que isso aconteça no final desse ano ou começo de 2012.
Cientistas da NASA afirmam que o iceberg irá formar uma área de 880 quilômetros quadrados, o mesmo que a capital da Alemanha.
A Geleira Ilha Pine é uma das maiores e mais rápidas massas de gelo da Antártica, e é responsável por algo em torno de 10% de todo o gelo flutuante nos oceanos.
Em anos recentes, satélites apontaram uma notável diminuição na geleira, o que pode estar relacionado às mudanças climáticas e ao aquecimento global.
Mas cientistas que monitoram o aparecimento do iceberg afirmam que a nova formação é parte de um ciclo de 10 anos que acontece naturalmente.
“O último grande nascimento de um iceberg aconteceu em 2001, então já era esperado que algo assim acontecesse nessa época. E para nós é muito excitante ver algo assim acontecendo”, afirma o cientista do projeto IceBridge da NASA, Dr. Michael Studinger.
“Eventualmente, o iceberg vai se mover para o norte, onde seguirá correntes de vento e oceânicas – e a principal lá é a Corrente Circumpolar Antártica. Estaremos com certeza acompanhando isso”.
O “nascimento” é uma forma de perturbação no gelo, causada pela quebra súbita de uma massa de gelo de uma geleira ou iceberg maior. O fenômeno acontece usualmente após uma rachadura na massa de gelo.
Esse processo produz mais de 15 mil icebergs todos os anos apenas na Groenlândia, e é uma popular atração turística no Alasca.[Telegraph]
Fonte: http://hypescience.com/iceberg-do-tamanho-de-berlim-aparece-na-antartica/?utm_medium=twitter&utm_source=twitterfeed
O iceberg começou como uma rachadura superficial no lençol de gelo, localizado em frente à Geleira Ilha Pine, na região antártica. A fenda, encontrada em outubro, corre por quase 32 quilômetros, e imagina-se que tenha 65 metros de profundidade.
Com a rachadura aumentando a cada dia, o iceberg vai se formar quando quebrar da plataforma maciça de gelo. Espera-se que isso aconteça no final desse ano ou começo de 2012.
Cientistas da NASA afirmam que o iceberg irá formar uma área de 880 quilômetros quadrados, o mesmo que a capital da Alemanha.
A Geleira Ilha Pine é uma das maiores e mais rápidas massas de gelo da Antártica, e é responsável por algo em torno de 10% de todo o gelo flutuante nos oceanos.
Em anos recentes, satélites apontaram uma notável diminuição na geleira, o que pode estar relacionado às mudanças climáticas e ao aquecimento global.
Mas cientistas que monitoram o aparecimento do iceberg afirmam que a nova formação é parte de um ciclo de 10 anos que acontece naturalmente.
“O último grande nascimento de um iceberg aconteceu em 2001, então já era esperado que algo assim acontecesse nessa época. E para nós é muito excitante ver algo assim acontecendo”, afirma o cientista do projeto IceBridge da NASA, Dr. Michael Studinger.
“Eventualmente, o iceberg vai se mover para o norte, onde seguirá correntes de vento e oceânicas – e a principal lá é a Corrente Circumpolar Antártica. Estaremos com certeza acompanhando isso”.
O “nascimento” é uma forma de perturbação no gelo, causada pela quebra súbita de uma massa de gelo de uma geleira ou iceberg maior. O fenômeno acontece usualmente após uma rachadura na massa de gelo.
Esse processo produz mais de 15 mil icebergs todos os anos apenas na Groenlândia, e é uma popular atração turística no Alasca.[Telegraph]
Fonte: http://hypescience.com/iceberg-do-tamanho-de-berlim-aparece-na-antartica/?utm_medium=twitter&utm_source=twitterfeed
domingo, 6 de novembro de 2011
Mais uma guerra mundial e a humanidade teria seu fim
B83 é uma linha de bombas termonucleares de rendimento variavel de combate dos Estados Unidos da América, desenvolvida em nos anos 70 ao mesmo tempo da W87 no Laboratório Nacional Lawrence Livermore.
Sua produção começou em 15 de dezembro de 1984, substituindo modelos anteriores com o B28 e B42, foi feita desde o seu princípio para que evitasse a explosão acidental.
Ela tem 3,67 metros de comprimento, um diâmetro de 45,7 centímetros (18 polegadas) e pesa 1 100 quilogramas(2 400 libras), o seu rendimento é de 1,2 megatons(1 200 000 toneladas de TNT) tem o poder de destruição de duzentas bombas iguais à utilizada em Hiroshima.
Adaptado de: http://pt.wikipedia.org/wiki/B83
Sua produção começou em 15 de dezembro de 1984, substituindo modelos anteriores com o B28 e B42, foi feita desde o seu princípio para que evitasse a explosão acidental.
Ela tem 3,67 metros de comprimento, um diâmetro de 45,7 centímetros (18 polegadas) e pesa 1 100 quilogramas(2 400 libras), o seu rendimento é de 1,2 megatons(1 200 000 toneladas de TNT) tem o poder de destruição de duzentas bombas iguais à utilizada em Hiroshima.
Adaptado de: http://pt.wikipedia.org/wiki/B83
Cada vez mais próximo de um buraco negro...
Quando construído, o LHC foi tratado como a “arma do fim do mundo”, porque muitas pessoas achavam que o artefato gigantesco criaria um buraco negro que sugaria todo o planeta. Anos depois, nada de tão incrível chegou a acontecer… até agora!
Cientistas operanto o Large Hadron Collider, acabam de anunciar a criação de uma nova “instância” de plasma quark-gluon, conhecida por ser a forma de matéria mais densa (que a humanidade já testemunhou). O material é 100 mil vezes mais quente que o Sol, e mais denso do que qualquer objeto conhecido — excetuando um buraco negro.
Para comparar: uma estrela de nêutrons é dita por ser “tão densa quanto toda a população humana comprimida em um cubo de açúcar”. Plasma quark-gluon é ainda mais denso do que isso. O líder da equipe do LHC, David Evans, disse:
Fonte: http://jovemnerd.ig.com.br/jovem-nerd-news/tecnologia/lhc-cria-materia-primordial-incrivelmente-densa/
Cientistas operanto o Large Hadron Collider, acabam de anunciar a criação de uma nova “instância” de plasma quark-gluon, conhecida por ser a forma de matéria mais densa (que a humanidade já testemunhou). O material é 100 mil vezes mais quente que o Sol, e mais denso do que qualquer objeto conhecido — excetuando um buraco negro.
Para comparar: uma estrela de nêutrons é dita por ser “tão densa quanto toda a população humana comprimida em um cubo de açúcar”. Plasma quark-gluon é ainda mais denso do que isso. O líder da equipe do LHC, David Evans, disse:
“Se você tivesse um centímetro cúbico dessa coisa, pesaria 40 bilhões de toneladas.”Acredita-se que o universo existia como um plasma quark-gluon, até que se esfriou e se tornou no que somos hoje. O LHC teria criado com íons de chumbo se chocando próximo da velocidade da luz. O grupo pretende criar ainda mais do material no futuro.
Fonte: http://jovemnerd.ig.com.br/jovem-nerd-news/tecnologia/lhc-cria-materia-primordial-incrivelmente-densa/
Ressuscitaram a Peste Negra
O século XIV foi terrível para a Europa Ocidental. A Inglaterra e a França se arruinaram na Guerra dos 100 anos. O clima global começou a esfriar, dando início à Pequena Era do Gelo (1400-1650), com a perda de colheitas e fome generalizada. Foi nesse cenário de penúria e desnutrição que eclodiu a Peste Negra. Entre 1347 e 1352, entre 30% e 50% da população da Europa Ocidental morreu na pandemia mais mortal da história. O total de vítimas no resto do planeta é desconhecido, mas a magnitude da catástrofe deve ter sido semelhante. A humanidade já fora vítima de pandemias terríveis – como a Praga de Atenas, em 430 a.C., ou a Peste de Justiniano, que entre 541 e 544 se abateu sobre o império bizantino –, mas a Peste Negra foi a pior delas. As vítimas eram acometidas de uma febre repentina. O corpo era coberto por caroços purulentos e dolorosos, do tamanho de laranjas. Os doentes deliravam. Morriam em uma semana.
Decorridos 700 anos, a Peste Negra continua matando na África e na Ásia. Causada pela bactéria Yersinia pestis, a doença tem, hoje, baixa virulência e pode ser combatida com antibióticos. Os sintomas atuais são tão brandos em comparação com os relatos do século XIV que os infectologistas duvidavam que seu causador fosse a mesma bactéria Y. pestis. Caso fosse, por que há 700 anos ela foi tão mais letal?
Há três semanas, a primeira pergunta foi resolvida. Uma equipe internacional de geneticistas anunciou na revista científica Nature ter extraído o DNA da Y. pestis dos dentes de quatro cadáveres: um homem, duas mulheres e uma criança. Eles foram enterrados em 1349, ao lado de outras 2.500 vítimas, numa cova coletiva no antigo cemitério de East Smithfield, na região onde hoje estão a Torre de Londres e a Ponte de Londres. “Recuperamos cerca de 99% do genoma da antiga Yersinia pestis”, diz o geneticista alemão Johannes Krause, da Universidade de Tübingen. “Ao comparar esse genoma com o das cepas modernas da Y. pestis, não vimos uma única alteração.” O estudo detalhado dos 4,6 milhões de bases que compõem o DNA da bactéria explicará por que ela foi tão perigosa no passado. Na falta desse estudo, existem duas hipóteses complementares para o fenômeno. A primeira, simples, é a desnutrição de boa parte da humanidade na época. Enfraquecidas, as pessoas seriam presas fáceis da bactéria. A outra hipótese é do geneticista Hendrik Poinar, da Universidade McMaster, no Canadá. Ele diz que a mortalidade no século XIV foi altíssima porque ninguém tinha resistência imunológica contra aquela bactéria recém-evoluída. Com base na frequência de mutação da bactéria original e de suas descendentes modernas, descobriu-se que a doença surgiu entre 1282 e 1343.
Até a reconstrução da bactéria da Peste, nenhum agente infeccioso com mais de 100 anos fora recuperado. Em 2005, infectologistas americanos recriaram o vírus influenza da Gripe Espanhola de 1918, que matou 100 milhões de pessoas. Queriam entender por que aquela cepa de vírus fora tão mais virulenta que a gripe comum. Descobriu-se que a gripe de 1918 foi causada pelo vírus influenza do tipo A(H1N1), a mesma família do vírus causador da pandemia de gripe suína de 2009. Uma única e letal mutação separa o vírus antigo do atual. Os pesquisadores ressuscitaram o microrganismo de 1918 para testar sua letalidade. As cobaias infectadas morreram asfixiadas em quatro dias.
Por que os cientistas correm riscos ao reviver organismos tão perigosos? Eles dizem que isso é essencial para evitar epidemias futuras. Os cientistas acreditam que, ao entender a letalidade da bactéria da Peste Negra ou do vírus da Gripe Espanhola, podem criar tratamentos preventivos contra possíveis mutações perigosas. Há casos, porém, em que essa explicação não basta. O pior inimigo da humanidade foi a varíola, que matou centenas de milhões desde a Antiguidade. Em 1980, após uma bem-sucedida campanha de vacinação da Organização Mundial da Saúde (OMS), o vírus da varíola foi declarado extinto na natureza. Como ele sobrevivia apenas nos seres humanos (ao contrário das gripes, que vêm de pássaros e outros animais), a vacinação pode efetivamente erradicá-lo. As duas únicas cepas sobreviventes – que deveriam ter sido destruídas há décadas, por determinação da OMS – estão no Centro de Controle de Doenças dos Estados Unidos e no Instituto de Virologia de Moscou. A desconfiança entre americanos e russos faz com que hesitem na hora de destruir o vírus. Alegam ser preciso preservá-lo para fazer vacinas. A verdade é outra. Washington e Moscou temem ceder ao oponente o monopólio de uma arma decisiva numa eventual guerra biológica. Resulta desse impasse um risco maior: caso o vírus da varíola escape de um laboratório, encontrará a humanidade indefesa. As crianças não são mais vacinadas contra a doença, e a imunidade dos adultos já prescreveu. Nem se fabricam mais vacinas. Segundo a OMS, uma pandemia de varíola poderia matar até 2 bilhões de pessoas.
Fonte: http://revistaepoca.globo.com/ideias/noticia/2011/11/ressuscitaram-peste-negra.html
Decorridos 700 anos, a Peste Negra continua matando na África e na Ásia. Causada pela bactéria Yersinia pestis, a doença tem, hoje, baixa virulência e pode ser combatida com antibióticos. Os sintomas atuais são tão brandos em comparação com os relatos do século XIV que os infectologistas duvidavam que seu causador fosse a mesma bactéria Y. pestis. Caso fosse, por que há 700 anos ela foi tão mais letal?
Há três semanas, a primeira pergunta foi resolvida. Uma equipe internacional de geneticistas anunciou na revista científica Nature ter extraído o DNA da Y. pestis dos dentes de quatro cadáveres: um homem, duas mulheres e uma criança. Eles foram enterrados em 1349, ao lado de outras 2.500 vítimas, numa cova coletiva no antigo cemitério de East Smithfield, na região onde hoje estão a Torre de Londres e a Ponte de Londres. “Recuperamos cerca de 99% do genoma da antiga Yersinia pestis”, diz o geneticista alemão Johannes Krause, da Universidade de Tübingen. “Ao comparar esse genoma com o das cepas modernas da Y. pestis, não vimos uma única alteração.” O estudo detalhado dos 4,6 milhões de bases que compõem o DNA da bactéria explicará por que ela foi tão perigosa no passado. Na falta desse estudo, existem duas hipóteses complementares para o fenômeno. A primeira, simples, é a desnutrição de boa parte da humanidade na época. Enfraquecidas, as pessoas seriam presas fáceis da bactéria. A outra hipótese é do geneticista Hendrik Poinar, da Universidade McMaster, no Canadá. Ele diz que a mortalidade no século XIV foi altíssima porque ninguém tinha resistência imunológica contra aquela bactéria recém-evoluída. Com base na frequência de mutação da bactéria original e de suas descendentes modernas, descobriu-se que a doença surgiu entre 1282 e 1343.
Até a reconstrução da bactéria da Peste, nenhum agente infeccioso com mais de 100 anos fora recuperado. Em 2005, infectologistas americanos recriaram o vírus influenza da Gripe Espanhola de 1918, que matou 100 milhões de pessoas. Queriam entender por que aquela cepa de vírus fora tão mais virulenta que a gripe comum. Descobriu-se que a gripe de 1918 foi causada pelo vírus influenza do tipo A(H1N1), a mesma família do vírus causador da pandemia de gripe suína de 2009. Uma única e letal mutação separa o vírus antigo do atual. Os pesquisadores ressuscitaram o microrganismo de 1918 para testar sua letalidade. As cobaias infectadas morreram asfixiadas em quatro dias.
Por que os cientistas correm riscos ao reviver organismos tão perigosos? Eles dizem que isso é essencial para evitar epidemias futuras. Os cientistas acreditam que, ao entender a letalidade da bactéria da Peste Negra ou do vírus da Gripe Espanhola, podem criar tratamentos preventivos contra possíveis mutações perigosas. Há casos, porém, em que essa explicação não basta. O pior inimigo da humanidade foi a varíola, que matou centenas de milhões desde a Antiguidade. Em 1980, após uma bem-sucedida campanha de vacinação da Organização Mundial da Saúde (OMS), o vírus da varíola foi declarado extinto na natureza. Como ele sobrevivia apenas nos seres humanos (ao contrário das gripes, que vêm de pássaros e outros animais), a vacinação pode efetivamente erradicá-lo. As duas únicas cepas sobreviventes – que deveriam ter sido destruídas há décadas, por determinação da OMS – estão no Centro de Controle de Doenças dos Estados Unidos e no Instituto de Virologia de Moscou. A desconfiança entre americanos e russos faz com que hesitem na hora de destruir o vírus. Alegam ser preciso preservá-lo para fazer vacinas. A verdade é outra. Washington e Moscou temem ceder ao oponente o monopólio de uma arma decisiva numa eventual guerra biológica. Resulta desse impasse um risco maior: caso o vírus da varíola escape de um laboratório, encontrará a humanidade indefesa. As crianças não são mais vacinadas contra a doença, e a imunidade dos adultos já prescreveu. Nem se fabricam mais vacinas. Segundo a OMS, uma pandemia de varíola poderia matar até 2 bilhões de pessoas.
Fonte: http://revistaepoca.globo.com/ideias/noticia/2011/11/ressuscitaram-peste-negra.html
Tremor de terra é registrado na cidade de Sobral, no norte do Ceará
Um tremor de magnitute 2,0, aproximadamente, foi registrado em Sobral, a 233 km de Fortaleza, por volta das 5h desta quinta-feira (3), de acordo com o coordenador do Departamento de Sismologia da Universidade Federal de Rio Grande do Norte (UFRN), Joaquim Ferreira.
Segundo o departamento, três registros foram captados na Estação de Morrinhos, cidade próxima a Sobral, às 5h19, 5h20 e 5h28. “Sobral tem uma falha ativa. Por causa disso, voltam a ocorrer tremores. Em maio de 2008 houve um tremor de 4,8”, explica o coordenador.
O abalo desta madrugada não causou danos graves e ninguém ficou ferido. Os moradores das cidades de Meruoca e Alcântara também puderam ouvir o barulho gerado pelo tremor. O “tremor foi reduzido” e somente o barulho foi sentido com mais intensidade, segundo Ferreira.
Fonte: http://g1.globo.com/ceara/noticia/2011/11/tremor-de-terra-e-registrado-na-cidade-de-sobral-no-norte-do-ceara.html
Segundo o departamento, três registros foram captados na Estação de Morrinhos, cidade próxima a Sobral, às 5h19, 5h20 e 5h28. “Sobral tem uma falha ativa. Por causa disso, voltam a ocorrer tremores. Em maio de 2008 houve um tremor de 4,8”, explica o coordenador.
O abalo desta madrugada não causou danos graves e ninguém ficou ferido. Os moradores das cidades de Meruoca e Alcântara também puderam ouvir o barulho gerado pelo tremor. O “tremor foi reduzido” e somente o barulho foi sentido com mais intensidade, segundo Ferreira.
Fonte: http://g1.globo.com/ceara/noticia/2011/11/tremor-de-terra-e-registrado-na-cidade-de-sobral-no-norte-do-ceara.html
sábado, 5 de novembro de 2011
O Brasil tem terremotos, sim
País está em cima de uma única placa tectônica, mas já contabiliza mais de 15 tremores de terra com magnitudes maiores ou iguais a 5.0 desde 1922
Os brasileiros sempre se gabaram de não precisarem ter medo de terremoto, afinal, o país está em cima de uma única placa tectônica, e é justamente o encontro de duas delas que causam os maiores desastres em países como Estados Unidos e Japão. Mas essa história não é tão simples assim. Os riscos são menores, mas não nulos. E o Brasil já contabiliza mais de 15 tremores de terra (ou abalos sísmicos) com magnitudes maiores ou iguais a 5.0 desde 1922. Fora os mais de 3.140 eventos sismológicos contabilizados com menores ocorrências de Norte a Sul (os dados são da SISBRA/UnB, o Boletim Sísmico Brasileiro de 2008). Acredita-se que dificilmente o Brasil terá um terremoto como o que destruiu partes do Japão em março deste ano. Mas, dizer nunca, jamais.
“A possibilidade é quase zero, mas não podemos dizer que é zero porque a gente tem muito pouca informação sobre a Terra. Nosso planeta foi mapeado centenas de anos antes de Cristo, só que ele tem quatro bilhões de anos. Em 1811-1812, por exemplo, houve um terremoto de magnitude 7.7 em New Madri, no Missouri (EUA) no meio da placa tectônica norte-americana. No Brasil, há pouquíssima gente estudando esses fenômenos e há muito para se entender sobre os terremotos da intraplaca, ou seja, como se comportam as falhas geológicas supostamente ‘estáveis’”, diz o George Sand França, professor do Observatório Sismológico da Universidade de Brasília.
Além do professor da UNB, há cerca de dez doutores em sismologia no Brasil, sendo que três deles em Brasília e três no Rio Grande do Norte, um dos estados mais atingidos por tremores: o município de João Câmara sofreu abalos sísmicos de 5.1 e 5.0 em 1986 e 1989, respectivamente. O tremor mais forte já registrado no Brasil desde o início das primeiras medições instrumentais, na década de 50, ocorreu em 1955 em Serra Tombador (MT), com 6.2 de magnitude. Em 2010, um terremoto de 5 pontos foi registrado na divisa de Goiás e Tocantins. O tremor foi sentido até em Brasília (a 254 km), mais especificamente no Palácio do Planalto.
“As pessoas começam a perceber os tremores quando eles estão acima de 2.0 de magnitude, dependo da distância em que estiver do epicentro do abalo. Os de 3.0 e 3.5 já começam a amedrontar a população. Sofrem mais as cidades que não estão preparadas para isso, com construções não estruturadas para esse tipo de experiência. Recentemente, mesmo distante, Brasília viveu essa experiência para um terremoto de magnitude 5.0”, comenta o professor.
Um evento pode durar segundos ou minutos. Acredita-se que, no Brasil, os tremores podem ocorrer devido a existência de falhas geológicas. As maiores falhas geológicas, com potências fortes de terremotos, estão exatamente no limite das placas, e a mais famosa é a de San Andres, na Califórnia. No entanto, essa falhas existem também no interior delas, que foram oriundas de movimentos anteriores da placas ou de placas que já foram consumidas. Essas falhas antigas também estão sujeitas a tensões e podem causar o deslocamento da placa, gerando os tremores denominados tremores intraplacas. O Brasil também sofre reflexos de terremotos com epicentro em outros países da América Latina, mas sem alarde, pois esses só fazem vibrar grandes edifícios, sobretudo na Avenida Paulista. O professor George Sand França atribui outro fator importante: o aumento da população.
“Existe a pressão interna da placa listosférica, que tem fraturas. A pressão na rocha é muito grande, então, ela se desloca. A população aumentou muito e por isso percebe mais os terremotos que tempos atrás”, comenta.
George Sand França estudou Física e fez mestrado na Universidade Federal do Rio Grande do Norte (UFRN) e doutorado na Universidade de São Paulo (USP). Seu interesse por tremores surgiu quando, em 1989, sentiu um forte em João Câmara (RN), onde vivia.
“Sempre conto essa história aos meus alunos. Sou potiguar e, ali, ao sentir o tremor em João Câmara, decidi ser sismólogo. Achei que estava no lugar certo. Ciência é aquela coisa sobre a qual você tem interesse, mas não entende. Descobri que a ciência sismológica tem apenas um século de estudos. É uma ciência nova”, diz.
De acordo com o professor, o avanço da tecnologia nos ajuda com mais repostas, mas infelizmente ainda não é possível evitar um terremoto. O que se pode fazer é se preparar para não sofrer consequências caso viva algum tremor.
“O que não pode é entrar em pânico. É preciso educar a população para isso. Se estiver na cama, é bom botar o travesseiro na cabeça para não se assustar com o barulho. O ideal é ir para baixo da cama. Em regiões em que há tremores, é bom fixar armários nas paredes e não deixar copos ou vidros em lugares altos”, avalia.
O único caso de morte registrado no Brasil foi em 2007, quando um terremoto de 4.9 graus de magnitude atingiu a comunidade rural de Caraíbas, situada ao norte de Minas Gerais. Uma criança de cinco anos morreu esmagada pela parede de sua casa, que não resistiu ao abalo e caiu. Cinco pessoas ficaram feridas e centenas desabrigadas. Essa, sem dúvida, foi a experiência mais marcante na carreira do professor George:
“Gosto muito do meu trabalho, mas o maior desafio é não só entender as causas do terremoto, como também a parte social a que ele está ligado. Vivi um pouco dessa experiência de Caraíbas, pois fui dar uma palestra logo depois de ter ocorrido um tremor de magnitude 3.5. Tentei ensinar as pessoas a como se comportar. Dois meses depois, soube da tragédia.”
Fonte: http://redeglobo.globo.com/globociencia/noticia/2011/11/o-brasil-tem-terremoto-sim.html
Mapa da Sismicidade Brasileira (Foto: Divulgação / Observatório Sismológico)
“A possibilidade é quase zero, mas não podemos dizer que é zero porque a gente tem muito pouca informação sobre a Terra. Nosso planeta foi mapeado centenas de anos antes de Cristo, só que ele tem quatro bilhões de anos. Em 1811-1812, por exemplo, houve um terremoto de magnitude 7.7 em New Madri, no Missouri (EUA) no meio da placa tectônica norte-americana. No Brasil, há pouquíssima gente estudando esses fenômenos e há muito para se entender sobre os terremotos da intraplaca, ou seja, como se comportam as falhas geológicas supostamente ‘estáveis’”, diz o George Sand França, professor do Observatório Sismológico da Universidade de Brasília.
Além do professor da UNB, há cerca de dez doutores em sismologia no Brasil, sendo que três deles em Brasília e três no Rio Grande do Norte, um dos estados mais atingidos por tremores: o município de João Câmara sofreu abalos sísmicos de 5.1 e 5.0 em 1986 e 1989, respectivamente. O tremor mais forte já registrado no Brasil desde o início das primeiras medições instrumentais, na década de 50, ocorreu em 1955 em Serra Tombador (MT), com 6.2 de magnitude. Em 2010, um terremoto de 5 pontos foi registrado na divisa de Goiás e Tocantins. O tremor foi sentido até em Brasília (a 254 km), mais especificamente no Palácio do Planalto.
“As pessoas começam a perceber os tremores quando eles estão acima de 2.0 de magnitude, dependo da distância em que estiver do epicentro do abalo. Os de 3.0 e 3.5 já começam a amedrontar a população. Sofrem mais as cidades que não estão preparadas para isso, com construções não estruturadas para esse tipo de experiência. Recentemente, mesmo distante, Brasília viveu essa experiência para um terremoto de magnitude 5.0”, comenta o professor.
Um evento pode durar segundos ou minutos. Acredita-se que, no Brasil, os tremores podem ocorrer devido a existência de falhas geológicas. As maiores falhas geológicas, com potências fortes de terremotos, estão exatamente no limite das placas, e a mais famosa é a de San Andres, na Califórnia. No entanto, essa falhas existem também no interior delas, que foram oriundas de movimentos anteriores da placas ou de placas que já foram consumidas. Essas falhas antigas também estão sujeitas a tensões e podem causar o deslocamento da placa, gerando os tremores denominados tremores intraplacas. O Brasil também sofre reflexos de terremotos com epicentro em outros países da América Latina, mas sem alarde, pois esses só fazem vibrar grandes edifícios, sobretudo na Avenida Paulista. O professor George Sand França atribui outro fator importante: o aumento da população.
“Existe a pressão interna da placa listosférica, que tem fraturas. A pressão na rocha é muito grande, então, ela se desloca. A população aumentou muito e por isso percebe mais os terremotos que tempos atrás”, comenta.
George Sand França estudou Física e fez mestrado na Universidade Federal do Rio Grande do Norte (UFRN) e doutorado na Universidade de São Paulo (USP). Seu interesse por tremores surgiu quando, em 1989, sentiu um forte em João Câmara (RN), onde vivia.
“Sempre conto essa história aos meus alunos. Sou potiguar e, ali, ao sentir o tremor em João Câmara, decidi ser sismólogo. Achei que estava no lugar certo. Ciência é aquela coisa sobre a qual você tem interesse, mas não entende. Descobri que a ciência sismológica tem apenas um século de estudos. É uma ciência nova”, diz.
De acordo com o professor, o avanço da tecnologia nos ajuda com mais repostas, mas infelizmente ainda não é possível evitar um terremoto. O que se pode fazer é se preparar para não sofrer consequências caso viva algum tremor.
“O que não pode é entrar em pânico. É preciso educar a população para isso. Se estiver na cama, é bom botar o travesseiro na cabeça para não se assustar com o barulho. O ideal é ir para baixo da cama. Em regiões em que há tremores, é bom fixar armários nas paredes e não deixar copos ou vidros em lugares altos”, avalia.
O único caso de morte registrado no Brasil foi em 2007, quando um terremoto de 4.9 graus de magnitude atingiu a comunidade rural de Caraíbas, situada ao norte de Minas Gerais. Uma criança de cinco anos morreu esmagada pela parede de sua casa, que não resistiu ao abalo e caiu. Cinco pessoas ficaram feridas e centenas desabrigadas. Essa, sem dúvida, foi a experiência mais marcante na carreira do professor George:
“Gosto muito do meu trabalho, mas o maior desafio é não só entender as causas do terremoto, como também a parte social a que ele está ligado. Vivi um pouco dessa experiência de Caraíbas, pois fui dar uma palestra logo depois de ter ocorrido um tremor de magnitude 3.5. Tentei ensinar as pessoas a como se comportar. Dois meses depois, soube da tragédia.”
Fonte: http://redeglobo.globo.com/globociencia/noticia/2011/11/o-brasil-tem-terremoto-sim.html
Relatório dos EUA aponta recorde nas emissões de gases em 2010
Dados indicam alta de 500 milhões toneladas de carbono em um único ano.
Agência Internacional de Energia já havia divulgado aumento em maio.
O volume de gases de efeito estufa, que causam o aquecimento global, liberado na atmosfera deu um salto sem precedentes em 2010, segundo os últimos dados mundiais sobre emissões de dióxido de carbono, compilados pelo Departamento de Energia dos Estados Unidos.
"Isso é grande", afirmou Tom Boden, diretor da Divisão de Ciências Ambientais do Centro de Análise de Informação sobre o Dióxido de Carbono, do Laboratório Nacional de Oak Ridge, no Tennessee. "Nossos dados remontam a 1751, mesmo antes da Revolução Indsutrial. Nunca antes nós vimos um aumento de 500 milhões de toneladas métricas de carbono em um único ano", acrescentou.
A elevação, medida de emissões de CO2 liberadas na atmosfera resultantes da queima de carvão e gás, alcançou cerca de 6% entre 2009 e 2010, subindo de 8,6 para 9,1 bilhões de toneladas métricas.
Grandes saltos foram registrados em Estados Unidos, China e Índia, os maiores poluidores do mundo. Picos significativos posteriores a 2009 também foram registrados em Arábia Saudita, Turquia, Rússia, Polônia e Cazaquistão.
Alguns países, como Suíça, Azerbaijão, Eslováquia, Espanha, Nova Zelândia e Paquistão tiveram reduções sutis entre 2009 e 2010, mas estes países foram exceções. Grande parte da Europa demonstrou uma elevação moderada.
Fonte: http://g1.globo.com/natureza/noticia/2011/11/relatorio-dos-eua-aponta-recorde-nas-emissoes-de-gases-em-2010.html?utm_source=twitterfeed&utm_medium=twitter
Agência Internacional de Energia já havia divulgado aumento em maio.
Departamento de Energia dos Estados Unidos está preocupado com o recorde de emissões de carbono na atmosfera (Foto: Hans Thoursie / stock.xchng)
"Isso é grande", afirmou Tom Boden, diretor da Divisão de Ciências Ambientais do Centro de Análise de Informação sobre o Dióxido de Carbono, do Laboratório Nacional de Oak Ridge, no Tennessee. "Nossos dados remontam a 1751, mesmo antes da Revolução Indsutrial. Nunca antes nós vimos um aumento de 500 milhões de toneladas métricas de carbono em um único ano", acrescentou.
A elevação, medida de emissões de CO2 liberadas na atmosfera resultantes da queima de carvão e gás, alcançou cerca de 6% entre 2009 e 2010, subindo de 8,6 para 9,1 bilhões de toneladas métricas.
Grandes saltos foram registrados em Estados Unidos, China e Índia, os maiores poluidores do mundo. Picos significativos posteriores a 2009 também foram registrados em Arábia Saudita, Turquia, Rússia, Polônia e Cazaquistão.
Alguns países, como Suíça, Azerbaijão, Eslováquia, Espanha, Nova Zelândia e Paquistão tiveram reduções sutis entre 2009 e 2010, mas estes países foram exceções. Grande parte da Europa demonstrou uma elevação moderada.
Fonte: http://g1.globo.com/natureza/noticia/2011/11/relatorio-dos-eua-aponta-recorde-nas-emissoes-de-gases-em-2010.html?utm_source=twitterfeed&utm_medium=twitter
Rumo às estrelas, só que sem motor
Agência de pesquisa avançada americana sonha com a tecnologia das próximas naves espaciais
Pode até parecer um conceito fantástico, mas dificilmente mais fantástico do que a ideia de construir qualquer nave espacial de qualquer tipo, principalmente com o futuro da Nasa estando incerto, para dizer o mínimo.
Mesmo assim, em Orlando, não muito longe do local de lançamento das realizações mais triunfais do programa espacial, a Agência de Projetos de Pesquisa Avançada de Defesa do governo americano (também conhecida pela sigla em inglês Darpa), atraiu centenas de pessoas em outubro mês a um simpósio sobre o Estudo da Espaçonave de 100 Anos, dedicado a ideias sobre visitas às estrelas.
Os participantes – uma mistura eclética de engenheiros, cientistas, fãs de ficção científica, estudantes e sonhadores – explorou uma mistura de ideias, incluindo como organizar e financiar um projeto de um século de duração; caso a civilização sobreviva, porque um motor capaz de propelir uma nave espacial poderia ser usado como arma para destruir o planeta; e caso as pessoas precisem juntar-se à viagem. (Alternativamente, máquinas poderiam construir seres humanos em seu local de destino, talvez otimizados para a vida em ambientes diferentes da Terra.)
''O programa espacial, qualquer programa espacial, precisa de um sonho’', disse o participante Joseph Breeden. ''Se não existirem sonhadores, nós nunca conseguiremos chegar a lugar algum’'.
Foi Breeden o autor da ideia para uma nave espacial sem motor.
Primeiro, encontre um asteroide em órbita elíptica que passe perto do Sol. Segundo, coloque uma astronave em órbita ao redor desse asteroide. Se o asteroide puder ser capturado em uma nova órbita que fique perto do Sol, a astronave seria lançada em uma trajetória interestelar, talvez alcançando um décimo da velocidade da luz.
''A dinâmica caótica dos dois iria permitir que toda a energia de um fosse transferida ao outro’', disse Breeden, que veio armado de cópias de um trabalho descrevendo a técnica. ''É um tipo único de assistência gravitacional’'.
Tradição em pesquisa
A Darpa, por concepção, busca projetos originais que não tenham uso militar imediato. (Nos anos 1960 e 1970, por exemplo, a agência 'preparou a cama’ para o surgimento da internet.)
David L. Neyland, diretor de tecnologias táticas da Darpa, que organizou o estudo de um ano sobre espaçonaves, observou que sua agência foi fundada há mais de 50 anos, como uma resposta ao Sputnik, a jogada soviética no ramo de satélites durante a Guerra Fria. Segundo ele, as pesquisas e o desenvolvimento de tecnologias que poderiam levar à criação de uma nave espacial iriam provavelmente criar desdobramentos para usos militares.
''Em todos os passos ao longo do caminho dos negócios espaciais, o Departamento de Defesa foi beneficiado’', disse Neyland.
Nas palestras, os oradores demonstraram desafios que, embora hercúleos, não pareciam estar fora da realidade do 'possível’, mesmo sem se recorrer a físicas exóticas como a dobra espacial de 'Jornada nas Estrelas’.
Mesmo assim, as distâncias absolutas são intimidadoras. ''O problema das estrelas é maior do que a maioria das pessoas imagina’', disse James Benford, físico que organizou sessões sobre propulsão de espaçonaves.
Richard Obousy, presidente da Icarus Interstellar, organização de voluntários que passou diversos anos desenvolvendo projetos para naves espaciais, forneceu uma analogia. Se a Terra estivesse em Orlando, e o sistema estelar mais próximo – Alpha Centauri – ficasse em Los Angeles, então as duas sondas Voyager da Nasa – os dois objetos feitos pelo homem que viajaram as maiores distâncias – teriam percorrido apenas 1,6 quilômetro.
Outra maneira de enxergar o desafio é notar que, em 10 mil anos, a velocidade dos seres humanos pulou em um fator de aproximadamente 10 mil, de um pequeno passeio (4 km/h) até o retorno da Lua dos astronautas da Apollo (aproximadamente 42 mil km/h), Alcançar as estrelas em um período razoável – de décadas, e não séculos – iria exigir um pulo de velocidade de outro fator na casa dos 10 mil.
Os primeiros passos, no entanto, são fáceis de se imaginar. Mesmo nos anos 1950, os cientistas aeroespaciais perceberam que os motores atuais – que queimam querosene ou hidrogênio e expelem chamas – são o equivalente a carros beberrões no mundo dos foguetes espaciais. Eles projetaram motores nucleares que usam reatores para aquecer hidrogênio líquido até chegar uma corrente de gás de movimento rápido. A Nasa tinha tais motores prontos, no caso de uma hipotética missão tripulada até Marte, em seguida aos pousos realizados na Lua.
Hoje, a agência espacial reviveu esse trabalho, começando com estudos sobre um combustível ideal para um reator espacial, com novos motores nucleares podendo ficar prontos até o final da década.
Quando às preocupações sobre radioatividade, os reatores não seriam ativados até que a espaçonave atingisse o espaço. ''O espaço é um lugar maravilhoso para o uso da energia nuclear, porque ele próprio já é radioativo’', disse Geoffrey Landis, cientista do Centro de Pesquisas Glenn da Nasa, em Ohio (e autor de livros de ficção científica).
Motores nucleares mais avançados poderiam usar reatores para gerar campos elétricos que acelerariam íons carregados para o impulso. Então, os motores de fusão – produzindo energia pela combinação de átomos de hidrogênio – poderiam finalmente ser poderosos o suficiente para permitir as viagens interestelares.
A Sociedade Interplanetária Britânica desenvolveu um conceito para uma espaçonave alimentada por fusão nos anos 1970, chamada Dédalo, que extrapolava a física e tecnologia conhecidas. O grupo de Obousy, o Icarus Interstellar, está revisitando o projeto Dédalo para verificar se 30 e poucos anos de novas tecnologias poderiam produzir uma espaçonave melhor.
Conceito da sonda Icarus, um dos projetos revisitados pela Darpa em seu seminário em outubro
Uma nave espacial sem motor?Pode até parecer um conceito fantástico, mas dificilmente mais fantástico do que a ideia de construir qualquer nave espacial de qualquer tipo, principalmente com o futuro da Nasa estando incerto, para dizer o mínimo.
Mesmo assim, em Orlando, não muito longe do local de lançamento das realizações mais triunfais do programa espacial, a Agência de Projetos de Pesquisa Avançada de Defesa do governo americano (também conhecida pela sigla em inglês Darpa), atraiu centenas de pessoas em outubro mês a um simpósio sobre o Estudo da Espaçonave de 100 Anos, dedicado a ideias sobre visitas às estrelas.
Os participantes – uma mistura eclética de engenheiros, cientistas, fãs de ficção científica, estudantes e sonhadores – explorou uma mistura de ideias, incluindo como organizar e financiar um projeto de um século de duração; caso a civilização sobreviva, porque um motor capaz de propelir uma nave espacial poderia ser usado como arma para destruir o planeta; e caso as pessoas precisem juntar-se à viagem. (Alternativamente, máquinas poderiam construir seres humanos em seu local de destino, talvez otimizados para a vida em ambientes diferentes da Terra.)
''O programa espacial, qualquer programa espacial, precisa de um sonho’', disse o participante Joseph Breeden. ''Se não existirem sonhadores, nós nunca conseguiremos chegar a lugar algum’'.
Foi Breeden o autor da ideia para uma nave espacial sem motor.
Físico por formação, ele havia mais recentemente concebido equações que preveem para bancos o quanto eles irão perder em seus empréstimos a consumidores.
De sua tese de doutorado, Breeden lembrou-se que, em uma caótica dança gravitacional, as estrelas algumas vezes são ejetadas a altas velocidades. O mesmo efeito, ele acredita, poderia ser usado para impulsionar naves espaciais.
''A dinâmica caótica dos dois iria permitir que toda a energia de um fosse transferida ao outro’', disse Breeden, que veio armado de cópias de um trabalho descrevendo a técnica. ''É um tipo único de assistência gravitacional’'.
Tradição em pesquisa
A Darpa, por concepção, busca projetos originais que não tenham uso militar imediato. (Nos anos 1960 e 1970, por exemplo, a agência 'preparou a cama’ para o surgimento da internet.)
David L. Neyland, diretor de tecnologias táticas da Darpa, que organizou o estudo de um ano sobre espaçonaves, observou que sua agência foi fundada há mais de 50 anos, como uma resposta ao Sputnik, a jogada soviética no ramo de satélites durante a Guerra Fria. Segundo ele, as pesquisas e o desenvolvimento de tecnologias que poderiam levar à criação de uma nave espacial iriam provavelmente criar desdobramentos para usos militares.
''Em todos os passos ao longo do caminho dos negócios espaciais, o Departamento de Defesa foi beneficiado’', disse Neyland.
Nas palestras, os oradores demonstraram desafios que, embora hercúleos, não pareciam estar fora da realidade do 'possível’, mesmo sem se recorrer a físicas exóticas como a dobra espacial de 'Jornada nas Estrelas’.
Mesmo assim, as distâncias absolutas são intimidadoras. ''O problema das estrelas é maior do que a maioria das pessoas imagina’', disse James Benford, físico que organizou sessões sobre propulsão de espaçonaves.
Richard Obousy, presidente da Icarus Interstellar, organização de voluntários que passou diversos anos desenvolvendo projetos para naves espaciais, forneceu uma analogia. Se a Terra estivesse em Orlando, e o sistema estelar mais próximo – Alpha Centauri – ficasse em Los Angeles, então as duas sondas Voyager da Nasa – os dois objetos feitos pelo homem que viajaram as maiores distâncias – teriam percorrido apenas 1,6 quilômetro.
Outra maneira de enxergar o desafio é notar que, em 10 mil anos, a velocidade dos seres humanos pulou em um fator de aproximadamente 10 mil, de um pequeno passeio (4 km/h) até o retorno da Lua dos astronautas da Apollo (aproximadamente 42 mil km/h), Alcançar as estrelas em um período razoável – de décadas, e não séculos – iria exigir um pulo de velocidade de outro fator na casa dos 10 mil.
Os primeiros passos, no entanto, são fáceis de se imaginar. Mesmo nos anos 1950, os cientistas aeroespaciais perceberam que os motores atuais – que queimam querosene ou hidrogênio e expelem chamas – são o equivalente a carros beberrões no mundo dos foguetes espaciais. Eles projetaram motores nucleares que usam reatores para aquecer hidrogênio líquido até chegar uma corrente de gás de movimento rápido. A Nasa tinha tais motores prontos, no caso de uma hipotética missão tripulada até Marte, em seguida aos pousos realizados na Lua.
Hoje, a agência espacial reviveu esse trabalho, começando com estudos sobre um combustível ideal para um reator espacial, com novos motores nucleares podendo ficar prontos até o final da década.
Quando às preocupações sobre radioatividade, os reatores não seriam ativados até que a espaçonave atingisse o espaço. ''O espaço é um lugar maravilhoso para o uso da energia nuclear, porque ele próprio já é radioativo’', disse Geoffrey Landis, cientista do Centro de Pesquisas Glenn da Nasa, em Ohio (e autor de livros de ficção científica).
Motores nucleares mais avançados poderiam usar reatores para gerar campos elétricos que acelerariam íons carregados para o impulso. Então, os motores de fusão – produzindo energia pela combinação de átomos de hidrogênio – poderiam finalmente ser poderosos o suficiente para permitir as viagens interestelares.
A Sociedade Interplanetária Britânica desenvolveu um conceito para uma espaçonave alimentada por fusão nos anos 1970, chamada Dédalo, que extrapolava a física e tecnologia conhecidas. O grupo de Obousy, o Icarus Interstellar, está revisitando o projeto Dédalo para verificar se 30 e poucos anos de novas tecnologias poderiam produzir uma espaçonave melhor.
A Dédalo fazia o Saturno 5, foguete que levou os astronautas até a Lua, parecer minúsculo. ''No entanto, não era maior do que um porta-aviões classe Nimtz’', disse Obousy. ''Nós temos a capacidade de criar coisas grandes. Apenas não temos a capacidade de lançar essas coisas grandes’'.
Benford defendeu outra abordagem, que remetia à era dos navios veleiros. Velas gigantes na espaçonave poderiam ser impulsionadas por fótons enviados da Terra via lasers ou antenas gigantes. ''Aqui está um caso em que conhecemos a física envolvida e a engenharia parece ser possível’', disse ele.
Por outro lado, ninguém ainda construiu um reator de fusão produtor de energia.
Alguns dos assuntos expostos no simpósio pareciam quase mundanos: Que tipo de luzes a espaçonave deveria ter? Como você empacota partes sobressalentes suficientes para uma viagem de 50 anos de duração quando não existe nenhuma loja no meio do caminho? Outras discussões ruminaram sobre questões teológicas e filosóficas. 'Jesus também morreu pelos Klingons?' era o titulo de uma.
''Visão sem execução é sonhar acordado’', disse Neyland em seus pontos introdutórios, parafraseando um provérbio japonês.
''E o que estamos tentando inspirar com o Estudo da Espaçonave de 100 Anos é aquele primeiro passo de estabelecer um padrão que seja alto o suficiente, com desafios difíceis o suficiente, que façam com que as pessoas realmente comecem a atacar alguns desses problemas realmente difíceis’', continuou.
Para Breeden, os debates com outros participantes confirmaram suas ideias e cálculos básicos, mas parece improvável que o arremesso usando-se de um asteroide seria suficiente por si só. Mesmo assim, a técnica poderia provar-se um suplemento útil e de bom custo-benefício para outros sistemas propulsores.
O estudo de um ano de US$ 1,1 milhão – US$ 1 milhão da Darpa, US$ 100 mil da Nasa – irá culminar com a premiação de um fundo de US$ 500 mil, a ser conferida à organização que carregará a tocha dos trabalhos futuros
A Darpa iria, então, deixar os negócios espaciais, assim evitando o interrogatório do Congresso durante as próximas audiências de verbas sobre por que a agência estaria gastando o dinheiro do contribuinte em sonhos de ficção científica.
''Eles querem que as pessoas pensem sobre o assunto e o propaguem muito sutilmente’', disse professor de física Gregory Benford, da Universidade da Califórnia, em Irvine, que também é autor de ficção científica (e irmão gêmeo de James Benford). ''Eles querem que tudo isso esteja fora da verba até o começo do ano que vem’'.
Talvez de maneira reveladora, nenhum alto funcionário da Nasa discursou no simpósio, exceto Pete Worden, diretor do Centro de Pesquisas Ames na Califórnia, a quem Neyland descreveu como um ''conspirador conjunto’' e que é frequentemente considerado um rebelde na agência espacial.
''Se nós tivermos sorte, isso irá mudar a Nasa’', disse o escritor de ficção científica Benford, sobre a pesquisa da espaçonave.
Alguns palestrantes disseram acreditar que a meta principal para o próximo século deveria ser a colonização do Sistema Solar, começando por Marte.
Obousy, um deles, mostrou suas preferências por meio de um par de versos:
Em direção às estrelas!
Apenas covardes focam apenas em Marte
Fonte: http://ultimosegundo.ig.com.br/ciencia/rumo-as-estrelas-so-que-sem-motor/n1597354270165.html
Leis da Física variam ao longo do Universo
Espaço
Um dos mais queridos princípios da ciência - a constância das leis da física - pode não ser verdadeiro.
O estudo concluiu que uma das quatro forças fundamentais, o eletromagnetismo, parece variar de um lugar para outro.
O eletromagnetismo é medido por meio da chamada constante de estrutura fina, simbolizada pela letra grega alfa (α).
Esta constante é uma combinação de três outras constantes: a velocidade da luz (c), a carga do elétron (e) e a constante de Planck (h), onde α = e2/hc.
O resultado é cerca de 1/137, um número sem dimensão, o que a torna ainda mais fundamental do que as outras constantes, como a gravidade, a velocidade da luz ou a carga do elétron.
Em termos gerais, a constante alfa mede a magnitude da força eletromagnética - em outras palavras, a intensidade das interações entre a luz e a matéria.
Constantes inconstantes
Agora, John Webb e seus colegas das universidades de Nova Gales do Sul e Swinburne, na Austrália, e Cambridge, no Reino Unido, mediram o valor de alfa em cerca de 300 galáxias distantes, usando dados do Very Large Telescope do ESO, no Chile.
"Os resultados nos deixaram estupefatos," disse o professor Webb. "Em uma direção, a partir de nossa localização no Universo, a constante alfa vai ficando gradualmente mais fraca, e gradualmente mais forte na direção oposta."
Isso mostra uma espécie de "eixo preferencial" para o Universo - chamado pelos cientistas de "dipolo australiano" - de certa forma coincidente com medições anteriores que deram origem à teoria do chamado Fluxo Escuro, que indica que uma parte da matéria do nosso Universo estaria vazando por uma espécie de "ralo cósmico", sugada por alguma estrutura de um outro universo.
Constante de estrutura fina
Um estudo publicado na mais conceituada revista de física, a Physical Review Letters, afirma que as leis da natureza podem variar ao longo do Universo.
O estudo concluiu que uma das quatro forças fundamentais, o eletromagnetismo, parece variar de um lugar para outro.
O eletromagnetismo é medido por meio da chamada constante de estrutura fina, simbolizada pela letra grega alfa (α).
Esta constante é uma combinação de três outras constantes: a velocidade da luz (c), a carga do elétron (e) e a constante de Planck (h), onde α = e2/hc.
O resultado é cerca de 1/137, um número sem dimensão, o que a torna ainda mais fundamental do que as outras constantes, como a gravidade, a velocidade da luz ou a carga do elétron.
Em termos gerais, a constante alfa mede a magnitude da força eletromagnética - em outras palavras, a intensidade das interações entre a luz e a matéria.
Constantes inconstantes
Agora, John Webb e seus colegas das universidades de Nova Gales do Sul e Swinburne, na Austrália, e Cambridge, no Reino Unido, mediram o valor de alfa em cerca de 300 galáxias distantes, usando dados do Very Large Telescope do ESO, no Chile.
"Os resultados nos deixaram estupefatos," disse o professor Webb. "Em uma direção, a partir de nossa localização no Universo, a constante alfa vai ficando gradualmente mais fraca, e gradualmente mais forte na direção oposta."
Isso mostra uma espécie de "eixo preferencial" para o Universo - chamado pelos cientistas de "dipolo australiano" - de certa forma coincidente com medições anteriores que deram origem à teoria do chamado Fluxo Escuro, que indica que uma parte da matéria do nosso Universo estaria vazando por uma espécie de "ralo cósmico", sugada por alguma estrutura de um outro universo.
A descoberta, se confirmada, terá profundas implicações para o nosso entendimento do espaço e do tempo, e viola um dos princípios fundamentais da teoria da Relatividade Geral de Einstein," completou Webb, referindo-se ao princípio da equivalência de Einstein.
O resultado não é uma completa surpresa: as conclusões haviam sido anunciadas pela equipe em 2010.
Naquele momento, porém, o estudo ainda não havia sido publicado em uma revista revisada pelos pares - tanta demora para que outros cientistas analisassem o estudo é uma indicação bem clara do impacto que os resultados podem ter sobre todo o edifício científico estabelecido.
O Dr. Webb e seus colegas vêm trabalhando no assunto há muito mais tempo. Seus primeiros resultados vieram em 1999, mas eram baseados em um número menor de galáxias, de uma região mais restrita do céu.
Universo infinito ou múltiplos universos
Uma das implicações dessas "constantes inconstantes" é que o Universo pode ser infinito.
"Essas violações são de fato esperadas por algumas 'teorias de tudo', que tentam unificar todas as forças fundamentais. Uma alteração suave e contínua de alfa pode implicar que o Universo seja muito maior do que a parte dele que conseguimos observar, possivelmente infinito," propõe o Dr. Victor Flambaum, coautor do estudo.
Outra possibilidade derivada dessa variação na constante alfa é a existência de multiversos, múltiplos universos que podem, de alguma forma, "tocar-se" uns aos outros.
Teoria dos Multiversos: dados não confirmam e nem descartam
O professor Webb afirma que esta descoberta também pode dar uma resposta muito natural para uma questão que tem intrigado os cientistas há décadas: por que as leis da física parecem tão bem ajustadas para a existência da vida?
"A resposta pode ser que outras regiões do Universo não são tão favoráveis à vida como nós a conhecemos, e que as leis da física que medimos em nossa parte do Universo são meramente 'regras locais'. Neste caso, não seria uma surpresa encontrar a vida aqui," afirma o cientista.
Isto porque basta uma pequena variação nas leis da física para que, por exemplo, as estrelas deixem de produzir carbono, o elemento básico da "vida como a conhecemos".
O Dr. Webb e seus colegas vêm trabalhando no assunto há muito mais tempo. Seus primeiros resultados vieram em 1999, mas eram baseados em um número menor de galáxias, de uma região mais restrita do céu.
Universo infinito ou múltiplos universos
Uma das implicações dessas "constantes inconstantes" é que o Universo pode ser infinito.
"Essas violações são de fato esperadas por algumas 'teorias de tudo', que tentam unificar todas as forças fundamentais. Uma alteração suave e contínua de alfa pode implicar que o Universo seja muito maior do que a parte dele que conseguimos observar, possivelmente infinito," propõe o Dr. Victor Flambaum, coautor do estudo.
Outra possibilidade derivada dessa variação na constante alfa é a existência de multiversos, múltiplos universos que podem, de alguma forma, "tocar-se" uns aos outros.
Teoria dos Multiversos: dados não confirmam e nem descartam
O professor Webb afirma que esta descoberta também pode dar uma resposta muito natural para uma questão que tem intrigado os cientistas há décadas: por que as leis da física parecem tão bem ajustadas para a existência da vida?
"A resposta pode ser que outras regiões do Universo não são tão favoráveis à vida como nós a conhecemos, e que as leis da física que medimos em nossa parte do Universo são meramente 'regras locais'. Neste caso, não seria uma surpresa encontrar a vida aqui," afirma o cientista.
Isto porque basta uma pequena variação nas leis da física para que, por exemplo, as estrelas deixem de produzir carbono, o elemento básico da "vida como a conhecemos".
Como os cientistas chegaram a esta conclusão
Para chegar às suas conclusões, os cientistas usaram a luz de quasares muito distantes como faróis.
O espectro da luz que chega até nós, vinda de cada quasar, traz consigo sinais dos átomos nas nuvens de gás que a luz atravessou em seu caminho até a Terra.
comparadas com as mesmas assinaturas encontradas em laboratório aqui na Terra para ver se a constante alfa é mesmo constante.
Os resultados mostraram que não, que alfa varia ao longo de um eixo que parece atravessar o Universo, assim como um eixo magnético atravessa a Terra.
Novas teorias
Quanto ao espanto causado pelos resultados, o Dr. Webb afirma que as chamadas leis da física não estão "escritas na pedra".
"O que nós entendemos por 'leis da natureza'? A frase evoca um conjunto de regras divinas e imutáveis que transcenderiam o 'aqui e agora' para aplicar-se em todos os lugares e em todos os tempos no Universo. A realidade não é tão grandiosa.
"Quando nos referimos às leis da natureza, estamos na verdade falando de um determinado conjunto de ideias que são marcantes na sua simplicidade, que parecem ser universais e que têm sido verificadas por experimentos.
"Portanto, somos nós, seres humanos, que declaramos que uma teoria científica é uma lei da natureza. E os seres humanos frequentemente estão errados," escreveu ele em um artigo na revista Physics World.
Reação muito semelhante teve um dos pesquisadores responsáveis pelo recente experimento que teria identificado neutrinos viajando a velocidades superiores à da luz, outro achado que contraria as atuais leis da física.
Ao falar sobre a controvérsia e as inúmeras tentativas de dar outras explicações para os resultados, o Dr. Sergio Bertolucci afirmou que "um experimentalista tem que provar que uma medição está certa ou está errada. Se você interpretar cada nova medição com as velhas teorias, você nunca terá uma nova teoria".
E como os cientistas poderão ter certeza de que é hora de investir em uma nova teoria?
Se há variação em uma das constantes, é de se esperar que as outras constantes fundamentais também variem.
Tudo o que eles terão que fazer será projetar experimentos que possam verificar variações na gravidade, na carga do elétron ou na velocidade da luz.
Constantes fundamentais da natureza estão prestes a mudar
Bibliografia: Indications of a Spatial Variation of the Fine Structure Constant
J. K. Webb, J. A. King, M. T. Murphy, V. V. Flambaum, R. F. Carswell, M. B. Bainbridge
Physical Review Letters
31 October 2011
Vol.: 107, 191101
DOI: 10.1103/PhysRevLett.107.191101
Para chegar às suas conclusões, os cientistas usaram a luz de quasares muito distantes como faróis.
O espectro da luz que chega até nós, vinda de cada quasar, traz consigo sinais dos átomos nas nuvens de gás que a luz atravessou em seu caminho até a Terra.
comparadas com as mesmas assinaturas encontradas em laboratório aqui na Terra para ver se a constante alfa é mesmo constante.
Os resultados mostraram que não, que alfa varia ao longo de um eixo que parece atravessar o Universo, assim como um eixo magnético atravessa a Terra.
Novas teorias
Quanto ao espanto causado pelos resultados, o Dr. Webb afirma que as chamadas leis da física não estão "escritas na pedra".
"O que nós entendemos por 'leis da natureza'? A frase evoca um conjunto de regras divinas e imutáveis que transcenderiam o 'aqui e agora' para aplicar-se em todos os lugares e em todos os tempos no Universo. A realidade não é tão grandiosa.
"Quando nos referimos às leis da natureza, estamos na verdade falando de um determinado conjunto de ideias que são marcantes na sua simplicidade, que parecem ser universais e que têm sido verificadas por experimentos.
"Portanto, somos nós, seres humanos, que declaramos que uma teoria científica é uma lei da natureza. E os seres humanos frequentemente estão errados," escreveu ele em um artigo na revista Physics World.
Reação muito semelhante teve um dos pesquisadores responsáveis pelo recente experimento que teria identificado neutrinos viajando a velocidades superiores à da luz, outro achado que contraria as atuais leis da física.
Ao falar sobre a controvérsia e as inúmeras tentativas de dar outras explicações para os resultados, o Dr. Sergio Bertolucci afirmou que "um experimentalista tem que provar que uma medição está certa ou está errada. Se você interpretar cada nova medição com as velhas teorias, você nunca terá uma nova teoria".
E como os cientistas poderão ter certeza de que é hora de investir em uma nova teoria?
Se há variação em uma das constantes, é de se esperar que as outras constantes fundamentais também variem.
Tudo o que eles terão que fazer será projetar experimentos que possam verificar variações na gravidade, na carga do elétron ou na velocidade da luz.
Constantes fundamentais da natureza estão prestes a mudar
Bibliografia: Indications of a Spatial Variation of the Fine Structure Constant
J. K. Webb, J. A. King, M. T. Murphy, V. V. Flambaum, R. F. Carswell, M. B. Bainbridge
Physical Review Letters
31 October 2011
Vol.: 107, 191101
DOI: 10.1103/PhysRevLett.107.191101
sexta-feira, 4 de novembro de 2011
Irão ameaça Israel e EUA com “consequências apocalípticas"
O regime de Teerão respondeu hoje às notícias de que os Estados Unidos e Israel estão a ponderar um possível ataque contra as instalações nucleares do Irão com o aviso de que aqueles dois países enfrentarão nesse caso “consequências de dimensões apocalípticas”.
Na mesma linha retórica, o subchefe de estado-maior, Mohammad Hejazi, responsável pelo sector militar de Logística e Investigação Industrial, garantiu que o Exército iraniano “está mais forte do que no passado e os estrangeiros bem conscientes de que qualquer aventura ou acção ilegal receberia uma resposta devastadora”.
“A República Islâmica pode defender-se a si própria e aos seus interesses nacionais, pelo que essas ameaças da arrogância mundial não são credíveis nem têm qualquer valor para nós”, prosseguiu, citado pela agência noticiosa Fars.
Por seu lado a agência Mehr sugere que os supostos planos norte-americanos e israelitas são, não tanto o prenúncio de uma acção militar contra o Irão, mas uma forma de aumentar a pressão sobre os outros países e organizações na comunidade internacional para reforçarem as sanções contra o regime de Teerão.
Fonte: http://www.publico.pt/Mundo/irao-ameaca-israel-e-estados-unidos-com-consequencias-apocalipticas-1519533
Cientistas medem pela 1ª vez a velocidade da mudança climática
MADRI - Um grupo de cientistas internacionais mediu em 37 quilômetros por década no Hemisfério Norte e 17 no Sul o deslocamento médio dos regimes térmicos a latitudes mais altas em decorrência da mudança climática.
A análise, publicada na revista Science, quantifica de forma global a velocidade da mudança climática e estabelece o avanço dos regimes térmicos em uma velocidade média de 27 quilômetros por década.
O pesquisador Carlos Duarte, do Conselho Superior de Pesquisas Científicas (CSIC) da Espanha, um dos integrantes do estudo, explicou que a análise fixa a velocidade das "variações na distribuição de espécies" devidas à mudança climática.
"Conhecer a velocidade da mudança climática e não a taxa de aumento da temperatura é o relevante para prever as mudanças na biodiversidade", destacou Duarte. Na opinião do especialista, esta é a conclusão mais relevante do estudo.
Entre as mudanças descobertas, os cientistas cronometraram a precocidade da primavera, cujo "sinal térmico" se adianta entre um e dois dias a cada dez anos.
Da mesma forma que no Hemisfério Norte a mudança climática desloca os regimes climáticos e suas espécies rumo a latitudes mais setentrionais, o mesmo fenômeno ocorre no Hemisfério Sul, distanciando-se da linha do equador rumo ao Polo Sul, mas a uma velocidade menor, de 17 quilômetros por década.
Após o deslocamento dos regimes climáticos já existentes rumo ao norte e ao sul, Duarte destaca o surgimento de outros novos, mais calorosos, no paralelo 0 (equador), onde não se sabe se "os organismos podem tolerá-los".
Conforme se analisou no período de estudo, de 50 anos, os ecossistemas terrestres se aqueceram o triplo que os marítimos, obrigando as espécies a alterar seu ciclo reprodutivo ou a se deslocar para sobreviver.
"Quando a velocidade da mudança climática supera a velocidade de dispersão dos organismos, ou quando existem barreiras que impeçam essa dispersão, as espécies só podem se adaptar ou se extinguir", explica Duarte em comunicado.
O artigo equipara a gravidade do impacto do aquecimento global sobre a biodiversidade marinha e terrestre em latitudes similares.
A falta de continuidade dos oceanos impede que as espécies possam migrar rumo ao norte, como é o caso do Mar Mediterrâneo, fechado pela placa euroasiática, explica a pesquisadora Johanna Holding, do Instituto Mediterrâneo de Estudos Avançados, indica o CSIC em nota.
No caso do Ártico, "as espécies não têm lugares mais frios para onde migrar", assinala a coautora do estudo. Quando as espécies do Ártico percebem que não existem lugares mais frios para onde ir, o velocímetro da mudança climática no equador se acelera até superar os 200 quilômetros por década.
As conclusões da análise ressaltam que as zonas de maior biodiversidade são também as mais afetadas.
Fonte: Estadão.com.br
Nasa registra mancha solar gigante
Cientistas se referem a região do Sol como 'monstro benevolente'.
Sol tem tido muitas tempestades recentemente
Sol tem tido muitas tempestades recentemente
A imagem mostra uma mancha solar gigante, registrada nesta quinta (3). A região do Sol onde a mancha foi encontrada está sendo chamada de 'monstro benevolente' pelos cientistas. Depois de anos relativamente calmo, o Sol tem tido muitas tempestades recentemente (Foto: AP Photo/Nasa)
Fonte: http://t.co/bnN7tLly
LHC fará colisões pesadas em busca do Big Bang
Esta é uma imagem de uma colisão real de núcleos de chumbo, captada pelo experimento ALICE. Os traços representam o caminho das partículas, os "cacos" que voam para todos os lados depois da colisão.[Imagem: Cern]
Colisões de prótons
O LHC Large Hadron Collider terminou sua tarefa de coletar dados em busca do cada vez mais elusivo Bóson de Higgs.
Mas descobrir o que dá massa à matéria é apenas um dos interesses do maior experimento científico do mundo.
Agora ele vai se voltar para o início do Universo, recriando as condições que se acredita estivessem presentes logo após o Big Bang.
Para procurar o Bóson de Higgs, o LHC colidiu pares de prótons, até produzir 6 femtobarns inversos de dados, cerca de três vezes mais do que as caçadas anteriores.
Colisões de íons de chumbo
Nesta nova etapa, em busca do início do Universo, o LHC vai começar a colidir íons de chumbo.
Essas colisões produzem aglomerados de matéria muito densa e quente, recriando as condições nos primeiros momentos após o Big Bang.
Fonte: inovação tecnológica
Colisões de prótons
O LHC Large Hadron Collider terminou sua tarefa de coletar dados em busca do cada vez mais elusivo Bóson de Higgs.
Mas descobrir o que dá massa à matéria é apenas um dos interesses do maior experimento científico do mundo.
Agora ele vai se voltar para o início do Universo, recriando as condições que se acredita estivessem presentes logo após o Big Bang.
Para procurar o Bóson de Higgs, o LHC colidiu pares de prótons, até produzir 6 femtobarns inversos de dados, cerca de três vezes mais do que as caçadas anteriores.
Colisões de íons de chumbo
Nesta nova etapa, em busca do início do Universo, o LHC vai começar a colidir íons de chumbo.
Essas colisões produzem aglomerados de matéria muito densa e quente, recriando as condições nos primeiros momentos após o Big Bang.
Fonte: inovação tecnológica
Já estamos prontos para descartar a teoria do Big Bang?
Mais importante do que a teoria em si é a demonstração de que o Sol pode ser usado como laboratório para teorias cosmológicas.[Imagem: NASA]
Um grupo de físicos portugueses está propondo que o Sol seja usado para testar algumas teorias alternativas à Teoria da Relatividade Geral de Einstein.
Jordi Casanellas e seus colegas da Universidade Técnica de Lisboa afirmam que uma teoria proposta há mais de um século por Arthur Eddington não foi totalmente descartada pelas observações recentes dos neutrinos solares e das ondas acústicas solares.
E, segundo eles, uma variante da teoria de Eddington pode ajudar a resolver algumas das deficiências das teorias atuais.
Problemas da Teoria da Relatividade
A Teoria da Relatividade Geral, que descreve a gravidade como a curvatura do espaço-tempo por corpos celestes de grande massa, tem passado por todos os testes aos quais tem sido submetida ao longo dos anos.
Mas isto não significa que ela não tenha problemas.
Além da bem conhecida dificuldade de unificação com a mecânica quântica e das ainda pendentes explicações para a matéria e a energia escuras, há o problema bem mais sério das singularidades, onde as leis da física simplesmente se esfacelam.
Buracos negros e Big Bang
Em 2010, Máximo Bañados (Universidade Católica do Chile) e Pedro Ferreira (Universidade de Oxford) propuseram uma variante da teoria de Eddington que adiciona um termo gravitacional repulsivo para a teoria da relatividade.
Mas o que parece ser a simples adição de mais um membro a uma equação tem um efeito devastador sobre o entendimento mais geral do cosmo.
Esse termo gravitacional repulsivo não apenas elimina a necessidade das singularidades - ele descarta a formação dos buracos negros e a ideia de que o Universo teria surgido de um Big Bang.
Sol como laboratório
Quando tenta interpretar um campo gravitacional em um vácuo, essa teoria inspirada em Eddington é equivalente à teoria da relatividade. Mas ela prevê efeitos diferentes para a gravidade agindo no interior da matéria.
O lugar ideal para testar essas diferenças seria o interior de estrelas de nêutrons.
Embora se acredite que estrelas de nêutrons possam acordar o vácuo quântico, não se sabe o suficiente a respeito delas para comparar as duas teorias. Por exemplo, recentemente foi encontrada uma estrela de nêutrons cuja existência os astrônomos acreditavam ser impossível.
Entra em cena então a proposta de Casanellas e seus colegas portugueses: usar o Sol.
Mesmo sendo uma fonte de gravidade muito menos extrema do que uma estrela de nêutrons, o funcionamento do interior do Sol já é razoavelmente bem descrito pelos modelos solares.
O grupo de Casanellas calculou que, mesmo em sua forma newtoniana, não-relativística, a teoria derivada de Eddington prevê diferenças quantificáveis nas emissões solares em comparação com a teoria gravitacional padrão, desenvolvida por Einstein.
Constante gravitacional na matéria
O termo gravitacional repulsivo na teoria de Bañados e Ferreira, afirmam eles, seria equivalente a dar um valor diferente para a constante gravitacional no interior da matéria.
E intensidades diferentes da gravidade no interior do Sol devem resultar em diferenças em sua temperatura interna, uma vez que se assume que o Sol está em equilíbrio hidrostático - a pressão para dentro de sua massa é equilibrada pela pressão para fora gerada pelas reações de fusão nuclear em seu interior.
Uma temperatura mais elevada implica uma maior taxa de fusão nuclear, o que, por sua vez, implica em uma maior taxa de emissão de neutrinos solares, algo diretamente mensurável.
E não apenas isso: uma força da gravidade maior no interior do Sol implica em uma variação na sua distribuição de densidade, o que deve modificar a propagação das ondas acústicas em seu interior, o que pode ser medido com as técnicas da heliossismologia.
Todos esses dados já estão disponíveis. Contudo, eles colocam sérias restrições à nova teoria, impondo limites muito estreitos para seus valores.
Mas não a descartam, afirmam os pesquisadores, salientando que os dados apenas colocam limites para a nova teoria.
Um teste mais rigoroso exigiria melhorias nos modelos solares, incluindo a abundância de hélio na superfície do Sol, ou medições mais precisas dos fluxos de neutrinos.
Para apenas fazer o teste já é por si um enorme avanço, demonstrando que nossa estrela - tão pequena em termos cósmicos - pode ser usada para fazer experimentos de teorias com potencial de explicação em termos universais.
Esfera no buraco
Paolo Pani, um dos membros da equipe, sugere um teste alternativo, aqui na Terra mesmo.
Para ele, tanto a teoria derivada de Eddington, quanto outras teorias alternativas da gravidade, poderiam ser testadas medindo a atração gravitacional entre uma esfera de metal inserida em um buraco no solo e a massa da Terra ao seu redor.
A ideia é fazer um buraco onde coubesse apenas a esfera, e nada mais, com uma precisão gigantesca, de forma que a medição mostrasse apenas a intensidade da gravidade no interior da matéria, e não no vazio ao seu redor - no caso, no ar.
Entretanto, o próprio Pani concorda que projetar esse experimento apresenta desafios consideráveis.
Não poderia ser diferente para alguém que tenha a pretensão de desbancar uma das teorias de maior sucesso até hoje.
Fonte: inovaçao tecnológica
Tripulantes deixam simulação de missão à Marte depois de 520 dias
Seis homens que ficaram isolados do mundo por mais de 500 dias para simular uma missão para Marte voltaram à vida normal nesta sexta-feira.
Na verdade, eles ficaram trancados em um galpão nos arredores de Moscou, vivendo em isolamento total durante 520 dias.
Eles fingiam percorrer milhões de quilômetros pelo espaço e o objetivo era verificar se o corpo e a mente destes homens aguentaria uma jornada tão longa.
"Felizmente não ocorreram brigas entre os tripulantes e, mesmo depois de um ano, ainda queremos participar da missão", disse Romain Charles, um dos participantes do projeto Marte 500.
Em alguns momentos eles só conseguiam se comunicar com o mundo exterior com um atraso de 20 minutos, como em uma missão real para Marte e houve até simulações de caminhadas pelo planeta vermelho.
A conclusão da missão mostrou que os astronautas até poderiam aguentar um período tão longo em um espaço fechado.
Mas, os idealizadores da experiência admitem que, sem os perigos de uma missão espacial real, a Marte 500 foi uma experiência menos estressante.
Fonte: http://t.co/c9dcH4ac
Desde junho de 2010 a rotina dos seis participantes do projeto Marte 500 simulou a dos tripulantes de uma espaçonave real.
Eles fingiam percorrer milhões de quilômetros pelo espaço e o objetivo era verificar se o corpo e a mente destes homens aguentaria uma jornada tão longa.
"Felizmente não ocorreram brigas entre os tripulantes e, mesmo depois de um ano, ainda queremos participar da missão", disse Romain Charles, um dos participantes do projeto Marte 500.
Em alguns momentos eles só conseguiam se comunicar com o mundo exterior com um atraso de 20 minutos, como em uma missão real para Marte e houve até simulações de caminhadas pelo planeta vermelho.
A conclusão da missão mostrou que os astronautas até poderiam aguentar um período tão longo em um espaço fechado.
Mas, os idealizadores da experiência admitem que, sem os perigos de uma missão espacial real, a Marte 500 foi uma experiência menos estressante.
Fonte: http://t.co/c9dcH4ac
Assinar:
Postagens (Atom)