12/11/2011 06h26 - Atualizado em 12/11/2011 08h59

Da película ao chip eletrônico: a formação da imagem fotográfica

Tecnologia acelerou o processo, permitindo agilidade e versatilidade

O processo de armazenamento e registro da imagem mudou completamente desde a criação da câmera digital. A captura da imagem passou da película ao chip eletrônico e, sua revelação do processo químico para a impressão digital. Professor de fotojornalismo do Departamento de Comunicação Social da PUC-Rio, Weiler Finamore Filho, explica que a diferença na formação da imagem digital será de acordo com o meio em que ela é registrada, já que a incidência da luz é a mesma.

Weiler é professor de fotojornalismo da PUC-Rio (Foto: Camille Valbusa)Weiler é professor de fotojornalismo da PUC-Rio
(Foto: Camille Valbusa)

Na câmera digital, a imagem é formada a partir de um sensor do tipo CCD, dispositivo responsável pelo registro da imagem. Esse dispositivo consiste em um chip eletrônico composto por milhões de nano células sensíveis à intensidade da luz, que incide no momento em que batemos a foto. Finamore explica que a partir disso, cada célula através do software da máquina, gera um identificador numérico (digital) que salva eletronicamente as variações de luz capturadas. Cada pixel será responsável por reproduzir essas nuances e, o conjunto de pixels forma a imagem. “Os megapixels são na verdade o conjunto de todas essas nanocélulas organizadas e construídas no sensor das máquinas”, diz Finamore.

Outra novidade no digital é o ISO, ou a conhecida ASA, que é a sensibilidade do filme usado em câmeras analógicas. De acordo com a luminosidade do ambiente que o fotógrafo vai fotografar ele coloca um filme mais sensível (ISO mais alto) ou um que precise de menos luz (ISO baixo). Finamore ressalta que o ISO no digital se transforma em um terceiro recurso importante, além do diafragma e velocidade do obturador. “Você pode controlar o ISO da máquina a hora que quiser, na película era fixo por filme”, pontua o professor.

O tipo de lente, quantidade de megapixels, sensor e a própria câmera vão definir a qualidade da fotografia. Finamore ressalta que ainda há o debate entre fotógrafos quanto a qualidade da imagem no digital. O professor ressalta que na câmera digital, a luz e todas suas nuances sofrem um processamento eletrônico antes da formação da imagem. “A foto dependerá de cada tecnologia ou qualidade da câmera. Já no analógico, o processo de formação é químico e mecânico”, defende o professor, um amante da fotografia analógica que não deixou de usar sua Nikon de 1968.

Rudy Trindade em cobertura de jogo  (Foto: Divulgação/ Carlos Moraes)Rudy Trindade em cobertura de jogo
(Foto: Divulgação/ Carlos Moraes)

Para o fotógrafo Rudy Trindade, que trabalha diariamente com fotografia, o digital lhe oferece velocidade, facilidade de ajustes e garantia de fazer a foto certa. “Permite refazer imediatamente a foto se você não gostou do resultado”, afirma Rudy. O fotógrafo diz que não tem opção, pois o mercado jornalístico não comporta espera e, a premência de resultados é grande. “Por tudo que o mundo globalizado precisa é raro utilizar filmes”, declara.

Finamore concorda que a fotografia digital facilita em todos os sentidos no que diz respeito ao fotojornalismo. “Versatilidade, agilidade e praticidade são filhas destes tempos modernos”, brinca. Além disso, o baixo custo de manutenção do digital é outro atrativo. Rudy diz que o digital permite que mais pessoas tenham acesso a fotografia, mas, para ele, a profissão não perde com isso. “O olhar e a técnica continuam sendo os fatores mais importantes”, declara.

O professor acredita que esse debate é um fator positivo, pois a fotografia sai sempre ganhando. “Se existe o melhor significa que analógico ou digital evoluíram”, diz. E mesmo que esse debate não exista, para Finamore, ainda temos então duas opções de tecnologia para fazer o que os fotógrafos fazem de melhor: “Capturar olhares distintos de uma mesma realidade em que todos estão inseridos”, declara.

Ipea mostra que consumo de energia da indústria é ineficiente

abril 20th, 2011 by Anna AlbuquerqueLeave a reply »

Alguns setores da indústria brasileira estão gastando cada vez mais energia para produzir a mesma quantidade de reais. A constatação foi feita pelo Instituto de Pesquisa Econômica Aplicada (Ipea) e consta do estudo Sustentabilidade Ambiental no Brasil: Biodiversidade, Economia e Bem-Estar Humano, divulgado hoje. O relatório mostra que a indústria nacional anda no sentido oposto ao desejável, que é perseguido pela maioria das indústrias mundiais: produzir mais sem aumentar o consumo de energia.

- Alguns ramos do setor industrial, em especial ferro-gusa, minerais não metálicos, aço, papel celulose e, em menor intensidade, indústria química, estão gastando mais energia para produzir a mesma quantidade de reais. Ou seja, a intensidade energética deles tem aumentado, quando no mundo todo ela tem sido reduzida – disse o técnico de Planejamento e Pesquisa do Ipea Gesmar Rosa Santos.

De acordo com o pesquisador, como o setor industrial demanda 35% da geração de energia nacional, “acabamos demandando mais energia, mais produção de energia e mais investimento em geração de energia, em vez de economizarmos e de termos uma maior eficiência energética”.

A solução, segundo ele, é investir em processos industriais, inovação tecnológica, substituição de equipamentos por modelos mais eficientes e, ainda, combinar isso com a oferta de produtos menos intensivos em energia. Esse tipo de preocupação, afirma Gesmar, já faz parte das grandes indústrias brasileiras mas, no geral, “a coisa ainda está no início” entre as demais. “AConfederação Nacional da Indústria (CNI) já se mostrou bastante interessada nessa questão, bem como a Eletrobras. Há também linhas do Banco Nacional de Desenvolvimento Econômico e Social (BNDES) disponibilizando recursos para que as empresas façam essa modernização, para que economizem energia”, disse o pesquisador.

Ipea mostra que consumo de energia da indústria é ineficiente

abril 20th, 2011 by Anna AlbuquerqueLeave a reply »

Alguns setores da indústria brasileira estão gastando cada vez mais energia para produzir a mesma quantidade de reais. A constatação foi feita pelo Instituto de Pesquisa Econômica Aplicada (Ipea) e consta do estudo Sustentabilidade Ambiental no Brasil: Biodiversidade, Economia e Bem-Estar Humano, divulgado hoje. O relatório mostra que a indústria nacional anda no sentido oposto ao desejável, que é perseguido pela maioria das indústrias mundiais: produzir mais sem aumentar o consumo de energia.

- Alguns ramos do setor industrial, em especial ferro-gusa, minerais não metálicos, aço, papel celulose e, em menor intensidade, indústria química, estão gastando mais energia para produzir a mesma quantidade de reais. Ou seja, a intensidade energética deles tem aumentado, quando no mundo todo ela tem sido reduzida – disse o técnico de Planejamento e Pesquisa do Ipea Gesmar Rosa Santos.

De acordo com o pesquisador, como o setor industrial demanda 35% da geração de energia nacional, “acabamos demandando mais energia, mais produção de energia e mais investimento em geração de energia, em vez de economizarmos e de termos uma maior eficiência energética”.

A solução, segundo ele, é investir em processos industriais, inovação tecnológica, substituição de equipamentos por modelos mais eficientes e, ainda, combinar isso com a oferta de produtos menos intensivos em energia. Esse tipo de preocupação, afirma Gesmar, já faz parte das grandes indústrias brasileiras mas, no geral, “a coisa ainda está no início” entre as demais. “AConfederação Nacional da Indústria (CNI) já se mostrou bastante interessada nessa questão, bem como a Eletrobras. Há também linhas do Banco Nacional de Desenvolvimento Econômico e Social (BNDES) disponibilizando recursos para que as empresas façam essa modernização, para que economizem energia”, disse o pesquisador.

Inventário Nacional das Emissões Atmosféricas por Veículos Automotores Rodoviários

abril 15th, 2011 by Anna AlbuquerqueLeave a reply »

Pesquisa abrange as emissões entre 1980 e 2009, fazendo previsões para o período entre 2010 e 2020

O IEMA (Instituto de Energia e Meio Ambiente) apresentou o 1º Inventário Nacional das Emissões Atmosféricas por Veículos Automotores Rodoviários, pesquisa realizada por dois anos sobre as emissões veiculares no Brasil entre 1980 e 2009 e com projeções para o período entre 2010 e 2020.

Inventário mostra com gráficos e tabelas as emissões de gases poluentes pelos veículos do país.

O objetivo da pesquisa é subsidiar a atuação do poder público e da própria sociedade no planejamento, implantação e acompanhamento de políticas voltadas à melhoria de qualidade ambiental e atenuar as mudanças climáticas.

Segundo a pesquisa, os grandes índices de poluição são causados principalmente pelo aumento expressivo da motorização individual e o transporte de cargas. Assim, seria necessário adotar novas políticas de controle.

A metodologia utilizada para a contagem de energia leva em consideração o histórico de venda de veículos novos, os combustíveis utilizados e a intensidade de uso, entre outros fatores.

Os resultados da pesquisa indicam que até 2020 ainda haverá um crescimento na frota, com uma mudanças do combustível utilizado – carros movidos à gasolina são responsáveis por 71% das emissões de CO 2009, enquanto o etanol foi responsável por 18%. Em 2020, 47% da emissão seria de carros movidos à gasolina e 33% dos movidos à etanol. Outros gases poluentes estudados na pesquisa são os óxidos de nitrogênio, de aldeídos, de hidrocarbonetos não-metano, de metano, de dióxido decarbono e de material particulado.

Para mais informações, visite o site www.energiaeambiente.org.br

Fonte: Atitude Sustentável

Inventário Nacional das Emissões Atmosféricas por Veículos Automotores Rodoviários

abril 15th, 2011 by Anna AlbuquerqueLeave a reply »

Pesquisa abrange as emissões entre 1980 e 2009, fazendo previsões para o período entre 2010 e 2020

O IEMA (Instituto de Energia e Meio Ambiente) apresentou o 1º Inventário Nacional das Emissões Atmosféricas por Veículos Automotores Rodoviários, pesquisa realizada por dois anos sobre as emissões veiculares no Brasil entre 1980 e 2009 e com projeções para o período entre 2010 e 2020.

Inventário mostra com gráficos e tabelas as emissões de gases poluentes pelos veículos do país.

O objetivo da pesquisa é subsidiar a atuação do poder público e da própria sociedade no planejamento, implantação e acompanhamento de políticas voltadas à melhoria de qualidade ambiental e atenuar as mudanças climáticas.

Segundo a pesquisa, os grandes índices de poluição são causados principalmente pelo aumento expressivo da motorização individual e o transporte de cargas. Assim, seria necessário adotar novas políticas de controle.

A metodologia utilizada para a contagem de energia leva em consideração o histórico de venda de veículos novos, os combustíveis utilizados e a intensidade de uso, entre outros fatores.

Os resultados da pesquisa indicam que até 2020 ainda haverá um crescimento na frota, com uma mudanças do combustível utilizado – carros movidos à gasolina são responsáveis por 71% das emissões de CO 2009, enquanto o etanol foi responsável por 18%. Em 2020, 47% da emissão seria de carros movidos à gasolina e 33% dos movidos à etanol. Outros gases poluentes estudados na pesquisa são os óxidos de nitrogênio, de aldeídos, de hidrocarbonetos não-metano, de metano, de dióxido decarbono e de material particulado.

Para mais informações, visite o site www.energiaeambiente.org.br

Fonte: Atitude Sustentável

Lei da ficha limpa está na pauta de julgamento

A+ A A- Versão para impressãoEnviar para amigo
Revista IDEIAS. Política, Economia & Cultura do Paraná

Por Débora Zampier, da Agência Brasil:

Brasília – O Supremo Tribunal Federal (STF) deve voltar a analisar nesta semana a legalidade da Lei da Ficha Limpa. As três ações que tratam do tema são os primeiros itens da pauta da próxima quarta-feira (9), mas ainda existe a chance de os processos serem retirados ou de não serem chamados para julgamento. A relatoria é do ministro Luiz Fux.

A ação principal é da Ordem dos Advogados do Brasil (OAB), que quer a legalidade de todos os pontos da lei, a fim de que ela seja aplicada sem restrições nas eleições municipais de 2012. O PPS também entrou com uma ação para garantir a legalidade da norma no ponto que trata sobre a retroatividade, para atingir casos anteriores à edição da lei.

O terceiro processo sobre o tema, no entanto, pede que o STF declare inconstitucional uma regra da Lei da Ficha Limpa que prevê a inelegibilidade de quem foi excluído do exercício da profissão por decisão do órgão profissional competente devido a uma infração ético-profissional. Essa ação é da Confederação Nacional das Profissões Liberais (CNPL).

A OAB quer que os ministros do Supremo analisem todos os pontos da Lei da Ficha Limpa, para que os julgamentos não se limitem ao caso de cada político. Além da retroatividade da lei, outro ponto controverso é o princípio de presunção de inocência, ou seja, se a condenação por crimes em segunda instância é suficiente para tirar um político da disputa eleitoral.

Em entrevista recente, Luiz Fux disse que vai analisar todas as questões sobre o caso e que as eleições do próximo ano ocorrerão com regras claras sobre o assunto. “Eu vou julgar todas as questões, não vai ficar nenhuma dúvida. Não vai ficar pedra sobre pedra. As eleições vão se realizar com pleno esclarecimento da população sobre o que se pode ou não fazer, quem pode se candidatar e quem não pode”.

A Lei da Ficha Limpa, projeto de iniciativa popular, entrou em vigor em junho do ano passado, depois de conseguir o apoio de mais de 2 milhões de brasileiros. Sua legalidade foi atestada pela Justiça Eleitoral, e a norma acabou barrando diversos políticos nas eleições de 2010. A validade da lei começou a ser analisada no STF no ano passado, mas foi só em 2011 que a Corte decidiu que a norma deveria esperar um ano para produzir efeitos porque alterava o processo eleitoral. Vários políticos que tiveram o registro negado foram liberados e puderam tomar posse.

Edição: Graça Adjuto

Como jogar fora… remédio vencido

(Foto: Tom Varco)

Todo mundo tem (ou já teve) remédio vencido em casa. Ele geralmente fica em caixinhas no fundo do armário – e só notamos sua existência na hora de fazer aquela faxina no guarda-roupa. Mas e aí, o que fazer com os medicamentos vencidos? Já me fiz esta pergunta mais de uma vez. Alguns colegas também já tiveram a mesma dúvida. Decidimos então esclarecer a questão coletiva em mais uma edição do “Como jogar fora…”, uma série informativa que, toda segunda-feira, traz ao Blog do Planeta explicações sobre o descarte de diferentes materiais. Desta vez, perguntamos à indústria farmacêutica.

Há dois locais adequados para jogar remédio vendido, segundo Jair Calixto, gerente de boas práticas do Sindicato da Indústria de Produtos Farmacêuticos no Estado de São Paulo (Sindusfarma). O primeiro é o vaso sanitário. Neste caso, o ideal é triturar o remédio antes de despejá-lo na privada. O segundo é o lixo comum mesmo. Basta jogar os comprimidos como eles saem da embalagem.

Mas o procedimento é seguro? Quando jogado no vaso, o remédio libera suas propriedades químicas na água. Isso não contamina a rede de esgoto? Estamos bebendo água infestada de hormônios de pílulas anticoncepcionais ou de substâncias usadas em medicamentos controlados com tarja preta? E no solo dos aterros sanitários, qual o impacto desses produtos? Eles chegam até o lençol freático? “O volume descartado pelo consumidor é muito pequeno. O impacto não é significativo”, diz Calixto. “Além disso, o efeito farmacológico dura até a data de validade. Se o produto vai para o esgoto ou para a terra, irá se degradar”.

Quem define onde jogar medicamentos vencidos não é o Sindusfarma. A responsável pela norma que trata do descarte dos remédios é a Agência Nacional de Vigilância Sanitária (Anvisa). É ela quem diz que esses produtos devem ir para o lixo comum ou para o vaso sanitário. A despeito de haver uma regulamentação, ainda há muitas dúvidas sobre os efeitos de jogar esses medicamentos sem restrições. O próprio Calixto concorda. Ele diz que não existe sequer uma tecnologia especializada para medir o impacto dos resíduos químicos na natureza. “No futuro, talvez a gente saiba com mais precisão”.

Uma possível saída para os remédios vencidos em casa é tratá-los exatamente como a indústria farmacêutica lida com seus resíduos químicos: mandar para a incineração ou aterro especializado, com camadas de proteção do solo mais resistentes a contaminações. O desafio, neste caso, é a logística do descarte. Concentrar nas mãos de poucos a responsabilidade pelo recolhimento dos remédios poderia criar um mercado paralelo de venda de medicamentos controlados. Resolveria um problema ambiental para criar outro de saúde pública. “No mundo dos sonhos, o ideal seria não jogar nada no meio ambiente”, afirma Calixto. “Tudo tem seu risco, né?”.

05/11/2011 06h31 - Atualizado em 05/11/2011 06h31

Confira como as usinas nucleares do Brasil são projetadas para terremotos

Angra 1 e 2 possuem estações sismográficas para monitoramento 24 horas

Angra (Foto: Eletronuclear)As usinas nucleares Angra 1 e 2 contam com sistemas de alarmes para terremotos (Foto: Eletronuclear)

Além de 15 mil mortos, o terremoto de magnitude 8,9 ocorrido no dia 11 de março no Japão gerou uma grave crise nuclear no país devido à explosão de um dos reatores da usina nuclear de Fukushima, causando riscos reais de grandes vazamentos de material radioativo. Na época, a ameaça de um acidente nuclear trouxe à tona preocupações em toda comunidade mundial a respeito da segurança das usinas em casos de desastres naturais.

Atualmente, o Brasil possui duas usinas nucleares em funcionamento, Angra 1 e 2, localizadas ao sul do estado do Rio de Janeiro, sendo que uma terceira unidade está em construção no mesmo local, com previsão de ser concluída em maio de 2015. Para saber como é a segurança das usinas nucleares brasileiras com relação à possibilidade de terremotos, o site do Globo Ciência conversou com Lúcio Ferrari e Carlos Prates, da superintendência de Engenharia de Projeto da Eletronuclear.

Como as usinas brasileiras foram projetadas para suportar terremotos?
Carlos Prates:
As usinas nucleares de Angra foram construídas seguindo as diretrizes estabelecidas pelas normas da Agência Internacional de Energia Atômica (AIEA), sendo concebidas para resistir a abalos sísmicos. Ou seja, o seu projeto civil incluiu a projeção de lajes e de equipamentos que suportem tremores de terra em conformidade com a máxima atividade sísmica da região. Para isso, foi levada em conta uma análise geológica do local, lembrando que o Rio de Janeiro é, historicamente, uma região de baixa atividade sísmica, sem grandes tremores de terra.

Lúcio (Foto: Divulgação)Lúcio Ferrari, superintendente de Engenhria de
Projeto de Angra 3 (Foto: Divulgação)

Há algum tipo de sistema que monitore as atividades sísmicas próximas às usinas?
Lúcio Ferrari:
As usinas de Angra possuem uma estação sismográfica que monitora permanentemente qualquer movimento do solo, registrando até as oscilações que não são perceptíveis para as pessoas. A estação consegue medir de pequenos sismos de magnitude 2, por exemplo, aos maiores e mais distantes, como o terremoto ocorrido em março no Japão, captado pelos sensores dos nossos equipamentos.

Existem outros sistemas de segurança auxiliares?
Lúcio Ferrari:
Além dessas estações, existem sensores que alarmam na sala de controle qualquer abalo igual, ou superior, a 10% do valor de variação do movimento horizontal do solo tolerado pelas usinas, algo similar a 10% da aceleração da gravidade. Nesse caso, os alarmes soam identificando que ocorreu um abalo sísmico na usina. A partir daí, o operador verifica que nível de abalo foi esse.

As usinas foram projetadas para suportar terremotos de quais magnitudes na escala Richter?
Carlos Prates: Antes de tudo, é importante levar em consideração também a distância do epicentro do terremoto até a usina, já que a energia do tremor se dissipa ao longo do caminho. Além disso, o terremoto gera movimentos na vertical e na horizontal, sendo que o maior problema está justamente nas oscilações horizontais. No caso de Angra 1 e 2, elas estão preparadas, por exemplo, para suportar tremores de magnitude 6, a 60 km da usina; ou de magnitude 7, a 90km.

Existe algum plano de emergência para casos de terremoto?
Lúcio Ferrari: As usinas possuem um plano de emergência que trabalha em função da preservação dos seus sistemas de segurança e, para isso, existem alguns níveis de classe de emergência. Se um terremoto está dentro dos níveis tolerados pelo projeto, nenhuma ação é tomada. Por outro lado, se tivermos um abalo sísmico um pouco acima do nível de projeto, a primeira coisa a se fazer é desligar a usina e monitorar todo o sistema de segurança, verificando pressão e temperatura de vários componentes dos sistemas. Se for encontrada alguma provável degradação no nível de segurança, é feita a classificação desse evento de acordo com a classe de emergência.

Carlos (Foto: Divulgação)Carlos Prates, da superintendência da Engenharia
de Projeto da Eletronuclear (Foto: Divulgação)

Corremos os mesmos riscos de acidentes como o de Fukushima?
Carlos Prates: São contextos diferentes. O terremoto do Japão foi de magnitude 8.9, a 110 km da costa, ocorrendo em uma falha tectônica próxima à usina. A placa do Brasil possui falhas tectônicas bem distantes, localizadas no litoral dos Andes e no meio do Atlântico, por exemplo. Além disso, no Japão, os engenheiros tinham conhecimento de que havia essa falha tectônica próxima, sendo que ela poderia gerar um terremoto de grandes proporções. Sendo assim, eles dimensionaram a usina de Fukushima para suportar terremotos de magnitude 8.0, pois na região nunca tinha ocorrido tremores maiores do que esse. Porém, é preciso lembrar que a usina resistiu, e que todos os procedimentos de desligamento automático foram realizados. O problema maior foi o tsunami que se seguiu ao abalo sísmico. Ou seja, a usina resistiu ao terremoto, só que 30 minutos depois chegou o tsunami que inundou a usina e causou a perda de energia externa.

05/11/2011 06h31 - Atualizado em 05/11/2011 06h32

O Brasil tem terremotos, sim

País está em cima de uma única placa tectônica, mas já contabiliza mais de 15 tremores de terra com magnitudes maiores ou iguais a 5.0 desde 1922

Mapa da Sismicidade Brasileira (Foto: Divulgação / Observatório Sismológico)Mapa da Sismicidade Brasileira (Foto: Divulgação / Observatório Sismológico)

Os brasileiros sempre se gabaram de não precisarem ter medo de terremoto, afinal, o país está em cima de uma única placa tectônica, e é justamente o encontro de duas delas que causam os maiores desastres em países como Estados Unidos e Japão. Mas essa história não é tão simples assim. Os riscos são menores, mas não nulos. E o Brasil já contabiliza mais de 15 tremores de terra (ou abalos sísmicos) com magnitudes maiores ou iguais a 5.0 desde 1922. Fora os mais de 3.140 eventos sismológicos contabilizados com menores ocorrências de Norte a Sul (os dados são da SISBRA/UnB, o Boletim Sísmico Brasileiro de 2008). Acredita-se que dificilmente o Brasil terá um terremoto como o que destruiu partes do Japão em março deste ano. Mas, dizer nunca, jamais.

“A possibilidade é quase zero, mas não podemos dizer que é zero porque a gente tem muito pouca informação sobre a Terra. Nosso planeta foi mapeado centenas de anos antes de Cristo, só que ele tem quatro bilhões de anos. Em 1811-1812, por exemplo, houve um terremoto de magnitude 7.7 em New Madri, no Missouri (EUA) no meio da placa tectônica norte-americana. No Brasil, há pouquíssima gente estudando esses fenômenos e há muito para se entender sobre os terremotos da intraplaca, ou seja, como se comportam as falhas geológicas supostamente ‘estáveis’”, diz o George Sand França, professor do Observatório Sismológico da Universidade de Brasília.

Além do professor da UNB, há cerca de dez doutores em sismologia no Brasil, sendo que três deles em Brasília e três no Rio Grande do Norte, um dos estados mais atingidos por tremores: o município de João Câmara sofreu abalos sísmicos de 5.1 e 5.0 em 1986 e 1989, respectivamente. O tremor mais forte já registrado no Brasil desde o início das primeiras medições instrumentais, na década de 50, ocorreu em 1955 em Serra Tombador (MT), com 6.2 de magnitude. Em 2010, um terremoto de 5 pontos foi registrado na divisa de Goiás e Tocantins. O tremor foi sentido até em Brasília (a 254 km), mais especificamente no Palácio do Planalto.

“As pessoas começam a perceber os tremores quando eles estão acima de 2.0 de magnitude, dependo da distância em que estiver do epicentro do abalo. Os de 3.0 e 3.5 já começam a amedrontar a população. Sofrem mais as cidades que não estão preparadas para isso, com construções não estruturadas para esse tipo de experiência. Recentemente, mesmo distante, Brasília viveu essa experiência para um terremoto de magnitude 5.0”, comenta o professor.

George Sand França, professor do Observatório Sismológico da Universidade de Brasília (Foto: Divulgação)George Sand França, professor do Observatório
Sismológico da UNB (Foto: Divulgação)

Um evento pode durar segundos ou minutos. Acredita-se que, no Brasil, os tremores podem ocorrer devido a existência de falhas geológicas. As maiores falhas geológicas, com potências fortes de terremotos, estão exatamente no limite das placas, e a mais famosa é a de San Andres, na Califórnia. No entanto, essa falhas existem também no interior delas, que foram oriundas de movimentos anteriores da placas ou de placas que já foram consumidas. Essas falhas antigas também estão sujeitas a tensões e podem causar o deslocamento da placa, gerando os tremores denominados tremores intraplacas. O Brasil também sofre reflexos de terremotos com epicentro em outros países da América Latina, mas sem alarde, pois esses só fazem vibrar grandes edifícios, sobretudo na Avenida Paulista. O professor George Sand França atribui outro fator importante: o aumento da população.

“Existe a pressão interna da placa listosférica, que tem fraturas. A pressão na rocha é muito grande, então, ela se desloca. A população aumentou muito e por isso percebe mais os terremotos que tempos atrás”, comenta.

George Sand França estudou Física e fez mestrado na Universidade Federal do Rio Grande do Norte (UFRN) e doutorado na Universidade de São Paulo (USP). Seu interesse por tremores surgiu quando, em 1989, sentiu um forte em João Câmara (RN), onde vivia.

“Sempre conto essa história aos meus alunos. Sou potiguar e, ali, ao sentir o tremor em João Câmara, decidi ser sismólogo. Achei que estava no lugar certo. Ciência é aquela coisa sobre a qual você tem interesse, mas não entende. Descobri que a ciência sismológica tem apenas um século de estudos. É uma ciência nova”, diz.

De acordo com o professor, o avanço da tecnologia nos ajuda com mais repostas, mas infelizmente ainda não é possível evitar um terremoto. O que se pode fazer é se preparar para não sofrer consequências caso viva algum tremor.

“O que não pode é entrar em pânico. É preciso educar a população para isso. Se estiver na cama, é bom botar o travesseiro na cabeça para não se assustar com o barulho. O ideal é ir para baixo da cama. Em regiões em que há tremores, é bom fixar armários nas paredes e não deixar copos ou vidros em lugares altos”, avalia.

O único caso de morte registrado no Brasil foi em 2007, quando um terremoto de 4.9 graus de magnitude atingiu a comunidade rural de Caraíbas, situada ao norte de Minas Gerais. Uma criança de cinco anos morreu esmagada pela parede de sua casa, que não resistiu ao abalo e caiu. Cinco pessoas ficaram feridas e centenas desabrigadas. Essa, sem dúvida, foi a experiência mais marcante na carreira do professor George:

“Gosto muito do meu trabalho, mas o maior desafio é não só entender as causas do terremoto, como também a parte social a que ele está ligado. Vivi um pouco dessa experiência de Caraíbas, pois fui dar uma palestra logo depois de ter ocorrido um tremor de magnitude 3.5. Tentei ensinar as pessoas a como se comportar. Dois meses depois, soube da tragédia.”