quinta-feira, 31 de março de 2016

Armas químicas e biológicas

DISPONÍVEL:
ACESSO: 31/03/2016 as 19:16h

Qualquer guerra é um espetáculo sangrento e abominável. Mas até para matar há limites: as armas não devem causar ferimentos supérfluos, cruéis, desumanos ou degradantes. Isso em teoria. Pois o homem inventa, produz, armazena e está pronto para usar um arsenal tão perverso que até a tênue ética da mortandade fica manchada. São as armas químicas, chamadas "bomba atômica dos pobres", pois podem ser preparadas em qualquer país que disponha de uma indústria de fertilizantes químicos ou pesticidas medianamente desenvolvida.
Meses atrás, por exemplo, descobriu-se na Líbia uma fábrica de armas químicas disfarçada de indústria farmacêutica. E uma mostra real desse pesadelo ficou registrada em março do ano passado no ataque iraquiano com gás mostarda à aldeia de Halabja, um lugarejo em seu território que havia sido invadido pelo Irã, habitado pelos curdos. Cinco mil civis foram mortos. Sete mil ficaram feridos. As imagens das vítimas paralisadas em agonia horrorizaram o mundo. Por sua vez, a União Soviética foi acusada de usar gases incapacitantes contra os rebeldes no Afeganistão.
A idéia de aniquilar o inimigo por envenenamento é bem antiga. Já na Índia de 2000 a.C. era comum empregar nas guerras cortinas de fumaça, dispositivos incendiários e vapores tóxicos. O historiador grego Tucídides conta que na Guerra do Peloponeso (431-404 a.C.) os espartanos colocavam madeira impregnada com enxofre e piche ao redor dos muros das cidades inimigas, criando vapores sufocantes. No fim do século XIX, na Guerra dos Bôeres, na África do Sul, as tropas inglesas inventaram um artifício para lançar ácido pícrico, um explosivo. O engenho não funcionou, mas começaram aí as tentativas de ganhar combates com armas tóxicas. No entanto, com o desenvolvimento da ciência, começou também a fabricação de substâncias poderosamente venenosas para fins militares.
A Primeira Guerra Mundial (1914-1918) marcou a entrada da química nos campos de batalha. Em 1915, o cientista alemão Fritz Haber teve uma idéia para obrigar as tropas inimigas a sair da proteção das trincheiras e aceitar o combate a céu aberto: espalhou gás cloro num front perto da cidade belga de Ypres. Foi uma devastação - 5 mil desprevenidos soldados franceses foram mortos e outros 10 mil ficaram feridos. O cloro pertence ao grupo dos gases sufocantes, que irritam e ressecam as vias respiratórias. Para aliviar a irritação, o organismo segrega líquido nos pulmões, provocando um edema. A vítima morre literalmente afogada.
Como se não bastasse o cloro, a desenvolvida indústria química alemã -especialmente a tristemente famosa IG Farben - redescobriu o gás mostarda, inventado meio século antes na Inglaterra. Além de atacar o revestimento das vias respiratórias provocando feridas e inchaço, esse gás com cheiro de mostarda (daí o nome) provoca bolhas e queimaduras na pele e cegueira temporária. Inalado em grande quantidade, mata. Os franceses retrucaram como cianeto de hidrogênio e o ácido prússico, chamados gases do sangue. Quando inaladas, as moléculas desses gases se unem à hemoglobina do sangue, impedindo-a de se combinar com o oxigênio para transportá-lo às células do corpo, causando a morte.
Ao todo, as mortes provocadas por gases venenosos na Primeira Guerra Mundial somaram perto de 100 mil; os feridos, em torno de 1,3 milhão. A fama de vilão porém recaiu exclusivamente sobre Fritz Haber, o mentor do ataque alemão a Ypres. Pouco lhe valeu ser contemplado com o Prêmio Nobel de Química em 1918 - sob protesto dos cientistas - por ter conseguido a síntese da amônia, inventando assim os fertilizantes químicos. Quando Hitler chegou ao poder na Alemanha em 1933, Haber, por ser judeu, emigrou para a Inglaterra. Ao encontrá-lo em Londres, logo em seguida, o físico inglês Ernest Rutherford , também Prêmio Nobel, recusou-se a apertar-lhe a mão. O criador da guerra química morreu no ano seguinte, de ataque cardíaco. Em 1925, a Liga das Nações, precursora da ONU, havia proibido no Protocolo de Genebra o uso militar de gases asfixiantes, tóxicos e outros, assim como o de agentes bacteriológicos.
A Liga omitiu-se, porém, quanto a fabricação e estocagem desses venenos. Mal tinha secado a tinta do protocolo, a Espanha reprimiu a gás mostarda uma revolta em Marrocos, então sua possessão. E em 1931 o Japão usou fartamente armas químicas na invasão da Manchúria, onde também realizaria horrendas experiências de guerra bacteriológica. Em 1936, as tropas italianas jogaram gás mostarda na Etiópia, matando homens, animais e envenenando rios.
Naquele mesmo ano, na IG Farben alemã, um químico chamado Gerhard Schrader estava incumbido da pacífica tarefa de desenvolver inseticidas. Trabalhando com organofosforados - compostos de carbono, hidrogênio e oxigênio misturados ao fósforo -, Schrader sintetizou um produto tão mortífero que era impossível usá-lo como inseticida. Estava criado o tabun, o primeiro dos gases neurotóxicos (que agem sobre os nervos), até hoje a mais terrível espécie de arma química já inventada. Dois anos mais tarde, Schrader inventou o sarin; e já nos estertores da Segunda Guerra Mundial, em 1944, criou o soman, oito vezes mais letal que o primeiro e duas vezes mais que o segundo.
Os gases dos nervos matam em minutos. Atuam inibindo uma enzima chamada acetilcolinesterase, necessária ao controle dos movimentos musculares. Essa enzima bloqueia os impulsos nervosos que ativam os músculos. Quando o gás neurotóxico é absorvido, por inalação e contato com a pele, a produção da enzima cessa imediatamente. Todos os músculos então se contraem sem parar e acabam estrangulando os pulmões e o coração. É mais ou menos assim, por asfixia, que morrem os insetos atacados com inseticidas.
Os gases mortíferos dos nazistas não chegaram aos campos de batalha, mas foram empregados em larga escala no assassínio de populações inteiras: a IG Farben desenvolveu o zyklon-B, o gás usado pelos nazistas para matar milhões de judeus nas câmaras dos campos de extermínio. Terminada a guerra, os aliados se apoderaram das técnicas e dos estoques da IG Farben. Em pouco tempo, carregamentos secretos de gases dos nervos chegaram aos Estados Unidos e à União Soviética. Ainda havia o que aperfeiçoar nessa área.No começo da década de 50, a empresa química inglesa ICI criou a chamada família V, com os gases VE e VX, muitas vezes mais tóxicos que os dos alemães se é que é possível imaginar isso.
A praga continuou a cruzar novas fronteiras. Durante os sete anos da Guerra Civil no Iêmen do Norte, de 1962 a 1969, as tropas egípcias que participavam do conflito usaram armas químicas vindas da União Soviética. O maior escândalo, porém, aconteceu do lado americano. Na Guerra do Vietnã, os Estados Unidos jogaram, além do conhecido incendiário napalm, toneladas de gás lacrimogêneo, que irrita os olhos e as vias respiratórias, deixando as vítimas fora de combate por algum tempo. O gás lacrimogêneo é usado em muitos países para dispersar manifestações de rua.
Pior que isso foi o emprego dos desfolhantes, conhecidos como agentes laranja, azul e branco. Os desfolhantes haviam sido inventados no fim da Segunda Guerra, no principal laboratório de pesquisa do Exército dos Estados Unidos, em Fort Detrick. Tais herbicidas servem para destruir ervas daninhas nas plantações. O agente laranja, o mais usado no Vietnã, mistura de dois herbicidas, tinha o objetivo de destruir plantações e florestas, principalmente matas fechadas à beira dos rios, de onde os guerrilheiros vietcongues fustigavam tropas americanas.
Dessa vez, porém, os cientistas honraram a ética da profissão e pressionaram o Congresso americano a proibir a fabricação de armas químicas. De fato, a produção dessas armas chegou a ser suspensa em 1969. A população despertou para o problema um ano antes, quando durante testes com gases neurotóxicos na base militar de Dugway, no Utah, um vazamento do produto matou 6 mil carneiros das redondezas.O perigo de viver perto dos armazéns de veneno já não podia ser subestimado. A notícia do acidente só chegou ao conhecimento da opinião pública por causa da morte dos carneiros, que não pôde ser ocultada. Mas é virtualmente impossível, nos Estados Unidos ou em qualquer outro país, identificar os cientistas a serviço do mal.
Em nome da segurança nacional, eles permanecem sempre anônimos, da mesma forma que os laboratórios envolvidos nas experiências. Mas, como os gases, informações vazam. Na Universidade da Pensilvânia, em 1965, a desconfiança de um estudante levou à descoberta de dois contratos secretos com o Pentágono para pesquisa em guerra química e biológica. Empresas como a Dow Chemical e a Monsanto foram acusadas de fabricar desfolhantes. Na Alemanha, pelo menos treze empresas fornecem pesticidas aparentemente inocentes a países do Terceiro Mundo. A rigor, raras armas químicas conhecidas foram criadas em laboratórios exclusivamente militares - cientistas acadêmicos ou empregados em indústrias sempre estiveram por trás dessas pesquisas.
Não é preciso construir instalações especiais para fabricar armas químicas. Para a vida ou para a morte, a indústria química funciona do mesmo modo, com dois processos: conversões químicas e operações unitárias. Conversões são reações entre produtos químicos nos reatores, recipientes de aço inoxidável revestidos às vezes de materiais cerâmicos ou plásticos. Operações unitárias são as conversões físicas, como destilação, evaporação ou filtração. A grande diferença entre uma indústria química qualquer e uma produtora de gases venenosos está no cuidado de quem lida com o material. Naturalmente, quanto mais tóxicos os produtos, maior a necessidade de segurança. Já lançar armas químicas é uma operação semelhante a um ataque normal de artilharia - com a diferença de que as bombas não carregam apenas explosivos, mas também gases. Como os venenos químicos são perigosos também para quem os joga, os atacantes devem estar protegidos contra eles. Pensando nisso, os americanos desenvolveram as chamadas armas binárias. Estas têm dois compartimentos, cada um com uma substância por si só pouco tóxica. A mistura ocorre na hora da explosão, formando gás mortal.
Mesmo que os combatentes estejam protegidos com máscaras e roupas emborrachadas, a luta prolongada no front envenenado pode ser cruel. As roupas, extremamente desconfortáveis, tendem a provocar desidratação. Estudos soviéticos mostraram que, depois de usar a roupa protetora por dezoito horas seguidas, um soldado fica totalmente fora de combate. Os soldados britânicos, de seu lado, levam presos ao uniforme pequenos papéis que mudam de cor na presença de gases tóxicos. Ao perceber que foi atacado com gás dos nervos, o soldado se aplica imediatamente uma injeção de atropina, um antídoto que traz consigo. A atropina, substância derivada de uma planta chamada beladona, faz no organismo o papel da acetilcolinesterase inibida pelo gás. Porém, se o alarme for falso, a atropina fará com que a pessoa sinta os mesmos efeitos que o gás lhe provocaria.
O serviço de inteligência americano, CIA, calcula que vinte países têm armas químicas e outros dez estão na fila para começar a produzi-las. Os arsenais conhecidos estão nos Estados Unidos (30 mil toneladas), na União Soviética (400 mil toneladas), na França e no Iraque. Os países que provavelmente têm mas não confessam são Egito, Síria, Líbia, Israel, Irã, Etiópia, Birmânia, Tailândia, Coréia do Norte, Coréia do Sul, Vietnã, Formosa, China, África do Sul e Cuba. Nas mãos das superpotências nucleares, pouca diferença fazem os estoques químicos.
O equilíbrio pode romper-se, porém, com a propagação de armas semelhantes pelo mundo afora - o mesmo temor, por sinal, inspirou os esforços contra a proliferação nuclear. A indignação causada pelo ataque iraquiano a Halabja serviu ao menos para disparar uma nova investida pelo desarmamento químico. No começo do ano, em Paris, representantes de 149 países condenaram o uso de armas químicas como passo inicial para futuro acordo de completo banimento. Quem viver verá.
Um bombardeio de doenças.
Existe algo ainda mais cruel que os gases venenosos. São as armas biológicas - bactérias para matar o inimigo de doença. As mais cotadas propagam males como dengue, botulismo, antraz e peste. O dengue, uma febre tropical causada por vírus, é comum no Brasil e provoca principalmente dor e rigidez nas juntas do corpo. Já o botulismo é um envenenamento por uma toxina segregada por uma bactéria. Um dos mais poderosos venenos conhecidos, a toxina danifica o sistema nervoso, causando a morte pela paralisia dos músculos respiratórios.
Bacilo nocivo aos animais, o antraz pode ser fatal ao homem se for ingerido ou inalado. Dentro do organismo, o bacilo ataca o coração e outros órgãos vitais. As bombas de peste seriam das formas bubônica e pneumônica. A primeira não é fatal, mas a pneumônica mata por edema pulmonar. Aperfeiçoados pela engenharia genética, mesmo os vírus e bactérias não mortais podem se tornar resistentes a qualquer antibiótico ou outra defesa conhecida, vitimando populações inteiras. Na Segunda Guerra Mundial, o Japão atacou onze cidades chinesas com bombas bacteriológicas. Além disso, japoneses e alemães usaram prisioneiros como cobaias em experiências com agentes infecciosos.
A Convenção das Armas Biológicas e Toxinas, de 1972, proíbe o seu desenvolvimento, produção e estocagem. A despeito disso, calcula-se que uma dezena de países fabricam tais armas. Ao contrário das suas parentes químicas, essas nunca foram usadas em larga escala nos campos de batalha. Para o especialista inglês Julian Perry Robinson, da Universidade de Sussex, uma explicação pode estar no fato de que o uso de um organismo vivo para atacar outro dá margem a todo tipo de situações imprevisíveis "e os militares não gostam de armas que não possam controlar".

segunda-feira, 28 de março de 2016

Gás de buzina pode causar morte facilmente

DISPONÍVEL:http://www.guiasaojoao.com.br/guiasaojoao/000/pag/jornal/munici/indicemunicipio.asp?id=7683
ACESSO: 28/03/2016 as 10:35h


Popular entre os jovens, inclusive com comunidades de exaltação em sites de relacionamento como o Orkut, a prática de inalar gás de buzina “é perigosíssima e pode causar morte facilmente”, de acordo com Eduardo Mello De Capitani, professor, médico e vice-coordenador do Centro de Controle de Intoxicações – CCI - do Hospital de Clínicas da Unicamp – Universidade Estadual de Campinas.

Em entrevista ao O MUNICIPIO, Capitani alerta que o propano (gás de buzina) tem ação no músculo cardíaco, tornando o coração muito sensível à ação de catecolaminas - moléculas presentes no corpo que normalmente mantém o coração e a circulação sanguínea funcionando -, mas que podem produzir arritmias graves e frequentemente fatais, como a taquicardia ventricular.

“Essa ação no músculo cardíaco, pode também produzir infarto agudo do miocárdio em pessoas sensíveis ou já com algum problema cardíaco”, diz.

De acordo com o vice-coordenador do CCI, apesar de não conter nenhum alucinógeno, sabe-se que a inalação de propano (gás de buzina) pode produzir efeitos de confusão mental, euforia e alucinações.

Provavelmente por dois mecanismos básicos: um mecanismo seria o da asfixia, ou seja, produção de baixa concentração de oxigênio no sangue e, consequentemente, no cérebro, fazendo com que o funcione mal e produza esses sintomas de tontura, euforia e alucinações.

Outro mecanismo seria a possível ação direta no sistema nervoso central (o cérebro). “Esse último mecanismo é possível, mas sabe-se muito pouco sobre ele com relação à ação do propano”, explica.

PERIGOS

Eduardo Capitani aponta que a inalação aguda do gás de buzina, como a que supostamente aconteceu na festa em Fernandópolis, na qual estava a estudante Mariana Finazzi, pode causar euforia, tontura, mal estar, vômitos, e eventualmente, alucinações.

O médico comenta ainda que o uso crônico desse gás, como droga adição, pode produzir problemas definitivos no cérebro, com perda de raciocínio e de memória, além de falta de apetite e perda de peso, sonolência constante, sangramentos nasais por irritação local, ulcerações na boca e no nariz, e conjuntivites nos olhos.

RECOMENDAÇÕES

Capitani alerta que, ao presenciar uma pessoa passando mal após ter inalado o gás de buzina, é preciso tentar buscar socorro médico o mais urgente possível. “Nunca deve-se achar que o problema é de menor importância. Náuseas e vômitos podem ser sinais já de gravidade”, indica.

O médico comenta que “é muito triste e deprimente ver que pessoas de nível universitário, como a menina que faleceu, com algum grau de conhecimento biológico e de funcionamento do corpo humano, se disponham a utilizar substâncias químicas tóxicas nessas condições de busca de alteração da consciência. São vidas perdidas sem nenhuma razão nobre, deixando pais e parentes numa condição de completo desamparo afetivo e psicológico”.

Com relação específica ao gás de buzina (o propano), o médico crê que os meios de divulgação e a imprensa séria deveriam promover mais matérias alertando para os riscos desse tipo de prática.

RELATÓRIO MUNDIAL SOBRE DROGAS 2009

COCAÍNA

O Escritório das Nações Unidas para Drogas e Crime (Unodc) divulgou também no documento que “o mercado global de cocaína sofreu abalos sísmicos, graças à cooperação internacional”.
Produtora de metade da cocaína do planeta – um mercado que movimenta US$ 50 bilhões anuais –, a Colômbia teve, em 2008, uma redução de 18% no cultivo e uma queda de 28% na produção da droga, em comparação com 2007.
Apesar de pequenos aumentos observados na Bolívia (6%) e no Peru (4%), a área total de cultivo de coca diminuiu 8% em 2008, graças a uma redução considerável na Colômbia.
A área total de cultivo de coca caiu para 167 hectares, muito inferior aos níveis atingidos na década de 1990.


MACONHA

A maconha continua sendo a droga mais cultivada e consumida em todo o globo.
Estimar a área global de cultivo, segundo o UNODC, “é consideravelmente mais complicado”, já que a droga é produzida em quase todos os países e pode ser cultivada em locais fechados e abertos.
A área estimada para a produção ao ar livre de maconha em 2008 varia de 200 mil a 642 mil hectares.
Estima-se que a produção total de maconha varie entre 13,3 mil toneladas e 66,1 mil toneladas.
Dados de 2006 mostram os mais altos índices de uso de maconha entre os estudantes na América do Sul: no Chile (12,7%), seguido por Uruguai (8,5%), Colômbia (7,1%), Argentina (6,7%) e o Brasil (5,1%).


ECSTASY

Na América Latina, o estudo constata um crescimento preocupante no consumo de ecstasy, principalmente entre jovens das áreas urbanas.
Dados do Brasil mostram um aumento no número de apreensões de comprimidos, com mais de 210 mil apreendidos em 2007.
“O aumento nas apreensões pode estar relacionado à produção doméstica de ecstasy, considerando que o primeiro laboratório clandestino foi descoberto no país em 2008”, registra o relatório.
Em 2008, a Polícia Federal (PF) desmantelou, no Paraná, o primeiro laboratório clandestino de ecstasy do país.
Entretanto, vem da Europa a maior parte dos comprimidos de ecstasy consumidos no Brasil.


DROGAS INJETÁVEIS

Estima-se que entre 11 e 21 milhões de pessoas ao redor do globo usam drogas injetáveis.
As maiores populações de usuários estão na China, nos EUA, na Rússia e no Brasil, que somam 45% do total de consumidores.
A injeção de droga é responsável pelo aumento das infecções por HIV.
Segundo o relatório, o contágio entre usuários de drogas injetáveis já foi constatado em 120 países. Estima-se que entre 0,8 e 6,6 milhões de usuários estejam infectados pelo vírus da Aids em todo o mundo.
Em 2008, 48% dos usuários de drogas injetáveis no Brasil estavam infectados com o vírus HIV. O País é o 3º colocado na relação de países com usuários de drogas injetáveis infectados pela Aids. O 1º é a Estônia (72,1%) e, em segundo, está a Argentina (49,7%).

Academia Brasileira de Letras lança aplicativo do Vocabulário Ortográfico

DISONÍVEL: https://www.facebook.com/146403135420555/photos/a.426844974043035.93821.146403135420555/1062692053791654/?type=3&fref=nf
ACESSO: 28/03/2016 as 10:02h

COM A FINALIDADE DE PROPORCIONAR AOS INTERESSADOS O ACESSO MAIS DINÂMICO ÀS REGRAS ORTOGRÁFICAS, A PÁGINA CANAL DE ENSINO DISPONIBILIZA APLICATIVO QUE PODE SER ACESSADO PELO LINK ABAIXO.

link: http://canaldoensino.com.br/…/academia-brasileira-de-letras… ‪#‎Aplicativo‬

COLETÂNEA DE ARTIGOS DE QUÍMICA

DISPONÍVEL: https://www.facebook.com/pesquisasdequimica/?fref=nf
ACESSO: 28/03/2016 as 9:47h

Há alguns anos, o MEC produziu uma coletânia de artigos que interessavam aos professores de Ensino Básico em várias áreas, uma delas é a química que a fonte principal utilizada foi a Revista Química Nova na Escola, da SBQ. Estão disponíveis em pdf para serem baixadas. Boa leitura e novas ideias para suas aulas e atividades com os alunos de suas respectivas escolas: expensquim_vol4 expensqui_vol5.

link:http://crispassinato.com/…/colecao-explorando-o-ensino-de-…/


terça-feira, 22 de março de 2016

MICROCEFALIA

DISPONÍVEL: http://revistapesquisa.fapesp.br/2016/03/18/incertezas-sobre-a-microcefalia/
ACESSO: 22/03/2016 as 11:12h


Foi preciso atravessar meio mundo para o vírus zika deixar o anonimato. Por quase 60 anos o vírus circulou pela África e pela Ásia praticamente sem ser notado. Ao aportar no Brasil, porém, encontrou condições favoráveis para se espalhar rapidamente e atraiu a atenção internacional ao se tornar o principal suspeito do aumento nos casos de microcefalia, um tipo de má-formação congênita da qual pouco se ouvia falar no país.
Microcefalia é um termo de origem grega usado pelos médicos para designar uma condição em que as crianças nascem com a cabeça pequena demais para o tempo de gestação. A maioria delas, segundo especialistas, é saudável. Apenas uma pequena parte nasce com microcefalia em decorrência de problemas de desenvolvimento que deixam o cérebro menor. Nesses casos, não há cura. Um bebê pode nascer com o cérebro pequeno demais por causa de uma série de defeitos genéticos – há ao menos 16 genes conhecidos associados ao problema. Mas também pode ter microcefalia em consequência de razões ambientais, como o consumo de álcool ou exposição a produtos tóxicos na gestação, ou de uma série de infecções, como as causadas pelo vírus da rubéola e do herpes, pelo parasita da toxoplasmose ou pela bactéria da sífilis.
A possibilidade de o zika também causar o problema soou o alerta geral pela facilidade com que o vírus se dissemina. Considerado inofensivo por muito tempo, o zika entrou no Brasil entre 2014 e 2015 e, segundo o Ministério da Saúde, já pode ter infectado 1,4 milhão de pessoas. Nesse mesmo tempo, detectou-se um aumento nos casos de microcefalia, em especial na região Nordeste. De 2000 a 2014, o ministério registrou a média anual de 164 casos de microcefalia. Mas, de outubro de 2015 a 20 de fevereiro deste ano, o número de casos confirmados alcançou 583.
Em meio ao surto, políticos e autoridades da saúde chegaram a afirmar que o país estaria diante da mais terrível epidemia dos últimos tempos, que, se não fosse contida, poderia deixar toda uma geração de brasileiros com danos neurológicos ou, como disseram, “sequelados”.
Começam a surgir evidências, porém, de algo que muita gente já suspeitava: o número de casos de microcefalia sempre foi subestimado no Brasil. Não conhecer bem a realidade anterior à entrada do zika no país torna mais difícil saber se o problema está de fato aumentando – e, caso esteja, de quanto é o aumento e qual proporção dele se deve ao vírus. Nesse cenário, coletar dados que permitam conhecer como o problema evolui ao longo do tempo é tão importante quanto estudar a melhor forma de combater o vírus e o mosquito.
Uma indicação importante de que o sistema de saúde brasileiro não identificava parte dos casos de microcefalia vem de um estudo recente realizado por pesquisadores de Pernambuco e da Paraíba, os dois estados que mais relataram nascimentos de bebês suspeitos de terem a cabeça anormalmente pequena nos últimos meses.
Com a possibilidade de se estar diante de um surto do problema, a médica Sandra da Silva Mattos, especializada em cardiologia fetal no Recife, propôs um desafio à sua equipe. Ela coordena uma rede de cardiologia que nos últimos anos acompanhou 100 mil recém-nascidos na vizinha Paraíba. No final de 2015, Sandra recrutou 40 enfermeiras e auxiliares de enfermagem de 21 maternidades paraibanas e pediu que vasculhassem os registros das salas de parto para recuperar informações sobre 10% das crianças.
Conseguiu-se mais. Em dezembro, elas revisaram as medidas do tamanho da cabeça (perímetro cefálico) de 16.208 bebês nascidos entre 2012 e 2015 na Paraíba. O levantamento indicou que de 2% a 8% dessas crianças poderiam ser classificadas como tendo microcefalia, dependendo do critério adotado para definir o problema. Isso representa, respectivamente, 320 e 1.300 recém-nascidos e não significa que todos os casos suspeitos de microcefalia estejam necessariamente associados ao vírus zika.
O importante é que mesmo o número menor, obtido pelo critério mais restritivo e que representaria os casos mais graves de microcefalia, já somaria cerca de metade da média anual de 164 casos que o Ministério da Saúde registrava para todo o país por meio do Sistema de Informações sobre Nascidos Vivos (Sinasc), a base de dados nacional que coleta informações sobre os recém-nascidos brasileiros. Nessa base, há um campo para inserir a medida do crânio, mas, como suspeitam vários pesquisadores, muitas vezes ele não era preenchido – talvez porque a notificação de microcefalia não fosse obrigatória anteriormente.
Aumento atípico
Nos últimos quatro meses o Ministério da Saúde identificou um número mais alto de casos de microcefalia, depois de alertado por médicos pernambucanos que haviam detectado um aumento atípico no nascimento de crianças com a cabeça menor que o considerado normal para o tempo de gestação.
© CDC
Facilidade de disseminação do vírus zika (em vermelho no destaque) gerou medo de uma epidemia
Facilidade de disseminação do vírus zika (em vermelho) gerou medo de uma epidemia
De 8 de novembro de 2015 a 20 de fevereiro deste ano, nasceram no país ao menos 5.640 bebês com essa característica. Esse número corresponde a uma média de 46 novos casos suspeitos de microcefalia por dia, uma proporção assustadoramente mais elevada do que a conhecida anteriormente. De 2000 a 2014, a média registrada pelo Sinasc era de aproximadamente um a cada dois dias. O aumento dos possíveis casos e a associação deles com a infecção pelo vírus zika durante a gestação alçaram a microcefalia para a posição de principal ameaça à saúde pública nacional.
“O estudo da Paraíba é importante por mostrar, usando os critérios de microcefalia adotados pelo ministério, que havia uma cegueira e o Sinasc não estava detectando a maioria dos casos”, afirma o neurologista pediátrico Fernando Kok, professor de neurologia infantil na Faculdade de Medicina da Universidade de São Paulo (FM-USP).
Na realidade, a parcela identificada anteriormente pelo Sinasc era ínfima. A cada ano nascem no Brasil aproximadamente 2,9 milhões de crianças e os 164 casos de microcefalia notificados por ano de 2000 a 2014 representam apenas 0,006% desse universo. Esse número é muito baixo quando comparado aos poucos dados conhecidos de outras populações. Os Estados Unidos, por exemplo, adotam um critério semelhante ao brasileiro para definir a microcefalia e apresentam uma proporção de casos mais elevada.
Lá nascem por volta de 3,9 milhões de bebês por ano e, segundo uma revisão publicada em 2009 na revista Neurology, os casos identificados de microcefalia beiravam os 25 mil. Isso significa que aproximadamente 0,6% dos bebês norte-americanos tem microcefalia e que lá o problema seria 100 vezes mais comum do que por aqui.
Convertida em um número um pouco mais concreto para facilitar a comparação, a taxa de 0,006% medida pelo Sinasc indica que apenas 60 recém-nascidos brasileiros em cada grupo de 100 mil teriam microcefalia e deveriam ser encaminhados para mais avaliações. Já pela taxa mais conservadora (2%) encontrada agora na Paraíba seriam 2 mil crianças em cada grupo de 100 mil – ou 58 mil em todo o país.
É muito? Talvez não. Depende do critério usado para definir microcefalia. No início de dezembro, o ministério passou a classificar como suspeitas de terem microcefalia aquelas crianças cuja cabeça tem menos de 32 centímetros (cm) de circunferência ao nascer. Médicos, epidemiologistas e estatísticos costumam usar um gráfico bastante simples para verificar se determinadas medidas apresentadas por um indivíduo fogem muito ao padrão da população – em uma parte dos casos essa diferença pode indicar algum problema de saúde.
O gráfico é construído ao se colocar no eixo horizontal as medidas das cabeças das crianças de uma população e no vertical o número de crianças. De modo geral, o tamanho da cabeça dos recém-nascidos humanos tem entre 30 cm e 39 cm. Há quase 20 anos um levantamento encomendado pela Organização Mundial da Saúde (OMS) a um consórcio internacional de pesquisadores tomou várias medidas, entre elas a da cabeça, de 27 mil crianças de diferentes populações, brasileira inclusive. Desse trabalho, resultou um gráfico mostrando como se distribui o tamanho dos crânios na população humana. Ele tem o formato de um sino e é apreciado pelos estatísticos por apresentar propriedades matemáticas bem conhecidas.
Uma delas é que a média – nesse caso, a soma total das medidas das cabeças dividida pelo total de crianças – separa o gráfico ao meio, em duas partes simétricas (ver gráfico). Os estatísticos sabem que a área total sob a curva representa toda a população estudada e conseguem facilmente calcular a proporção de pessoas que se encaixa em certas faixas da curva.
Médicos e epidemiologistas se baseiam nessas informações para saber se uma determinada medida pode indicar um problema de saúde. A ideia geral por trás desse tipo de ferramenta é de que tudo o que se afasta muito do observado na maior parte das pessoas pode ser sinal de problema – essas curvas são usadas, por exemplo, para avaliar se uma criança está muito baixa e apresenta problemas de crescimento ou para saber se a concentração de determinadas gorduras no sangue atingiu níveis nocivos à saúde.
No caso do tamanho do crânio, os 32 cm adotados pelo ministério representam o ponto de corte para definir se uma criança é suspeita de ter microcefalia. Esse ponto provavelmente foi escolhido por se afastar bastante do tamanho médio da cabeça da maioria dos recém-nascidos. A partir de 37 semanas de gestação, a cabeça dos bebês considerados saudáveis costuma medir algo em torno de 34,5 cm, segundo os dados da OMS. A diferença pode parecer pequena, mas 2,5 cm é bastante para um bebê.
014-021_Zika e microcefalia_241-01Os estatísticos usam uma medida chamada desvio-padrão para ter uma ideia desse grau de afastamento. No gráfico em forma de sino, os 32 cm estão aproximadamente dois desvios-padrão abaixo da média. Com base nas propriedades da distribuição normal, sabe-se que uma parte pequena da amostra, apenas 2,3%, está mais distante da média do que dois desvios-padrão.
Isso significa que 2,3% dos bebês nascidos no Brasil – o correspondente a 66,7 mil crianças – poderiam se enquadrar na definição de microcefalia do ministério. Uma proporção bem menor de recém-nascidos (0,1% ou 2.900 bebês) tem a cabeça menor ainda. O tamanho do crânio deles está três desvios-padrão abaixo da média e, na maioria dos casos, indica problema no desenvolvimento cerebral.
“A grande maioria das crianças classificadas com microcefalia em qualquer país que segue a recomendação da OMS [ou seja, aquelas que estão dois desvios-padrão abaixo da média] será normal com a cabeça pequena”, explica o epidemiologista Cesar Victora, da Universidade Federal de Pelotas (UFPel). Ele conta que os casos patológicos, associados ao zika e a outras infecções ou a problemas genéticos, representam uma pequena minoria desses 66,7 mil. “A grande maioria dessas crianças é normal e tem cabeça pequena por motivos genéticos não patológicos. Elas têm a cabeça e o corpo pequenos porque seus pais são pequenos ou porque elas sofreram algum tipo de restrição de crescimento intrauterino, por exemplo, são filhos de mães que fumaram na gestação”, diz Victora.
“O fato de o tamanho da cabeça estar abaixo de determinado valor não significa necessariamente que há uma enfermidade”, lembra Kok, que acompanha os casos de microcefalia no Hospital das Clínicas da USP. “É preciso analisar a medida do crânio em conjunto com outras informações. Agora, se a medida se afasta muito da média, é maior a probabilidade de haver algum problema.”
Microcefalia invisível
Se a medida situada dois desvios-padrão abaixo da média for mesmo um bom indicador de microcefalia – em alguns países da Europa usam três desvios-padrão –, tanto no Brasil como nos Estados Unidos o sistema de saúde está deixando de avaliar muita criança que deveria ser tratada com mais atenção. Sabe-se que uma parte delas é saudável e não vai apresentar problemas de desenvolvimento neurológico no futuro, mas outra parte pode ter alguma enfermidade e mereceria passar por uma avaliação mais detalhada.
No Brasil, o biólogo paulista Fernando Reinach foi um dos primeiros a apresentar essas contas para um público mais amplo. Em sua coluna no jornal O Estado de S.Paulo publicada em 6 de fevereiro, ele chama a atenção para a divergência entre os números oficiais e os esperados da microcefalia no Brasil. No texto “Microcefalia que sempre existiu”, ele afirma: “Essas crianças deveriam ter sido identificadas e examinadas com cuidado. Mas não foram, porque a notificação não era obrigatória. Elas seguramente sempre existiram, mas não existem nas estatísticas do Sistema Único de Saúde (SUS). Agora, com a notificação obrigatória, e o pânico causado pelo zika, elas estão ‘aparecendo’. Esse aparecimento súbito pode ser real, e causado pelo zika, ou pode ser uma anomalia causada pela subnotificação no Brasil”, escreveu o biólogo.
Dúvida sem resposta
Assim como Reinach, alguns pesquisadores já entrevistados por Pesquisa FAPESP se queixaram da falta de dados históricos confiáveis sobre a microcefalia no país. A carência de informação dos anos anteriores, dizem, torna difícil saber se os números atuais estão crescendo só por causa do zika ou se há outros fatores envolvidos.
No final de dezembro, os pesquisadores do Estudo Colaborativo Latino-americano de Malformações Congênitas (Eclamc), um consórcio internacional que acompanha os registros de más-formações em 35 hospitais de sete países, revisaram os dados de microcefalia que haviam registrado de 1967 a 2015 no Brasil e cruzaram com as informações coletadas nos últimos três anos pelo Sinasc.
Em um relatório-síntese, disponível no site do grupo, os pesquisadores afirmam que os números do Sinasc estavam subestimados. Segundo os cálculos do Eclamc, são esperados dois casos de microcefalia para cada grupo de 10 mil bebês nascidos no país, mas esse índice deve ser mais elevado no Nordeste, onde o problema é mais comum do que nas outras regiões. Usando o índice de microcefalia observado na Europa, eles calcularam que deveria haver 45 casos entre os 147.597 bebês nascidos em Pernambuco em 2015. Mas, até o fim de dezembro, o estado havia reportado 1.153 casos suspeitos (26 vezes mais). Para os pesquisadores, esses números só poderiam ser explicados se todas as gestantes pernambucanas tivessem sido infectadas pelo vírus – no documento não fica explícito qual proporção das mulheres infectadas poderia transmitir o vírus ao feto.
Os pesquisadores do Eclamc suspeitam que boa parte do aumento seja decorrente da identificação ativa de casos e concluem que os dados atuais não permitem avaliar se houve um real aumento da prevalência de microcefalia ao nascimento no Nordeste, qual a magnitude desse aumento e se foi devido à exposição ao zika ou ao aumento de outras causas. A equipe do Eclamc foi procurada, mas não quis dar entrevista.
014-021_Zika e microcefalia_241-02Apesar dessas considerações e da causalidade ainda não demonstrada, em meados de fevereiro  o ministro da Saúde, Marcelo Castro, disse que 40% dos casos suspeitos de microcefalia notificados nos últimos meses estão relacionados à infecção por zika.
O informe epidemiológico nº 14, divulgado pelo ministério no final de fevereiro, indica que, dos 5.640 casos notificados de 8 de novembro a 20 de fevereiro, 1.533 já foram investigados e 583 (10,3% dos 5.640) receberam a confirmação de microcefalia. Segundo o documento, exames moleculares detectaram o material genético do zika em 67 dos 583 casos confirmados. Nos 516 restantes a confirmação se deu por exames de imagens do cérebro que permitiram observar lesões anteriormente associadas ao zika. Ainda de acordo com o informe, o ministério suspeita que a maior parte das mães dessas crianças teve zika. No entanto, não deixa claro se nos 516 casos classificados por exames de imagem foi eliminada a possibilidade de outras infecções
que provocam microcefalia (toxoplasmose, rubéola, citomegalovírus, herpes e sífilis).
O ministério não atendeu às solicitações de esclarecimentos.
No informe epidemiológico nº 14 também não há detalhes sobre os 950 casos que foram excluídos. O documento sugere que as crianças não teriam microcefalia de origem infecciosa, mas poderiam apresentar outra forma do problema.
Sabe-se que as infecções não são a única causa de microcefalia – e talvez nem a mais comum. Na revisão de 2009 da Neurology, de 15% a 50% dos casos de microcefalia podem ser de origem genética. Há ao menos 16 genes conhecidos que causam o problema quando suas duas cópias encontram-se alteradas. Além disso, fatores ambientais, como o consumo de álcool na gestação ou a exposição a poluentes e produtos tóxicos, também podem causar microcefalia. Quanto cada um deles contribui para o total de casos? “Não conheço estudos que mostrem isso”, diz Kok.
Um grupo de médicos e epidemiologistas do Rio Grande do Sul, de São Paulo e do Ceará suspeita que a estratégia de considerar quem nasce com crânio menor que 32 cm um potencial caso de microcefalia está incluindo no pacote muitos bebês que são saudáveis.
Em um artigo publicado em fevereiro na revista Lancet, a equipe coordenada por Cesar Victora, da UFPel, levantou várias razões técnicas para isso. A primeira é que adotar uma nota de corte única para bebês de ambos os sexos não é adequado, uma vez que as meninas, em média, nascem menores que os meninos. Além disso, os pesquisadores argumentam, 68% dos bebês brasileiros nascem antes de completar 40 semanas de gestação, em parte por causa das altas taxas de cesarianas, e podem ser menores que o normal.
Para reduzir o número de bebês que não têm o problema – os chamados falsos-positivos – entre os que passarão por mais avaliações, o grupo sugere que se adotem curvas de padrão de crescimento mais adequadas à realidade da população brasileira e com maior poder de detectar os casos verdadeiramente positivos, como a produzida pelo consórcio Intergrowth 21st, que o grupo de Pelotas ajudou a desenvolver (ver Pesquisa FAPESP nº 225). Atualmente, além dos 32 cm para os bebês que nascem a partir da 37a semana de gestação, o ministério adota uma curva de crescimento produzida com crianças de países ricos, a curva de Fenton, para realizar a triagem daqueles que nascem prematuros.
Para o médico e epidemiologista Eduardo Massad, também professor da FM-USP, a infecção pelo vírus zika pode explicar parte do aumento dos casos de microcefalia. “Exatamente quanto? Não se sabe”, afirma. Na opinião dele, o importante é que se encontrou o vírus em 67 dos 583 casos confirmados, o que reforça a conexão do vírus com o problema, embora ainda não demonstre conclusivamente uma relação de
causalidade.
“Existe uma associação inequívoca entre a infecção por zika na gestação e o nascimento de bebês com microcefalia e há uma perfeita plausibilidade em se atribuir parte do aumento de casos ao vírus”, diz Massad. “Uma fração de fetos infectados desenvolve microcefalia, mas ainda não se sabe o tamanho dessa fração.”
Rápido demais
No estudo da Paraíba, o grupo de Sandra Mattos detectou uma elevação principalmente nos casos graves de microcefalia a partir do terceiro trimestre de 2015, que poderia estar associada à circulação do vírus. Ela suspeita, porém, que se esteja concluindo rápido demais que o zika é único causador do problema. “Não queremos eliminar a influência do vírus, mas questionar se não haveria mais fatores envolvidos, como outras infecções e a subnutrição, comuns na população”, diz Sandra, que é diretora da Unidade de Cardiologia Materno-Fetal do Real Hospital Português de Beneficência de Pernambuco. “Precisamos conhecer bem com o que estamos lidando.”
As pesquisas epidemiológicas só estão começando. Na Paraíba, o grupo de Sandra participa de um estudo com pesquisadores dos Centros de Controle e Prevenção de Doenças (CDC) dos Estados Unidos e do Ministério da Saúde que tem como objetivo verificar o risco de mulheres infectadas terem filhos com microcefalia. Em São Paulo, pesquisadores da Rede Zika, consórcio de cerca de 40 grupos de universidades e institutos de pesquisa paulistas, financiado pela FAPESP, realizarão um estudo semelhante.
Os resultados levarão meses para serem conhecidos. Segundo Massad, também são necessárias mais pesquisas e mais longas – que acompanhem toda a população e verifiquem qual proporção das gestantes é infectada pelo vírus e tem filhos saudáveis ou com problemas.
014-021_Zika e microcefalia_241-03
Artigos científicos
SOARES DE ARAÚJO, J. S. et al. Microcephaly in northeast Brazil: a review of 16 208 births between 2012 and 2015. Bulletin of the World Health Organization. 4 fev. 2016.
ASHWAL, S. et al. Practice parameter: evaluation of the child with microcephaly (an evidence-based review). Neurology. v. 73. p. 887-97. 2009.
VICTORA, C. G. et al. Microcephaly in Brazil: how to interpret reported numbers?Lancet. 13 fev. 2016.

sexta-feira, 18 de março de 2016

AUSÊNCIA DE SANEAMENTO, ACUMULO DE LIXO, LAMA.......E OUTROS PROBLEMAS DE ORDEM SOCIAL CONTRIBUEM PARA AUMENTO NA INCIDÊNCIA DE LEPTOSPIROSE


DISPONÍVEL:http://revistapesquisa.fapesp.br/2016/02/19/mais-risco-de-leptospirose/
ACESSO:18/03/2016 as 09:47h



Sujeitas a alagamentos e sem acesso a saneamento básico, as favelas são áreas em que o risco de contrair leptospirose é reconhecidamente elevado. Mas esse risco não é sempre igual. Certas áreas podem apresentar uma taxa de transmissão maior dessa infecção, provocada por uma bactéria encontrada com frequência na urina de roedores. A fim de identificar os fatores que aumentam a transmissão, pesquisadores da Fundação Oswaldo Cruz (Fiocruz) na Bahia, trabalhando com equipes dos Estados Unidos e da Inglaterra, acompanharam durante quatro anos cerca de 2 mil moradores da favela Pau da Lima, uma área em que a leptospirose é endêmica em Salvador. Analisando os casos de infecção ocorridos no período, os pesquisadores constataram que a transmissão de leptospirose é influenciada tanto por características ambientais como sociais. As famílias que vivem nas áreas de relevo mais baixo e próximo a córregos, em geral menos valorizadas, correm mais risco de ser contaminadas. O risco também é maior para adultos, jovens e do sexo masculino, em especial os que trabalham com coleta de lixo ou construção e estão mais expostos à lama, ao solo e a outros materiais contaminados (PLoS Neglected Tropical Diseases, 15 de janeiro).


A FLORA CONTRA A FAUNA

DISPONÍVEL:http://revistapesquisa.fapesp.br/2016/02/19/plantas-contra-o-mosquito/?cat=tecnociencia
ACESSO: 18/03/20156 as 09:44h



O óleo extraído dos frutos e sementes da sucupira-branca, uma árvore do Cerrado brasileiro, e o suco das folhas do sisal, uma planta originária do México e cultivada no Brasil para extração de fibras, possuem propriedades capazes de eliminar totalmente as larvas do Aedes aegypti, o mosquito transmissor da dengue, zika e chikungunya, de acordo com dois grupos de pesquisadores brasileiros. O óleo da sucupira (Pterodon emarginatus) foi utilizado por pesquisadores das universidades federais do Amapá (Unifap), Goiás (UFGO) e Fluminense (UFF) para desenvolver uma nanoemulsão que diluída em água funciona como larvicida. O estudo foi financiado pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e pela Fundação de Amparo à Pesquisa do Estado do Amapá (Fapeap) e publicado na revista Plos One de 7 de janeiro. O produto que eles concluíram não utiliza solventes no preparo e não é tóxico ao ambiente ou para seres humanos. O mesmo princípio vale para o larvicida desenvolvido com folhas de sisal (Agave sisalana) por pesquisadores da Universidade Federal da Paraíba (UFPB) e Embrapa Algodão, de Campina Grande (PB). De acordo com os pesquisadores, o suco ataca o intestino das larvas e as elimina na totalidade. Eles fizeram o mesmo teste em outras fases do inseto, como ovo, pupa e adulto, e o produto não teve efeito. A explicação é que a larva se alimenta da solução e provavelmente morre de indigestão com o produto. Para ser disponibilizado ao mercado, o larvicida deverá ser oferecido na forma de pó para diluição em água porque o suco in natura se degrada rapidamente. A pesquisa teve as parcerias do Sindicato das Indústrias de Fibras Vegetais do Estado da Bahia e da Organização das Nações Unidas para Agricultura e Alimentação (FAO).

Rejeitos da minerção usados na construção

DISPONÍVEL:http://revistapesquisa.fapesp.br/2016/02/19/rejeitos-da-mineracao/?cat=tecnociencia
ACESSO:18/03/2016 as 9:31h



Soluções para os rejeitos de mineração como aqueles que provocaram o acidente em Mariana, da barragem da empresa Samarco, foram apresentadas por pesquisadores da Universidade Federal de Minas Gerais (UFMG) antes mesmo de ocorrer o problema ambiental que atingiu moradores da região e o rio Doce. Sob a coordenação dos professores Evandro da Gama e Abdias Gomes, eles conseguiram terminar em 2015, antes do desastre ambiental, uma casa com 46 metros quadrados (m2) com produtos originados de rejeitos e estéreis da mineração de ferro. O rejeito é o que sobra do processamento do minério de ferro e o estéril são rochas que ficam junto com o itabirito, a rocha que contém o minério. Os dois são estocados nas barragens. “Tirando telhas, vidros, pisos internos e portas, tudo pode ser feito com os materiais que sobram da mineração”, diz Evandro. “Nós desenvolvemos um forno de calcinação chamado Flex, que calcina a poeira e a transforma em micropartículas que depois serão transformadas em areia, blocos, vigas, pedra e cimento para a construção civil”, explica o pesquisador. Evandro coordena o Laboratório de Geotecnologias e Geomateriais do Centro de Produção Sustentável da UFMG, em Pedro Leopoldo (MG). Evandro garante que o aproveitamento dos rejeitos e dos estéreis tornaria desnecessárias as grandes barragens não só da mineração de minério de ferro como também de bauxita, ouro, fosfato e calcário. Outra vantagem é que o material rejeitado processado e utilizado na construção civil deixa as casas menos quentes e com paredes que absorvem menos água.

Produzidos artificialmente, quatro elementos químicos passam a integrar a tabela periódica; segue a busca por outros, mais estáveis

DISPONÍVEL:http://revistapesquisa.fapesp.br/2016/02/19/a-procura-dos-numeros-magicos/?cat=ciencia
ACESSO: 18/03/2016 as 09:13h



O ano de 2016 começou com os jornais noticiando a redecoração das paredes dos laboratórios de química em todo o mundo. É que, de um momento a outro, ficaram desatualizados os pôsteres exibindo a famosa tabela periódica, a lista que organiza os elementos químicos conhecidos segundo suas características e propriedades. Em um comunicado à imprensa no dia 30 de dezembro de 2015, a União Internacional de Química Pura e Aplicada (Iupac) e a União Internacional de Física Pura e Aplicada (Iupap) reconheceram oficialmente a existência de quatro elementos químicos descobertos nos últimos anos. São os elementos de número 113, 115, 117 e 118, ainda sem um nome oficial, que se somam aos 114 identificados anteriormente.
Os novos elementos químicos são chamados de superpesados porque abrigam em seu núcleo um número elevado de prótons (partículas de carga elétrica positiva), muito superior ao dos elementos químicos encontrados na natureza. É esse conjunto de prótons, o chamado número atômico, que distingue um elemento químico do outro e define muitas de suas características. Por exemplo, o carbono, que constitui a maior parte da massa dos seres vivos, abriga em seu núcleo apenas seis prótons. À temperatura ambiente e puro, o carbono forma cristais que podem ser negros e macios, caso da grafite, ou transparentes e duro, como o diamante, dependendo de como os átomos estão geometricamente organizados. Já o elemento químico natural mais pesado, o urânio, é um sólido metálico bastante denso e radiativo. Tem 92 prótons e, ainda assim, é bem mais leve que os quatro acrescentados agora à tabela periódica.
Os novos elementos são dificílimos de observar e não devem existir espontaneamente na natureza – ao menos, não por muito tempo. Por terem núcleos superpesados, são tão instáveis e fugazes que se desfazem em frações de segundo. A existência deles só pôde ser confirmada por meio de uma série de experimentos realizados ao longo da última década.
Um dos poucos laboratórios capazes de fabricar esses elementos está no Instituto Riken, no Japão. Foi lá que, em 2004, identificou-se o elemento 113. Outros laboratórios com a mesma capacidade estão no Instituto Conjunto para Pesquisa Nuclear, em Dubna, na Rússia, e em centros nos Estados Unidos. Uma colaboração entre uma equipe de Dubna e pesquisadores norte-americanos, a maioria do Laboratório Nacional Lawrence Livermore, produziu o elemento 115 em 2004, o 118 em 2006 e o 117 em 2010.
Com os quatro novos elementos químicos, somados aos elementos 114 e 116, cuja existência foi reconhecida em 2011, finalmente foram preenchidos todos os espaços vagos na sétima linha da tabela periódica. “Só nos últimos 50 anos, 17 novos elementos químicos foram acrescentados à tabela, do 102 ao 118”, diz o físico Edilson Crema, do Instituto de Física da Universidade de São Paulo (USP).
059-061_Tabela periódica_240-01
“Quando o químico francês Antoine Lavoisier publicou em 1789 o Tratado elementar de química, considerado um marco da química moderna, a obra listava apenas 33 elementos”, observa o químico e historiador da ciência Carlos Alberto Filgueiras, da Universidade Federal de Minas Gerais (UFMG). Naquela época a identificação de novos elementos químicos dependia do desenvolvimento de produtos e métodos de extração para estudar os minerais. “A análise das propriedades de novos minerais muitas vezes revelava a presença de um elemento químico até então desconhecido”, explica.
A tabela periódica só surgiria no final dos anos 1860. Os químicos já haviam então percebido que os elementos, enfileirados em ordem crescente de massa atômica (a soma de seus prótons e nêutrons), formavam séries com propriedades físicas e químicas semelhantes, que se repetiam periodicamente ao longo da fila. A partir dessas observações, o químico russo Dmitri Mendeleev ordenou os 65 elementos identificados até então no que chamou de tabela periódica dos elementos químicos. Ele previu a existência de outros, como o gálio e o germânio, só descobertos anos depois.
Depois de preencherem quase todas as lacunas da tabela periódica entre o hidrogênio, que tem 1 próton, e urânio, com 92, começou-se a usar aceleradores de partículas nos anos 1940 para tentar produzir elementos químicos mais pesados que o urânio. Os primeiros elementos químicos sintéticos eram formados pela adição de um nêutron, que, ao aderir ao núcleo, converte-se em um próton, liberando um elétron e um neutrino. Essa estratégia funcionou até o férmio, que tem 100 prótons. A partir daí, os elementos pesados passaram a ser criados pela colisão e fusão de dois núcleos mais leves.
A produção desses elementos exige um ajuste fino entre as massas dos núcleos e a energia com que são lançados uns contra os outros. É que a colisão tem de ocorrer com energia suficiente para vencer a força de repulsão entre os núcleos, que têm carga elétrica positiva. Mas a energia não pode ser elevada demais a ponto de impedir a formação de um núcleo maior e estável, ainda que por instantes. O objetivo dos físicos não é apenas fabricar elementos químicos novos. Essa é também uma forma de testar as teorias sobre como prótons e nêutrons interagem e a matéria se comporta num nível ainda mais elementar. Essas teorias explicam como os elementos mais leves – como hidrogênio, hélio e lítio – se formaram na explosão que teria dado origem ao Universo, o Big Bang, e depois produziram os demais elementos por fusão nuclear no interior de estrelas e durante as explosões que as extinguem.
O núcleo dos átomos é uma região em constante tensão. Os prótons se repelem mutuamente por terem carga elétrica de mesmo sinal, positiva. Só se mantêm unidos pela ação de uma força contrária, de atração: a força nuclear forte. Esse equilíbrio entre essas forças é bastante delicado. Segundo Crema, os núcleos, além de prótons, contêm certo número de nêutrons, partículas eletricamente neutras. “Os nêutrons são uma espécie de estabilizadores nucleares”, diz. “Núcleos com muitos prótons exigem um número ainda maior de nêutrons em relação ao número de prótons, o que torna mais difícil formar núcleos superpesados.”
Uma teoria chamada de modelo de camadas propõe que, no núcleo dos átomos, os prótons e os nêutrons se encontram organizados em camadas concêntricas, cada uma delas comportando um número máximo de partículas – o chamado número mágico. De acordo com esse modelo, quanto mais completa a camada externa de um núcleo, mais estável ele é. Essa ideia, em princípio, explica por que alguns núcleos pesados se desmancham facilmente enquanto outros existem por mais tempo. Os físicos esperam fabricar elementos contendo números mágicos de partículas. Eles teriam chance de se manter estáveis por vários anos e permitiriam iniciar uma oitava ou até mesmo nona linha na tabela periódica. “Mas isso”, diz Crema, “ainda é só conjectura e esperança”.
059-061_Tabela periódica_240-02

quarta-feira, 16 de março de 2016

FilosoQuímica #1 Distribuição eletrônica pelo Diagrama de Pauling - func...

Assista a explicação do DIAGRAMA DE RICHER-SUTER.

ACESSE:
https://youtu.be/i_TJKIIKDzM

O Diagrama de Pauling sempre é válido? Conheça o Digrama de Rich-Suter

DISPONÍVEL: http://universidadedaquimica.com.br/artigos/diagrama-pauling-rich-suter/
ACESSO: 16/03/2016 as 11:44h



Um belo padrão

Todo aluno de química utiliza o velho e bom Diagrama de Pauling para realizar a distribuição eletrônica dos elementos. Esse Diagrama, que o próprio Linus Pauling nunca reclamou a autoria, é uma forma simples e rápida de determinar a estrutura eletrônica dos átomos, no entanto, muitos o utilizam mesmo sem saber sua origem, ou seu significado. Alguns acham que o Diagrama é uma consequência direta do modelo atômico de Bohr, o que é um grande equívoco, uma vez que o belo e fantástico Modelo de Bohr (porém falho) não compreende o conceito de orbitais. E o Diagrama de Pauling nada mais é do que um fila de energia dos orbitais, onde o de mais baixa energia é o orbital 1s, seguindo pelo 2s, 2p, 3s e assim por diante. A construção do diagrama tem uma origem híbrida, baseada tanto na teoria quanto dos resultados experimentais. Seu fundamento pela teoria está em sua própria estrutura, porque o que simplesmente representamos como 1s, 4p, 5d … nada mais são do que funções matemática advindas da mecânica quântica. Os resultados experimentais orientam a ordem energética, pois indica claramente que orbitais do mesmo nível, como 2s e 2p, não possuem a mesma energia (no caso das funções de onda do hidrogênio, onde a mecânica quântica é exata, esses orbitais tem a mesma energia); mostra que o orbital 4s tem energia inferior ao 3d, além de outros casos análogos (conclusão fundamentada por resultados experimentais); omite de orbitais teoricamente existentes, porém sem observação experimental como o 5g, 6h, e outros.
Não restam dúvidas sobre a praticidade, e a aplicabilidade desse diagrama. Sua importância é tamanha que, em qualquer nível de ensino de química, do médio à pós-graduação, seja nas aulas expositivas, seja em livros acadêmicos, ele ainda é utilizado. No entanto, deve ser utilizado com cautela. Por que? Nós utilizamos, e ensinamos, esse diagrama como uma referência a qual todos os elementos devem seguir. Mas será que a natureza, assumindo que o orbitais de fato existem, seria tão obediente e previsível assim? TODOS os mais de 110 elementos que conhecemos, sendo natural ou artificial, iriam obedecer esse padrão? É razoável que não...… os elementos artificiais, mais pesados, com tempo de vida curto, dificilmente obedeceriam alguma regra. Mas.…os mais comuns, os elementos do dia-a-dia, devem obedecer. Será mesmo?

Cromo, cobre e seus familiares

Podemos dar uma olhada em dois elementos muito comuns, o cobre e o cromo, que simplesmente não obedecem o Diagrama. Abaixo temos a configuração eletrônica teórica, ou seja, a prevista seguindo o diagrama, e a real, de acordo com os dados experimentais.
tabela1
Esse é um caso bem conhecido, e a resposta padrão para ele é dizer que:
Como os orbitais d são degenerados, o ideal é que todos tenham o mesmo preenchimento, seja parcialmente preenchido, seja totalmente preenchido, a para isso, existe a transferência interna de um elétron do orbital s para o orbital d
De fato, se os orbitais d têm a mesma energia, então como podemos ter quatro orbitais parcialmente preenchidos, e um “vazio”, e os cinco serem idênticos do ponto de vista energético? Por isso gerar um “desiquilíbrio energético”, parece que a natureza seguiu uma distribuição mais simétrica no caso do cobre e do cromo. Até que essa explicação funciona bem, porque o mesmo é observado para o  molibdênio, que é um “parente” do cromo, e para a prata e o ouro, que são análogos ao cobre. Normalmente vai até ai nossa explicação sobre distribuição eletrônica. Falamos que o Diagrama de Pauling é o modelo perfeito, mas devido a essas “circunstâncias energéticas”, a família do cobre e a família do cromo não o obedecem. Mas nem todos os membros de uma família seguem a tradição! Quando olhamos para a configuração eletrônica do tungstênio, que deveria seguir o padrão do cromo e do molibdênio, percebemos que ele segue a distribuição tradicional de Pauling. E ai?

São muitos os rebeldes!

Como explicamos o caso do obediente tungstênio? … Quando olhamos com um pouco mais de atenção observamos que outros elementos não obedecem ao Diagrama, e nem tem sua configuração eletrônica contemplada pela mesma explicação do caso do Cr e do Cu. Vejam os casos abaixo.
tabela2
Viram? Nióbio, rutênio, ródio, paládio, platina, além de uma grande número de lantanídeos e actinídeos (não mostrados) desobedecem abertamente o Diagrama de Pauling!!! Serão todos esses elementos exceções? Quando explicamos isso em sala de aula chamamos atenção a esses casos? Ou varremos para baixo do tapete, não os mencionamos, e torcemos para que nenhum aluno pergunte sobre eles? Quando perguntam, falamos simplesmente que são exceções?
Não, esses casos não são exceções! Essa é a realidade! O bom Diagrama funciona bem para uma série de elementos, em especial, os representativos, mas falha ao descrever a estrutura eletrônica de vários metais. A natureza nunca foi tão obediente mesmo … mas não é por isso que o Diagrama não tenha o seu mérito. Mas ai? Só isso? O Diagrama de Pauling não funciona para esses elementos e não tem nenhuma explicação para essas observações?

Do Facebook ao Diagrama de de Rich-Suter

Como a maioria dos meus colegas de profissão, eu passava por cima desses casos … até que em uma discussão num grupo de professores de química no Facebook, um colega perguntou como explicávamos esses casos. Vários, incluindo eu, deram suas opiniões sobre isso – nada muito diferente do que está descrito até agora nesse post. Mas outro colega, que eu infelizmente não lembro o nome, sugeriu olharmos para o Diagrama de Rich-Suter.
Até o momento, eu nunca havia ouvido falar nesse diagrama, e decidi procurar na literatura. Para o meu espanto, achei um artigo da Química Nova, escrito por professores da UFRJ (dois deles eu conheço pessoalmente), onde faziam a apresentação desse diagrama como uma “alternativa elegante” para explicarmos os casos onde o Diagrama de Pauling falha, e ao mesmo tempo criticavam como essa ferramenta sequer é citada nos livros mais comuns de Química Inorgânica!
Após ler esse artigo procurei o artigo original do Rich e do Suter, mas não tive acesso. É um artigo do Journal Chemical Education, de 1988, mas infelizmente a Capes não assina esse valioso periódico. Mas pelo artigo da Química Nova deu para entender como funciona esse diagrama, e é isso que eu tentarei explicar agora.

Entendendo o Diagrama de Rich-Suter

Hoje, e já há algum tempo, temos métodos computacionais para resolver, com aproximações, a função de onda de Schrödinger para átomos polieletrônicos. Esses métodos nos fornecem, dentre outras coisas, a energia dos orbitais atômicos. O que o Rich e o Suter fizeram foi aplicar um desses métodos (não sei qual porque não consegui acesso ao artigo original) a cada um dos elementos das séries de transição, e avaliar a energia dos orbitais ns (n-1)d (no caso da primeira série seria 4s3d, da segunda 5s4d, e da terceira 6s5d). Os resultados obtidos nesses casos são mais confiáveis que a série Energética de Pauling, e se tivessem uma versão hoje, seriam ainda mais confiáveis. A principal característica desses diagramas é que a energia dos elétrons de spin α e spin β, com a mesma parte espacial da função de onda, não é a mesma. Isso significa que os dois elétrons do orbital 4s, por exemplo, por terem momento angular de spin diferentes, apresentam energia diferente. Isso pode soar um pouco estranho, mas quem conhece o mundo da Modelagem Molecular sabe que esse é uma forma padrão dos softwares resolverem as Funções de Onda. São os chamados métodos irrestritos, e são bem aceitos pela comunidade acadêmica especializada na área.
Tá, mas… e ai? Como esse diagrama desconhecido resolve o problema do bom e velho Diagrama de Pauling?
Abaixo eu tenho uma figura adaptada do digrama de Rich-Suter para a primeira e a segunda série de transição.
rich-suter
A curvas avermelhadas representam a energia dos orbitais s, enquanto que as curvas azuladas se indicam a energia dos orbitais d. Na verdade, cada curva dessas é um interpolação de pontos, que representam a energia de cada orbital. No eixo x tem-se a carga nuclear. Percebam que em todos os casos a energia dos orbitais diminuem com o aumento da carga nuclear, afinal esses ficam mais próximos do núcleo, e portanto mais estabilizados. Entretanto, a taxa com que os orbitais d se estabilizam é maior do que os orbitais s. Uma forma racional de se entender isso é que, os orbitais d, para qualquer série de transição, estão mais próximos do núcleo do que os orbitais s representados, e portanto eles sofrem maior influência com o aumento da carga nuclear. Na verdade, ai reside o segredo do Diagrama de Rich-Suter. Para cada átomo a energia dos orbitais d e s são diferentes, às vezes seguem a sequência de Pauling, e isso acontece com o primeiros elementos de cada série, às vezes o comportamento é completamente oposto (tudo isso obtido pelos cálculos quânticos computacionais). Na hora de fazermos a distribuição eletrônica, devemos primeiro adicionar os elétrons nos orbitais de mais baixa energia, de acordo com o digrama, para então adicionar nos de mais alta energia (seguindo o princípio de AufBau). Antes de fazermos alguns exemplos, tenho de chamar atenção a um detalhe importante. Um orbital 4sα só pode representar um elétron, porque no 4s temos apenas um elétron com spin α (o mesmo vale para o 4sβ). No entanto, um 3dα representa 5 elétrons degenerados, pois em cada subnível d temos até 5 elétrons com spin α, e os outros 5, se for o caso, serão de spin β. Dito isto, vamos pegar três exemplos, o vanádio, que obedece Pauling, o cobre que não obedece, mas sabemos explicar, e o rutênio que é um dos casos críticos.
Entre os orbitais s e d, o vanádio tem 5 elétrons. O orbital de mais baixa energia é um 4sα, seguido de um 4sβ. Esses dois elétrons representam a configuração 4s2. Sobram 3 elétrons que serão alocados no próximo orbital de mais baixa energia que é o 3dα. Isso leva à configuração 4s23d3, seguindo o diagrama.
No caso do cobre, com 11 elétrons no total, a posição relativa dos orbitais está mudada. A carga nuclear sobre os elétrons é tão forte que provoca esse reordenamento dos orbitais. Então … vamos lá. Ficam 5 elétrons no 3dα, que é o mais estável. O próximo orbital é o 4sα, que fica com um elétrons. Os 5 elétrons restantes vão para o próximo orbital na fila de energia, que é o 3dβ. A configuração do cobre tem portanto, 10 elétrons no orbital 3d e apenas 1 no 4s, como havíamos concluído com a explicação do “desequilíbrio energético”.  Mas será que o diagrama é capaz de explicar os demais átomos? Vamos ao rutênio então.
O rutênio tem 8 elétrons, e possui a distribuição dita “anômala”. Pelo diagrama de Pauling sua configuração seria 5s24d6, mas sua configuração real é 5s14d7 (e neste caso, não vale a explicação dada ao cromo e ao cobre). Dos 8 elétrons, 5 já ficam no 4dα, seguido de 1 elétron no 5sα. Os dois elétrons restantes vão para o 4dβ. Pelo diagrama de Rich-Suter a configuração é 5s14d7, idêntica à experimental. Legal, não é?
Vale ressaltar que o diagrama falha em prever a configuração de vários elementos do bloco f. Isso se deve ao método quântico utilizado não ser muito adequado para prever a energia desses orbitais. Mas isso não é de admirar. Hoje, em 2015, ainda não temos um método quântico computacional tão bom assim, imagina em 1988?
Mas ai? Teremos coragem de falar desse Diagrama em nossas aulas, em especial na Graduação? No Ensino Médio também é válido, mesmo sabendo que os alunos não tem base para isso. É melhor eles saberem que tem uma resposta, mas que no momento não saberiam compreendê-la, do que jogar no grande saco das “exceções”. É uma pena que uma ferramenta versátil como essa não esteja nos livros mais comuns. Mas como professores não devemos ficar presos apenas aos livros. Devemos ler artigos, procurar na literatura, ver o que tem sido feito de novo. Queremos essa independência de nossos alunos, logo devemos ser o exemplo para eles!!!




Sobre o autor





sábado, 12 de março de 2016

Nanopartículas de sílica podem aumentar o volume de óleo e gás extraídos dos reservatórios

DISPONÍVEL: http://revistapesquisa.fapesp.br/2016/02/19/pocos-de-petroleo-mais-produtivos/?cat=tecnologia
ACESSO: 12/03/2016 as 10:59h


     Empregar a nanociência para elevar a produtividade de poços de petróleo, extraindo de reservatórios submarinos e continentais o óleo que não é recuperado pelos métodos tradicionais, é o objetivo dos estudos do físico Caetano Miranda, professor do Departamento de Física de Materiais e Mecânica do Instituto de Física da Universidade de São Paulo (IF-USP). A ideia central do pesquisador, que recorre à modelagem computacional para simular o interior de poços de petróleo em escala micro e nanométrica, é usar nanopartículas de óxidos, como a sílica, impregnadas com surfactantes – substâncias utilizadas pelas empresas petrolíferas na exploração das reservas – para extrair o petróleo aderido às rochas que formam os reservatórios. Hoje, apenas 35% do óleo contido nos poços é extraído, em média. A finalidade da nova técnica é dobrar esse percentual.
     Para compreender como as nanopartículas de sílica irão atuar na exploração petrolífera, é preciso entender que tanto o óleo quanto o gás não estão armazenados em bolsões ou grandes cavernas subaquáticas ou subterrâneas. O óleo e o gás se acumulam em espaços vazios de rochas sedimentares porosas, como se fossem água em uma esponja encharcada. Quando o poço é perfurado, parte do óleo flui naturalmente, por causa da diferença de pressão – mais elevada no reservatório e menor na superfície. “Nessa recuperação primária, são extraídos em torno de 5% a 15% do total de hidrocarbonetos armazenados no depósito. Esse percentual varia conforme certos fatores, entre eles o tipo de rocha que forma o reservatório e características do óleo, como sua viscosidade, por exemplo”, explica Miranda.
     No momento em que o poço começa a reduzir sua produção, as petrolíferas injetam nele água, gás carbônico (CO2) e nitrogênio para deslocar o petróleo ainda presente no reservatório. Esses fluidos são introduzidos nos poços a certa distância do local de produção e têm ação puramente mecânica, empurrando o óleo em direção à coluna de perfuração. Nesse processo de recuperação secundária do óleo chega-se à média de 35% do volume extraído na maioria dos poços do planeta.
      A partir desse ponto, se estudos das petrolíferas comprovarem que há viabilidade econômica, elas continuam explorando o reservatório, injetando no poço surfactantes para fazer o deslocamento do óleo residual. “Surfactante é um produto semelhante ao sabão que altera as interfaces entre o óleo, a rocha e a água salgada, os três componentes do sistema. Ele diminui as tensões interfaciais desses componentes nos reservatórios, modificando a viscosidade do óleo e fazendo com que se desloque mais facilmente”, explica Miranda. Essa substância, porém, apresenta dois problemas. O primeiro é o custo elevado. A petrolífera precisa usar grandes volumes de surfactante, o que implica uma complexa logística de transporte, porque a maioria dos poços se encontra em lugares remotos. O segundo problema é que surfactantes são intolerantes à alta salinidade e à elevada temperatura.Nessas condições, eles precipitam, depositando-se na superfície das rochas. Quando isso acontece, eles não alteram a viscosidade do óleo residual, essencial para sua recuperação.
      As pesquisas com uso de modelagem computacional feitas por Miranda recaem justamente na escolha do melhor material para fazer o papel de surfactante. O pesquisador estuda nanopartículas capazes de auxiliar na extração de óleo e gás retidos em nanoporos e microporos das rochas e, ao mesmo tempo, procura compreender o comportamento dessas nanoestruturas. “Não sabemos o que ocorre com o petróleo ou o gás natural quando eles estão confinados nos nanoporos. Sequer conhecemos o percentual de óleo e gás retido neles”, diz Miranda.
064-067_Petroleo_240-01       O emprego da nanociência na indústria do petróleo, segundo o professor da USP, surgiu em 2008 a partir de uma demanda da Sociedade de Engenheiros do Petróleo (SPE, na sigla em inglês) e se insere em um campo interdisciplinar mais amplo, a nanogeociência. Ela estuda os fenômenos que ocorrem em nanoescala em materiais geológicos e tenta entender os efeitos de sistemas nanoestruturados ou nanoconfinados em escalas maiores. Segundo o pesquisador, em 2008 as nanopartículas de sílica já eram usadas comercialmente em outras áreas, como biomedicina e catálise, na síntese de novos materiais. “A questão era saber como essas nanoestruturas se comportariam nas condições extremas dos reservatórios, onde a temperatura atinge 400oC e a pressão ultrapassa 200 atmosferas (atm). Precisávamos saber se seriam capazes de modificar a interação entre o óleo, a rocha e a salmoura”, explica. “Nossos estudos indicaram que as nanopartículas de sílica poderiam ser potencialmente utilizadas para extração do óleo.”
         O trabalho também teve como desafio tornar funcionais as nanopartículas de sílica com um surfactante, a fim de potencializar sua ação. “A partir de simulações moleculares, tentamos descobrir qual seria o melhor produto a ser adicionado na nanoestrutura, já que existem muitos no mercado. A nanopartícula de sílica, em si, altera a interface entre o óleo, a rocha e a salmoura, mas com o acréscimo de um surfactante essa ação fica mais eficaz”, diz Miranda. “Queremos entender por que ele altera a molhabilidade do óleo.” Molhabilidade é a capacidade de um líquido em manter contato com uma superfície sólida quando os dois são colocados juntos. “Recorremos à simulação em computador por causa do custo-benefício. Fazer os ensaios dos surfactantes nos reservatórios seria custoso e demorado demais.” No caso de funcionar com as nanopartículas de sílica, a quantidade e o custo do surfactante serão bem menores em relação ao volume utilizado sozinho.
         Outra vertente da pesquisa é estudar nanoestruturas que possam ser empregadas para “iluminar” os campos de petróleo, extraindo mais informações dos reservatórios, como, por exemplo, detalhes sobre a porosidade das rochas, os fluidos presentes nelas, a composição química e as condições de temperatura e pressão do ambiente. Essas informações são essenciais para as tomadas de decisão da equipe de engenharia de produção. O uso de nanopartículas, segundo Miranda, poderia aprimorar a resposta da ressonância magnética feita durante a perfuração – a técnica é empregada para mapeamento dos depósitos. Para isso, nanopartículas seriam injetadas no poço junto com a água, servindo como agentes de contraste. “De uma maneira geral, nossos estudos buscam uma melhor compreensão, em escala molecular, dos mecanismos e fenômenos que ocorrem em poços de petróleo. Queremos ter uma visão atomística do processo e verificar as consequências em escalas maiores”, afirma.

Códigos computacionais
       Três teses de doutorado, quatro dissertações de mestrado e mais de uma dezena de artigos foram produzidos nos últimos oito anos no âmbito das pesquisas de Caetano Miranda. Seu trabalho tem vinculação com um projeto de quatro anos financiado pela FAPESP e coordenado pelo físico Alex Antonelli, do Instituto de Física Gleb Wataghin da Universidade Estadual de Campinas (Unicamp). “Nosso projeto tem como finalidade estudar uma varidade de propriedades da matéria condensada por meio da modelagem computacional. Caetano utiliza as mesmas ferramentas que empregamos e, por isso, podemos compartilhar tanto os computadores quanto os códigos computacionais”, afirma Antonelli. “Em princípio, podemos compreender no computador, que funciona como um laboratório virtual, os processos já conhecidos e possivelmente melhorá-los de uma forma mais barata, sem ter que testar uma nova ideia na prática.”
064-067_Petroleo_240-02 
Apoio das petrolíferas
    Além da FAPESP, Miranda também recebe financiamento da Petrobras. Suas pesquisas se inserem no programa de Redes Temáticas da estatal, instituído em 2006 e executado em parceria com pesquisadores de universidades e instituições nacionais de pesquisa. “O trabalho do professor Caetano faz parte da Rede Temática Recuperação Avançada de Petróleo”, afirma a engenheira de petróleo Lua Selene Almeida, do Centro de Pesquisas da Petrobras (Cenpes). “É um estudo muito avançado e de fronteira. Ele está nos ajudando a modelar fenômenos físicos que ocorrem nos poços de petróleo numa escala bem distinta daquela que estudamos em nossos laboratórios”, diz a pesquisadora.
       Outra fonte de financiamento dos estudos vem do Advanced Energy Consortium (AEC), consórcio internacional de empresas do setor de petróleo, entre elas a anglo-holandesa Shell, a inglesa British Petroleum (BP), a norueguesa Statoil, a espanhola Repsol, a francesa Total e a Petrobras, voltado ao financiamento de nanociência aplicada à indústria do petróleo. O projeto apoiado pela AEC contou com a participação de pesquisadores da Universidade de Austin, no Texas, um importante centro de estudos no setor de óleo e gás. “Enquanto nosso grupo fazia as simulações em computador, eles se encarregavam da parte experimental”, diz Miranda, destacando que testes laboratoriais e ensaios experimentais, etapas que precedem aos experimentos com as nanopartículas de sílica nos campos de petróleo, também serão realizados em breve no IF-USP.
      “As simulações computacionais são muito mais baratas e apresentam menos riscos do que os experimentos de laboratório”, diz a química Flávia Cassiola, pesquisadora brasileira da Shell Internacional, Produção e Exploração, em Houston, nos Estados Unidos. “A indústria do petróleo tem todo o interesse que os métodos se aprimorem, proporcionando a inclusão de mais características dos reservatórios na simulação. A Shell possui vários grupos dedicados à simulação computacional em seus centros de tecnologia e inovação e o professor Caetano é a nossa referência no assunto. O trabalho dele tem nos auxiliado no desenvolvimento e aprimoramento de métodos avançados de recuperação de petróleo e gás natural”, diz Flávia.
 

Projeto
Modelagem computacional da matéria condensada: uma abordagem em múltiplas escalas (nº 2010/16970-0); Modalidade Projeto Temático; Pesquisador responsável Alex Antonelli (IFGW-Unicamp).