Notícias Ciência Tecnologia

Para a seção Notícias de Ciência e Tecnologia (sob coordenadoria do Prof. Onody)

6 de junho de 2024

O problema dos três corpos (Parte-2) – Artigo: Prof. Roberto N. Onody

Figura 1 – Visão artística do sistema estelar triplo Gliese 667 (ref. 1). Ele se encontra bem perto da Terra, a cerca de 22 anos-luz de distância, na direção da constelação de Escorpião. Hoje, no sistema Gliese 667, são conhecidos 6 exoplanetas, sendo que 3 deles se encontram em região habitável.exoplanetas, sendo que 3 deles se encontram em região habitável

Este artigo é a segunda parte do meu ensaio sobre o problema dos 3 corpos. A primeira parte você encontra aqui.

No seriado da Netflix “O problema dos três corpos” (baseado no livro de Liu Cixin) os 3 corpos fazem parte do sistema triplo de estrelas Alpha Centauri A, B e C.

As estrelas Alpha Centauri A e B têm, aproximadamente, o mesmo porte e luminosidade que o nosso Sol. Ambas estão a uma distância de 4,34 anos-luz do Sol e percorrem órbitas elípticas (em torno do centro de massa) com período de 79,7 anos.

A estrela Alpha Centauri C, mais conhecida como Proxima Centauri, se encontra a uma distância de 4,24 anos-luz e é a estrela mais próxima do Sol. É uma anã vermelha com apenas 12% da massa do Sol e 1% da sua luminosidade. Muito longe do centro de massa, seu período é enorme, cerca de 550 mil anos!

Proxima Centauri tem 2 exoplanetas conhecidos. Um deles, Proxima Centauri b, está na zona habitável e tem massa praticamente igual à da Terra. Com massa cem mil vezes menor do que Proxima Centauri e um milhão de vezes menor do que Alpha Centauri A e B, esse exoplaneta está entregue aos caprichos gravitacionais das 3 estrelas. No livro de Liu Cixin os alienígenas habitam um planeta denominado Trissolaris.

Figura 2 – Evolução temporal do problema Pitagórico dos 3 corpos. O autor utilizou a regularização de variáveis e o método de Runge-Kutta de 4ª. ordem para a integração numérica. Veja o vídeo (ref. 2)

Com 3 estrelas e 1 planeta habitado, o sistema é, de fato, um problema de 4 corpos restrito. Mas, claro, este não seria um bom título nem para o livro e nem para o seriado.

A desintegração do sistema de 3 corpos

Dependendo das posições e velocidades iniciais dos 3 corpos, é possível que o sistema venha a se desintegrar, isto é, um dos corpos venha a ser ejetado, expulso, afastando-se indefinidamente dos outros dois.

Um dos exemplos mais famosos é o chamado problema dos 3 corpos de Burraw, também conhecido como problema Pitagórico dos 3 corpos. Ele consiste em 3 corpos com massas 3, 4 e 5 (unidades arbitrárias) que se atraem gravitacionalmente. Todos estão inicialmente em repouso e posicionados nos vértices de um triângulo retângulo de lados 3, 4 e 5 (unidades arbitrárias). Problemas como esse, em que os 3 corpos têm velocidades iniciais nulas, são chamados de “queda livre” (free-fall).

No final do século 19, acreditava-se que esse sistema Pitagórico poderia apresentar soluções periódicas. Em 1913, Carl Burraw investigou o sistema e, sem os computadores de hoje, concluiu que não existia solução periódica para o problema.

De um ponto de vista matemático, o problema geral dos 3 corpos consiste em resolver um sistema de 18 equações diferenciais, acopladas e de 1ª. ordem no tempo. Como, no caso geral, não existe solução analítica, temos que recorrer ao computador para uma integração numérica.

Antes, porém, é necessário reescrever as equações em termos de variáveis mais apropriadas, num processo chamado de regularização. A regularização evita a explosão da interação gravitacional quando dois ou três desses corpos colidem.

Sabemos regularizar variáveis para colisões duplas, mas, não para colisões triplas. O teorema de Wintner demonstra que para haver uma colisão tripla é necessário, mas, não suficiente, que o momento angular do sistema seja nulo. Em outras palavras, as colisões triplas só podem acontecer em sistemas com momento angular nulo. E, mesmo nesses casos, elas podem não ocorrer já que as colisões triplas são extremamente improváveis. Para sistemas de 3 corpos em queda livre, foram estudados numericamente alguns casos em que há colisões triplas.

Figura 3 – O observatório espacial Gaia, lançado pela ESA (European Space Agency) em 2013, mapeou 20 estrelas com velocidades suficientes para sair ou entrar na Via Láctea. As setas vermelhas correspondem a estrelas sendo ejetadas da Via Láctea, as setas laranjas a estrelas provavelmente ejetadas por outras galáxias e penetrando a Via Láctea. A imagem é uma superposição artística da Via Láctea (ESA) com as posições e trajetórias reais das estrelas propostos no trabalho de Marchetti et al. (ref. 3)

Na Figura 2, vemos a evolução temporal do problema Pitagórico dos 3 corpos. (a) em t = 0, os corpos de massas 3, 4 e 5 estão em repouso nos vértices de um triângulo retângulo de lados 3, 4 e 5; (b) em t = 447, os 3 corpos executam uma coreografia complicada; (c) em t = 2.669, o corpo de menor massa (m=3) já foi ejetado, afastando-se (em linha reta) do sistema binário (m=4 e m=5) que, juntos, também se afastam, inexoravelmente, do centro de massa do sistema. O sistema de 3 corpos se desintegrou.

Em um trabalho muito interessante, Anosova e Orlov simularam em 3 dimensões um total de 9.500 sistemas de 3 corpos, com massas iguais e diferentes. Em seguida, eles fizeram um levantamento estatístico da probabilidade de desintegração dos 3 corpos como função do tempo e concluíram:

*A desintegração é um processo dominante e acontece em 85% dos casos!

*Em geral, a desintegração acontece logo após uma grande aproximação tripla dos corpos.

*A vida média desses processos disruptivos tem decaimento exponencial, lembrando muito os processos de decaimento radioativo.

*Quanto maior for o momento angular do sistema, maior será a sua vida média até a ruptura.

Usualmente, o corpo ejetado e o sistema binário têm orbitas não coplanares.

Figura 4 – A órbita periódica Butterfly I descoberta por Suvakov e Dimitrasinovic (ref. 4) em 2013. Em cima: os 3 corpos pontuais verde, vermelho e azul executam órbitas periódicas e suas respectivas trajetórias estão indicadas pelos rastos coloridos; Em baixo: as posições e velocidades iniciais no plano (x, y). O elemento do grupo livre é BAbabaBA (detalhes no material suplementar). Crédito: Ricky Reusser (ref. 5)

Geralmente, o corpo com menor massa é ejetado em alta velocidade. Buracos negros e estrelas podem formar sistemas que se desintegram com o tempo. As estrelas ejetadas podem adquirir hipervelocidades. Estima-se que, para um corpo celeste que habite a nossa região no espaço (estamos a cerca de 26 mil anos-luz do centro da Via Láctea), a velocidade de escape da Via Láctea é de aproximadamente 544 km/s.

Em 2005, foi descoberta a primeira estrela sendo ejetada a partir do halo da Via Láctea com velocidade aproximada de 853 km/s em relação ao Sol (Figura 3). A título de comparação, o Sol orbita o buraco negro supermassivo da Via Láctea com velocidade aproximada de 230 km/s.

Em busca das órbitas periódicas

Em 1890, H.Poincaré provou que o problema dos 3 corpos não é exatamente solúvel, isto é, dadas as posições e as velocidades iniciais dos corpos não é possível obtê-las num tempo posterior qualquer e expressá-las em termos de funções algébricas ou transcendentais. Além disso, ele identificou a enorme sensibilidade do sistema perante pequenas perturbações nas trajetórias dos corpos. Junto com o trabalho posterior de A.Liapunov , estavam lançadas as bases para o desenvolvimento da teoria do caos.

O conceito do caos foi popularizado na década de 1960 por K.Lorenz através do famoso ´efeito borboleta´ em que um furacão poderia se formar na América do Norte pelo simples bater das asas de uma borboleta na América do Sul. Foi também Lorenz que chamou a atenção para a importância de desenvolver algoritmos numéricos melhores posto que, em sistemas caóticos, os erros de truncagem se propagam de maneira exponencial!

No problema dos 3 corpos, no meio de uma infinidade de órbitas caóticas, encontram-se também as órbitas periódicas (tão importantes e tão desejadas pelos habitantes de Trissolaris).

Rotulando os 3 corpos por 1, 2 e 3, a descrição completa do movimento num determinado instante de tempo t é dada pelo conjunto de 6 vetores A(t)=[r1(t),r2(t),r3(t),v1(t),v2(t),v3(t)] onde os 3 primeiros são os vetores posição e os 3 últimos os vetores velocidade. O movimento é dito periódico e com período T se os 6 vetores se repetem em t+T.

Figura 5 – Em cima: órbita periódica descoberta pelo grupo de Shangai em 2018. A massa em vermelho vale metade das massas verde e azul; Em baixo: as posições e velocidades iniciais dos 3 corpos. O elemento do grupo livre é BaBAbA (veja material suplementar). Crédito: Ricky Reusser (ref. 5)

Trataremos aqui somente de órbitas periódicas planares, em que os 3 corpos permanecem sempre num mesmo plano. Para que isso aconteça, basta que todos os vetores de velocidades iniciais estejam no mesmo plano que contém os 3 corpos.  Dessa maneira, o plano de movimentação dos 3 corpos é exatamente aquele perpendicular ao vetor momento angular total (que é constante no tempo).

O estudo do caso não planar com órbitas periódicas tridimensionais é muito mais difícil. Até onde eu sei, só se conhece a solução do problema circular restrito dos 3 corpos e a órbita cônica-helicoidal descoberta por Eugene Oks (veja mais adiante). Discutiremos as órbitas periódicas em ordem cronológica de suas descobertas.

As primeiras órbitas periódicas foram encontradas por Euler (em 1767) e por Lagrange (em 1772). Elas são as únicas soluções analíticas (exatas) conhecidas e os resultados valem para quaisquer valores das massas dos 3 corpos.

Na solução de Euler, os 3 corpos evoluem de maneira colinear (veja clipe 1); na solução de Lagrange, os 3 corpos evoluem sempre formando um triângulo equilátero (veja clipe 2).

O que acontece se aplicarmos pequenas perturbações nas órbitas de Euler e de Lagrange? As órbitas de Euler são instáveis e se degeneram. A órbita de Lagrange tem regiões estáveis (quando uma das massas é muito maior do que a dos outros 2 corpos), mas, é predominantemente instável. Instabilidade é exatamente o que acontece depois de longos ensaios em simulações numéricas devido aos inevitáveis erros de arredondamento. Os corpos abandonam suas órbitas periódicas e entram no regime caótico. Para ver isso, assista ao clipe 3 (Euler) e ao vídeo 1 (Lagrange).

Graças à conservação do vetor momento linear total, podemos sempre escolher um referencial inercial que está em repouso e tem origem no centro de massa.

Após as soluções encontradas por Euler e Lagrange foram necessários mais 200 anos até que surgissem novas soluções periódicas. Em meados da década de 1970,  Broucke, Hénon e Hadjidemetriou (BHH) estudaram o caso em que os 3 corpos têm a mesma massa e se movimentam num plano (x, y).

As soluções periódicas de BHH no plano (x, y) têm as posições iniciais [(x1,0),(x2,0),(x3,0)] e velocidades iniciais [(0,v1),(0,v2),(0,v3)] , com x1+x2+x3=0 e v1+v2+v3=0.

Separei algumas das mais interessantes soluções periódicas de Broucke No clipe 4, todos os 3 corpos giram no sentido anti-horário e suas órbitas têm a forma de elos de uma corrente; no clipe 5, um dos corpos executa uma órbita circular no sentido anti-horário enquanto os outros 2 corpos percorrem, no sentido horário, um elegante trevo de 4 folhas; no clipe 6 temos uma solução periódica em que dois dos corpos seguem, de maneira subsequente, a mesma trajetória.

As soluções de Hénon são do tipo periódicas relativas, isto é, periódicas após uma rotação do plano (x, y) em torno do centro de massa. As órbitas periódicas de Broucke e Hénon são linearmente estáveis, o que significa que, perante pequenas perturbações (lineares) elas retornam à trajetória original.

Nossa próxima trajetória é a famosa e inacreditável órbita periódica que tem a forma de um oito (clipe 7). Hoje, ela é conhecida simplesmente como Figura 8. Nas simulações computacionais da Figura 8, os corpos têm posições iniciais [(-1,0),(0,0),(1,0)] e velocidade iniciais [(u, v),(-2u,-2v),(u, v)]. O momento angular total é zero. Como no caso das órbitas de BHH, a Figura 8 também é linearmente estável.

Figura 6 – (a) órbita periódica (descoberta em 2019) para 3 corpos com massas diferentes: 1, 0,8 e 0,4 (verde, azul e vermelho, respectivamente). Observe que em todos os casos os corpos vão e voltam na mesma trajetória; (b) as condições iniciais – os 3 corpos em queda livre. O elemento do grupo livre é aBaBbAbA (veja material suplementar). Crédito: Ricky Reusser (ref. 5)

Três corpos que se movimentam num plano bidimensional e evoluem no tempo, formam uma trança no espaço-tempo (2+1). Em 1993, Moore analisou este sistema de um ponto de vista topológico e encontrou a Figura 8. Em 2000, ela foi redescoberta numericamente por Chenciner e Montgomery.

No início do século 21 a busca por soluções periódicas do problema dos 3 corpos passava por dificuldades. Várias trajetórias consideradas ´novas´ eram, na verdade, redescobertas de órbitas já existentes (como no caso da Figura 8) ou meras transformações via translações e rotações. Era necessário encontrar uma maneira de classificá-las em classes ou famílias. Isso foi feito utilizando topologia e teoria de grupos.

Para não enveredar por um caminho muito complexo e matemático, preparei um material suplementar onde apresento detalhes do procedimento teórico. O leitor pode solicitar o material suplementar a onody@ifsc.usp.br. O suplemento está em pdf e será enviado por e-mail.

Em 2013, Suvakov e Dimitrasinovic da Universidade de Belgrado descobriram 13 novas famílias de soluções periódicas (veja Figura 4). Em 2014, eles publicaram um trabalho intitulado A guide to hunting periodic three-body orbits”, onde eles discutem métodos para resolver as equações de movimento do problema dos 3 corpos planar e também as técnicas e estratégias para buscar órbitas periódicas. Esse grupo de Belgrado mantém uma página com os desenvolvimentos recentes da área.

Em 2017, entra em cena o grupo de Shangai. Eles catalogaram 695 novas famílias de soluções periódicas para sistemas de 3 corpos com massas iguais e momento angular zero. Em 2018, eles encontraram mais 1.349 famílias de órbitas periódicas para um sistema triplo composto por duas massas iguais e uma diferente (Figura 5).

Em seguida, em 2019, eles obtiveram 313 órbitas periódicas para um sistema de 3 corpos em queda livre (em que todos eles têm velocidades iniciais iguais a zero, veja Figura 6). Em 2023, um grupo internacional encontrou mais 24.582 novas órbitas periódicas para esses sistemas triplos com queda livre.

Figura 7 – O planeta tem uma órbita cônica-helicoidal que vai e vem ao longo do eixo que une as estrelas que compõem o sistema binário. As estrelas rotacionam em órbitas elípticas

E, finalmente, em 2021, o grupo de Shangai determinou outras 135.445 órbitas periódicas para sistemas com 3 massas diferentes. Com um número tão grande de órbitas, eles desenvolveram uma técnica de aprendizado de máquina para um modelo de rede neural que faz a busca por soluções periódicas.

Na minha opinião, apesar do grande esforço teórico e computacional realizado na última década, é muito improvável que as centenas de milhares de órbitas periódicas que já foram obtidas encontrem alguma realização no mundo real.

Há que se alterar duas hipóteses que foram assumidas para essas órbitas. Em primeiro lugar, os corpos celestes não são pontuais (e, em geral, nem esféricos) de forma que as forças gravitacionais devem ser calculadas por integração levando em conta a distribuição de densidade de cada corpo. Em segundo lugar, e mais importante, a imposição de uma órbita plana para os 3 corpos é uma demanda exagerada e inverossímil. Sim, porque por 3 pontos passa um único plano, mas, a condição de que os três vetores velocidade estejam, simultaneamente, num mesmo plano deve ser muitíssimo raro na natureza.

Aproveitando o que acabei de escrever acima, deixe-me apresentar uma órbita periódica tridimensional e estável que foi descoberta em 2015. Trata-se de um sistema de 3 corpos em que um planeta interage gravitacionalmente com um binário de estrelas (Figura 7). Ao longo do eixo interstelar, o planeta executa uma órbita cônica-helicoidal que oscila entre as duas estrelas. Veja no artigo de E. Oks o intervalo dos parâmetros gravitacionais no qual o sistema é periódico e estável.

Considerações finais

Indubitavelmente, o problema dos 3 corpos atraiu e continuará atraindo por muito tempo, um grande esforço teórico e computacional de muitos físicos e matemáticos talentosos. Confesso que fiquei surpreso com a beleza e a riqueza do problema dos 3 corpos. Abordar este tema foi um trabalho muito gratificante.

Por último, não posso deixar de mencionar o trabalho bacana do estudante de astrofísica da Universidade de La Laguna (Espanha), Pere Rosseló. Ele preparou um gif (clique aqui) com 20 órbitas periódicas que, pela sua estética e mesmerismo, serve como um cartão de visitas para o problema dos 3 corpos.

Clique abaixo para acessar as referências citadas nas figuras

ref. 1

ref. 2

ref. 3

ref. 4

ref. 5

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia”, clique aqui

Para acessar todo o conteúdo do site “Newsletter – Ciência em Panorama”, clique aqui

Assessoria de Comunicação – IFSC/USP

23 de abril de 2024

O problema dos três corpos (Parte-1) – Artigo: Prof. Roberto N. Onody

A Netflix lançou no mês de março o seriado “O problema dos três corpos”. Nele, uma astrofísica chinesa consegue contacto com uma civilização alienígena que vive em um planeta iluminado por três sóis. Percorrendo uma trajetória caótica, o planeta ora é incinerado ora é congelado (Figura 1).

Figura 1 – Visão artística do sistema estelar triplo Gliese 667. Ele se encontra bem perto da Terra, a cerca de 22 anos-luz de distância, na direção da constelação de Escorpião. Hoje, no sistema Gliese 667, são conhecidos 6 exoplanetas, sendo que 3 deles se encontram em região habitável

O seriado se baseia na trilogia escrita pelo engenheiro chinês Liu Cixin. É uma ótima oportunidade para fazer contacto com a cultura chinesa e com o problema de três corpos, que há mais de 300 anos desperta o interesse e a imaginação de físicos e matemáticos.

O problema dos três corpos é um tema clássico e muito frequente na mecânica celeste. Considere um sistema em que 3 corpos se atraem mutuamente de acordo com a lei da gravitação de Newton. Dadas as posições e velocidades iniciais dos 3 corpos, será que é possível calcular, exata e analiticamente, esses valores num instante posterior qualquer? Salvo raras exceções, a resposta é não, pois o sistema é inerentemente caótico.

Figura 2 – Retrato de Isaac Newton em 1689, aos 46 anos. Ele formulou as 3 leis da mecânica e a teoria da gravitação universal em seu formidável livro “Philosophiae Naturalis Principia Mathematica”

Num sistema caótico, duas configurações iniciais mesmo que infinitesimalmente próximas, podem evoluir para configurações finais muito diferentes. Por exemplo, no problema dos 3 corpos, é possível que um deles seja expulso, ejetado, de maneira a afastar-se indefinidamente dos outros, reduzindo o sistema a um problema de 2 corpos (que tem solução analítica exata).

O estudo do problema dos 3 corpos trouxe resultados que são muito importantes. Entre eles, a utilização do efeito de estilingue gravitacional para as viagens espaciais, a determinação das trajetórias de asteróides e cometas que se aproximam da Terra e a utilização dos pontos de Lagrange para um posicionamento seguro dos nossos telescópios espaciais.

Considerações Iniciais

O sistema solar é estável? Era essa a pergunta que se fazia o matemático francês Henry Poincaré quando, no final do século 19, se inscreveu numa competição de mecânica celeste em comemoração ao sexagésimo aniversário do rei Oscar II da Suécia.

A questão proposta na competição dizia: “para um sistema com n partículas atraindo-se mutuamente segundo a lei da gravitação de Newton, supondo que duas dessas partículas nunca colidam, encontre uma expansão em série uniformemente convergente no tempo das coordenadas de cada partícula em termos de funções conhecidas”.

Poincaré enviou para a comissão julgadora um calhamaço de 300 páginas, ganhou a competição, mas não encontrou a solução. Entretanto, seu trabalho deu início a chamada teoria do caos.

A solução do problema de 3 corpos, como proposto na competição, foi obtida em 1912 pelo matemático finlandês Karl Sundman.  A colisão de 2 corpos corresponde a presença de singularidades nas equações diferenciais. Sundman eliminou essas singularidades por um processo chamado de regularização. Ele apresentou sua solução na forma de uma série de Puiseux. A convergência é absurdamente lenta, precisando levar em conta 108.000.000de termos da série!

A aplicação da 2ª. lei de Newton ao problema dos 3 corpos resulta em um conjunto de 9 equações diferenciais de 2ª. ordem acopladas. Podemos integrar essas equações numericamente. Com os computadores modernos cada vez mais rápidos, podemos fazer previsões bem longínquas no tempo mesmo no caso das configurações caóticas.

Figura 3 – As trajetórias permitidas no problema de 2 corpos são as chamadas curvas cônicas: círculo, elipse, parábola e hipérbole. Todas elas podem ser obtidas pela intersecção de um plano com um cone, daí seu nome. Qual dessas curvas os corpos vão percorrer depende da energia mecânica total inicial do sistema

Foi em 1687, no seu trabalho monumental: “Philosophiae Naturalis Principia Mathematica”, que Isaac Newton propôs a Teoria da Gravitação Universal e as suas três Leis de Movimento (Figura 2).

Na teoria da gravitação de Newton, duas partículas pontuais de massas m1 e m2 se atraem mutuamente com forças diretamente proporcionais ao produto dessas massas e inversamente proporcionais ao quadrado da distância entre elas. Essas forças têm a direção da reta que une as partículas e sentidos opostos.

Se os corpos não forem pontuais, mas sim, macroscópicos, deve-se utilizar cálculo integral e diferencial e levar em conta o caráter vetorial da força.

Na sua formulação original, a teoria pressupunha que a força gravitacional agia instantaneamente entre dois corpos, quaisquer que fossem as distâncias entre eles. Mas, como hoje sabemos que o campo gravitacional se propaga com a velocidade da luz, o cálculo da força gravitacional precisa levar em conta a distância entre os corpos e o correspondente atraso da informação.

A teoria da gravitação de Newton explicou, com total sucesso, as três leis empíricas obtidas pelo astrônomo Johannes Kepler ao investigar o sistema solar. Dessa forma, a teoria da gravitação de Newton ganhou o status de lei da gravitação de Newton. Entretanto, já no final do século XIX, a exatidão dessa teoria estava sendo questionada. Vejamos por quê.

Todos os planetas do sistema solar executam órbitas elípticas. O periélio é o ponto dessas órbitas em que o planeta está mais próximo do Sol. E o periélio de todos os planetas precessiona, isto é, gira com o passar do tempo. Por exemplo, o periélio da Terra ocorreu no dia 02 de janeiro de 2024 quando a direção Terra-Sol apontava para a constelação de Capricórnio. Daqui há 13 mil anos, ela terá girado 180 graus e apontará na direção da constelação de Câncer.

Levando-se em conta a perturbação gravitacional que os planetas exercem uns sobre os outros, as velocidades de precessão dos planetas puderam ser calculadas. Todas coincidiam, razoavelmente, com os resultados observacionais, exceto para o planeta Mercúrio. O valor calculado para Mercúrio era de 531 segundos de arco por século e o valor observado era de 574 segundos de arco por século (ou 1 grau a cada 627 anos). A diferença só foi explicada com a Teoria da Relatividade Geral proposta por Albert Einstein em 1915.

Podemos afirmar que a teoria da gravitação de Newton é boa, mas, falha na presença de campos gravitacionais muito intensos como aqueles criados nas proximidades de estrelas ou buracos negros. A teoria não prevê a existência dos buracos negros, a curvatura da luz ao passar por corpos celestes muito massivos e nem a dilatação temporal (o tempo passa mais devagar em regiões com campos gravitacionais mais intensos).

O problema dos 2 corpos

Suponha duas partículas de massas m1 e m2 se atraindo mutuamente segundo a lei da gravitação de Newton. As forças gravitacionais entre elas têm mesmo módulo,  direção e sentidos opostos. Na ausência de forças externas, a força resultante é nula, o que implica que o centro de massa tem aceleração zero, ou seja, ele se move com velocidade constante.

Como a força gravitacional tem a direção da reta que une as duas partículas ela é uma força central. Forças centrais não produzem torque e, portanto, conservam o vetor momento angular total do sistema. Consequentemente, os dois corpos podem apenas se movimentar no plano que é perpendicular ao vetor momento angular total do sistema.

O problema de 2 corpos tem solução analítica exata. Escolhendo o centro de massa como a origem do sistema de coordenadas e utilizando coordenadas relativas ao centro de massa, o problema de 2 corpos se reduz ao problema de 1 corpo só com a chamada massa reduzida m1m2/(m1+m2).

As trajetórias permitidas podem ser circulares, elípticas, parabólicas ou hiperbólicas. São as chamadas curvas cônicas (Figura 3). Como as forças gravitacionais são conservativas, a energia mecânica total do sistema E (que é a soma da energia cinética com energia potencial gravitacional) é constante no tempo. Se E < 0, teremos trajetórias elípticas (ou circular, se a excentricidade da elipse for zero); se E = 0, ela será parabólica e se E > 0, ela será hiperbólica.

O problema dos 3 corpos

Tão logo o problema de 2 corpos foi resolvido, as atenções se voltaram para próxima etapa: o problema dos 3 corpos.

Quando passamos para um sistema com 3 corpos interagindo gravitacionalmente, quais os resultados de 2 corpos que continuam valendo? A resposta é simples: as constantes de movimento. Explicitamente: o vetor velocidade do centro de massa, o vetor momento angular total do sistema e a energia mecânica total.

Figura 4 – Soluções periódicas de configurações centrais. As massas m1, m2 e m3 são arbitrárias. Euler: as massas executam órbitas elípticas em torno do centro de massa (c.m.) sempre mantendo o alinhamento (linha verde) dos 3 corpos. Lagrange: as massas executam órbitas elípticas em torno do centro de massa e estão dispostas formando um triângulo equilátero (linha verde). Com o tempo, os lados do triângulo equilátero se modificam dinamicamente (linha laranja)

A trajetória de cada um dos 3 corpos dependerá, de maneira crucial, da inicialização do sistema, ou seja, das posições e das velocidades atribuídas inicialmente a cada um dos corpos. Teremos soluções periódicas e também   soluções caóticas. Lembrando que, no problema de 2 corpos, não existem soluções caóticas, somente soluções periódicas (elípticas) e não-periódicas (parabólicas ou hiperbólicas).

*As soluções periódicas de Euler e Lagrange

Euler, em 1767, e Lagrange, em 1772, encontraram soluções periódicas

para o problema de 3 corpos que são do tipo configurações centrais. Nessas configurações centrais, as acelerações dos 3 corpos apontam sempre para o mesmo ponto – o centro de massa do sistema.

Na solução de Euler, os 3 corpos permanecem sempre ao longo de uma mesma linha reta e percorrem elipses diferentes, mas, confocais (Figura 4). As elipses têm mesma excentricidade e o foco comum delas está localizado no centro de massa. A solução de Euler é instável e se desfaz com qualquer pequena perturbação.

Na solução de Lagrange, os 3 corpos estão sempre formando um triângulo equilátero. Aqui também, os corpos evoluem ao longo de elipses diferentes, mas, com a mesma excentricidade e mesmo foco (localizado no centro de massa). Há tanto regiões de estabilidade quanto de instabilidade.

Para um encaminhamento bem bacana dessas soluções (hoje históricas) veja aqui.

*O problema restrito dos 3 corpos

O problema restrito dos 3 corpos é um caso especial do problema geral quando um deles tem massa muito menor do que a dos outros dois. Como a aceleração gravitacional provocada pelo corpo pequeno sobre os outros é desprezível, os dois corpos massivos se movimentam sentindo apenas a presença um do outro. Dessa forma, os corpos massivos percorrerão círculos ou elipses em torno do centro de massa mútuo (que é, basicamente, o centro de massa dos 3 corpos). Eles correspondem ao problema circular restrito e ao problema elíptico restrito, respectivamente. Focaremos o caso circular por ele ser mais simples e muito mais estudado. O caso elíptico você encontra aqui.

No problema circular restrito de 3 corpos escolhe-se um sistema de coordenadas sinódico, com origem no centro de massa e que rotaciona com velocidade angular uniforme no plano de órbita e junto com os 2 corpos massivos. Neste sistema de coordenadas, os 2 corpos massivos estão parados (coisa que não acontece no caso elíptico). Trata-se, portanto, de um referencial não inercial, e nele aparecerão forças centrífugas e forças de Coriolis. Além disso, nesse referencial, há também uma lei de conservação – a constante de Jacobi.

Neste sistema existem pontos em que as forças gravitacionais e centrífugas se anulam. São 5 pontos de equilíbrio conhecidos como pontos de Lagrange.

Cada par de corpos celestes massivos têm o seu próprio (e diferentes) conjunto de pontos de Lagrange: Terra-Sol (veja Figura 5), Terra-Lua, Saturno-Sol, Saturno-Titã etc.

Um aspecto muito importante dos pontos de Lagrange trata da estabilidade desses pontos. Se o corpo pequeno for ligeiramente afastado dos pontos de equilíbrio de Lagrange, ele retornará ou se afastará?

Os pontos L1, L2 e L3 são pontos instáveis, mais especificamente, eles são pontos de cela pois têm máximo em uma direção e mínimo em outra. Naves ou satélites localizados nesses pontos precisarão fazer manobras para permanecerem na posição.

Figura 5 – Sistema Terra-Sol. Os pontos de Lagrange L1, L2 e L3 estão ao longo da linha Terra-Sol. Suas distâncias aproximadas, a partir do centro da Terra: L3 trezentos milhões de quilômetros; L1 e L2 um milhão e 500 mil quilômetros. Entre o Sol e a Terra, no ponto L1 , está o satélite Deep Space Climate Observatory (https://en.wikipedia.org/wiki/Deep_Space_Climate_Observatory) que estuda os ventos solares. Depois da órbita da Lua, no ponto L2, estão os telescópios James Webb (https://en.wikipedia.org/wiki/James_Webb_Space_Telescope) e Euclid (https://en.wikipedia.org/wiki/Euclid_(spacecraft)). Os pontos L4 e L5 formam com o Sol e a Terra um triângulo equilátero e, portanto, estão a 150 milhões de quilômetros do centro da Terra. O ponto L3 está tão longe que qualquer corpo lá localizado sofreria muito mais influência de Vênus do que da própria Terra

Os pontos L4 e L5 são estáveis desde que a razão entre as massas dos dois corpos massivos seja maior do que 24,96 (que é o caso do sistema Terra-Sol).

Devido a essa estabilidade, são nos pontos L4 e L5 que encontramos os asteróides troianos. Eles acompanham um planeta (qualquer planeta), percorrendo a mesma órbita deste. Alguns vão à frente, outros seguem atrás do planeta. Quase todos os planetas do sistema solar têm seus asteróides troianos. A Terra tem 2 asteróides troianos conhecidos: o 2010TK7, que tem diâmetro de 300 metros e o 2020XL5, cujo diâmetro é de 1,2 km. Ambos seguem à frente da Terra próximos do ponto L4.

Figura 6 – A órbita de Arenstorf (https://pymgrit.github.io/pymgrit/applications/arenstorf_orbit.html) com a Terra no centro e a Lua à sua direita. Ela é uma órbita periódica e fica no plano de rotação do sistema Terra-Lua

O problema circular restrito dos 3 corpos tem infinitas soluções periódicas e infinitas soluções caóticas. A NASA, através do Jet Propulsion Laboratory, disponibiliza centenas de milhares de órbitas periódicas conhecidas para vários sistemas: Terra-Sol, Terra-Lua, Sol-Marte etc.

Na Figura 6 mostramos a órbita de Arenstorf. Ela foi utilizada pela NASA para salvar a tripulação da Apolo 13. Essa órbita permitiu à espaçonave permanecer próxima do ponto de Lagrange L1 (do sistema Terra-Lua), consumindo um mínimo de combustível.

A técnica da gravidade assistida é outro resultado importante do problema circular restrito dos 3 corpos. Utilizando a gravidade dos planetas, essa técnica permite manobrar espaçonaves tanto para aumentar quanto para diminuir a sua velocidade, poupando, em ambos os casos, combustível.

Essa técnica foi utilizada pela primeira vez em 1959 quando a sonda soviética Luna 3 alcançou o lado oculto da Lua.

Vou tentar explicar a gravidade assistida de maneira não quantitativa utilizando apenas análise vetorial e mudança de referencial, seguindo este texto da NASA.

Considere uma espaçonave se aproximando do planeta Júpiter.

Na Figura 7 (a), a espaçonave se aproxima do planeta por trás, no mesmo sentido da órbita de Júpiter em torno do Sol. No referencial de Júpiter, a velocidade da nave muda apenas de direção, mas, não de módulo (vetor azul v). No referencial do Sol, Júpiter tem velocidade v´ (verde) e a velocidade da nave será a soma vetorial v + v´ (pela regra do paralelogramo). Vemos que a velocidade final da nave Vf é maior do que a sua velocidade inicial Vi. A nave aumentou a velocidade, é o efeito estilingue gravitacional.

Na Figura 7 (b), a espaçonave se aproxima do planeta pela frente, no sentido oposto ao da órbita de Júpiter em torno do Sol. Vemos que a velocidade final da nave Vf é menor do que a sua velocidade inicial Vi. A nave diminuiu a velocidade, é um freio gravitacional.

Figura 7 – (a) Efeito estilingue gravitacional; (b) Efeito freio gravitacional

Para ilustrar esse efeito de maneira realística e quantitativa, apresentamos, na Figura 8, o aumento de velocidade da nave Voyager 2 quando ela se aproximou dos planetas Júpiter, Saturno, Urano e Netuno. Sem o estilingue gravitacional ela só chegaria até Júpiter e não conseguiria sair do sistema solar.

Figura 8 – Gráfico da velocidade em relação ao Sol (em km/s) versus distância ao Sol (em unidade astronômica ~ 150 milhões de km) da nave Voyager 2. Em amarelo, a velocidade de escape para a Voyager 2 conseguir sair do sistema solar. Fonte: Steve Matousek, JPL

(Continua na parte 2 – em breve)

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia”, clique AQUI. 

Para acessar todo o conteúdo do site “Newsletter – Ciência em Panorama” clique AQUI.

*Físico, Professor Sênior do IFSC – USP / e-mail: onody@ifsc.usp.br

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Assessoria de Comunicação – IFSC/USP

3 de janeiro de 2024

Recodificando a Vida – Artigo da autoria do Prof. Roberto N. Onody

Figura 1 – Nos organismos genomicamente modificados os ribossomos podem sintetizar proteínas utilizando mais de 500 aminoácidos não canônicos! Durante bilhões de anos a natureza evoluiu de maneira espetacular criando as mais diferentes formas de vida contando com apenas 22 aminoácidos

Por: Prof. Roberto N. Onody*

Durante 3,5 bilhões de anos a vida na Terra evoluiu (de maneira extraordinária) baseada num código genético que opera com apenas 22 aminoácidos. Estes aminoácidos (chamados de canônicos ou padrões) fazem parte da composição química de milhões de proteínas, presentes em todos os organismos vivos que existem ou que existiram no nosso planeta.

Mas, tudo isso está prestes a mudar com o surgimento dos organismos genomicamente recodificados. Esses organismos têm o seu código genético expandido de forma a permitir que eles codifiquem novas proteínas utilizando os mais de 500 aminoácidos não canônicos conhecidos na natureza!

A expansão do alfabeto de aminoácidos permitirá a introdução de novas proteínas terapêuticas, novas drogas para imunoterapia, novas vacinas com a utilização de vírus atenuados genomicamente recodificados etc. Para desenvolver essa nova área – a biologia sintética, várias startups estão sendo criadas como a GRO Biosciences e a Pearl Bio.

Os organismos genomicamente recodificados (Figura 1) representam uma mudança importante no paradigma evolucionário que foi adotado pela natureza durante bilhões de anos. Para compreender melhor esse aspecto, faço antes uma breve revisão de alguns elementos e mecanismos biológicos envolvidos na síntese de proteínas.

Sobre as Proteínas

As proteínas são os tijolos fundamentais na construção e na manutenção da vida como a conhecemos. Em qualquer um dos três domínios da vida – Bacteria, Archea ou Eukarya, as proteínas estão sempre presentes e são essenciais.

Figura 2 – A estrutura química de um aminoácido. Existem milhões de proteínas no mundo, mas, todas elas formadas a partir de somente 20 aminoácidos diferentes! Os aminoácidos se unem (quimicamente) através de uma reação de desidratação na qual o grupo carboxila de um dos aminoácidos se une ao grupo amino do outro, liberando uma molécula de água. Uma cadeia extensa assim formada chama-se polipeptídeo. Cadeias de polipeptídeos se unem entre si através de pontes de hidrogênio

As proteínas garantem a estrutura celular (citoesqueleto), catalisam reações metabólicas (enzimas), regulam atividades fisiológicas (hormônios) e são protagonistas na defesa do organismo (anticorpos). Proteínas malformadas ou com defeitos são responsáveis por várias doenças e podem até mesmo levar à morte do organismo.

Em uma única célula do corpo humano há cerca de 3 milhões de proteínas! Estima-se que existam cerca de 700.000 proteínas diferentes em todo o corpo humano e elas são produzidas num ritmo frenético – 120.000 proteínas por minuto!

Até outubro de 2023, havia um total de 227.064 proteínas (com suas estruturas tridimensionais completamente determinadas) catalogadas no PDB (Protein Data Bank).

Do ponto de vista químico, as proteínas são macromoléculas compostas por uma ou mais cadeias interligadas de aminoácidos. Os aminoácidos têm um carbono central (chamado de alfa) ligado a um grupo carboxila (O=C-OH), um grupo amino (NH2) e uma cadeia lateral ou grupo R (Figura 2).

Ao se ligarem entre si, os aminoácidos adquirem uma estrutura tridimensional muito particular e funcional, num processo conhecido por enovelamento da proteína (“protein folding”).

A insulina foi a primeira proteína que teve sua sequência de aminoácidos corretamente estabelecida em 1951 por Frederick Sanger (Figura 3). Com os avanços da técnica de cristalografia por difração de raios-x, foi possível se determinar, não somente a sequência de aminoácidos de uma proteína, mas, também toda a sua estrutura tridimensional.

A mioglobina foi a primeira proteína que teve sua estrutura tridimensional completamente determinada (em 1958, por John Kendrew). Na Figura 4, vemos um diagrama de fitas da mioglobina. O diagrama de fitas ou diagrama de Richardson (após Jane Richardson, biofísica norte americana que o concebeu na década de 1980) permite uma visualização rápida e simples da estrutura 3D de uma proteína. A fita é uma representação esquemática da hélice formada pelos carbonos centrais dos polipeptídeos. Um programa computacional bastante utilizado para montar esses diagramas é o MolScript.

 

Figura 3 – A Insulina foi a primeira proteína que teve sua sequência de 51 aminoácidos corretamente estabelecida em 1951 por Frederick Sanger. Descoberta em 1921, a insulina é um hormônio sintetizado no pâncreas. É fundamental no metabolismo dos carboidratos, principalmente da glicose. Ela é formada por 2 cadeias de peptídeos (uma com 21 aminoácidos e a outra com 30 aminoácidos) que estão ligadas entre si por átomos de enxofre. Sua fórmula contém 788 átomos: C 257 H383 N65 O77 S6 (Crédito: domínio público)

Figura 4 – A Mioglobina é uma proteína encontrada no tecido cardíaco e nos músculos do esqueleto de quase todos os vertebrados. Ela é composta por 153 aminoácidos. A mioglobina contém ferro e tem grande afinidade com o oxigênio. Em alta concentração, permite que o organismo possa segurar a respiração por um tempo maior. Não confundir com a hemoglobina, que é uma proteína presente nas hemácias (glóbulos vermelhos) e é responsável pelo transporte de oxigênio na corrente sanguínea (Crédito: domínio público)

A menor proteína conhecida é Trp-cage, encontrada na saliva do monstro-de-gila (um lagarto peçonhento encontrado na América do Norte, principalmente no México). A maior proteína conhecida é a Titin, encontrada nos músculos estriados dos vertebrados. Um corpo humano adulto contém 500g de Titin! Veja Figura 5.

Sobre os Aminoácidos

Cada órgão do corpo humano sintetiza seu próprio conjunto de proteínas necessárias para o seu pleno funcionamento. No entanto, para sintetizar uma determinada proteína, o órgão precisa ter disponíveis todos os aminoácidos que a constituem. As plantas sintetizam todos os tipos de aminoácidos, mas os animais não.

Figura 5 – (a) A proteína Trp-cage é a menor proteína conhecida. Ela contém somente 20 aminoácidos. (b) A proteína Titin é a maior proteína conhecida. Na sua versão humana, ela contém 34.350 aminoácidos (Crédito: domínio público)

Hoje, são conhecidos mais de 500 aminoácidos. De maneira surpreendente, todas as proteínas conhecidas (de todos os seres vivos) são sintetizadas a partir de apenas e tão somente 22 aminoácidos!

Para compor as proteínas que os seres humanos precisam, são necessários 21 tipos de aminoácidos. Conseguimos sintetizar apenas 12. Para obter os 9 aminoácidos restantes (justamente, os que são considerados essenciais) temos que nos alimentar das plantas ou de animais que delas se alimentaram. O prato brasileiro principal, feijão com arroz, contém todos os 9 aminoácidos essenciais.

Foi em 1806 que químicos franceses encontraram, no aspargo, o primeiro aminoácido – a asparagina (que não é um aminoácido essencial). Hoje sabemos que, na construção de qualquer proteína, o primeiro aminoácido a ser incorporado é a metionina (Figura 6).

Até 1974, acreditava-se que os aminoácidos presentes ou necessários ao corpo humano eram somente 20. Nesse ano, a bioquímica T. Stadtman descobriu o 21º. aminoácido – a selenocisteína. O 22º. aminoácido – a pirrolisina, foi descoberto por J. Krzycki e M. Chan em 2002 (Figura 7).

Figura 6 – (a) Asparagina – o primeiro aminoácido descoberto. Cores dos átomos: em cinza escuro (claro) Carbono (Hidrogênio); lilás – Nitrogênio; vermelho – Oxigênio (b) Metionina – um aminoácido essencial que é o primeiro aminoácido a ser incorporado na síntese de qualquer proteína. Cores dos átomos: em cinza escuro (claro) Carbono (Hidrogênio); lilás – Nitrogênio; vermelho – Oxigênio; amarelo – Enxofre (Crédito: domínio público)

Figura 7 – (a) Selenocisteína – o 21º. aminoácido. É encontrado em enzimas e é bem parecida com a cisteína, com o átomo de enxofre substituído por selênio. Cores dos átomos: em cinza claro – Hidrogênio; preto – Carbono; vermelho – Oxigênio; azul – Nitrogênio; laranja – Selênio (b) Pirrolisina – o 22º. aminoácido. Não é encontrado no ser humano, mas está presente em microrganismos bactéria e archea. Cores dos átomos: em cinza escuro (claro) – Carbono (Hidrogênio); azul – Nitrogênio; vermelho – Oxigênio (Crédito: domínio público)

Sobre o código genético

Toda a informação biológica do ser humano está contida no seu DNA.  O DNA (ácido desoxirribonucleico) é uma fita dupla formada por quatro nucleotídeos. Um nucleotídeo é composto por uma pentose (açúcar), um fosfato e uma das quatro bases nitrogenadas: adenina, timina, citosina e guanina. Na fita dupla, elas comparecem em pares: a adenina está sempre ligada com a timina e a citosina com a guanina. O DNA está compactado no interior do núcleo da célula. No caso do ser humano, ele está presente e contido em 23 pares de cromossomos. Se estendido o DNA de uma única célula teria cerca de 2 metros de comprimento (Figura 8).

Outro componente fundamental na síntese de proteínas é o RNA (ácido ribonucleico). Diferentemente do DNA, o RNA tem a forma de uma fita

Figura 8 – O DNA é uma fita dupla de nucleotídeos contendo as bases nitrogenadas adenina (C5H5N5), citosina (C4H5N30), guanina (C5H5N5O) e timina (C5H6N2O2). O RNA é uma fita simples de nucleotídeos contendo as bases nitrogenadas adenina, citosina, guanina e uracila (C4H4N2O2)

simples composta por nucleotídeos que contêm uma das quatro bases nitrogenadas: adenina, citosina, guanina e uracila (que substitui a timina do DNA). O RNA está presente tanto no núcleo quanto no citoplasma das células.

A estrutura helicoidal do DNA foi revelada em 1953 por Francis Crick e James Watson quando trabalhavam no laboratório Cavendish da Universidade de Cambridge. Em 1954, o físico George Gamow propôs que a especificação de um aminoácido (necessário para compor uma determinada proteína) estava contida numa sequência de três bases nitrogenadas adjacentes – o códon. Como há quatro bases nitrogenadas no DNA, esse tripleto (trinca) permitiria a codificação de 43=64 aminoácidos. Uma vez que os aminoácidos que sintetizam as proteínas são apenas 20, vários códons devem codificar o mesmo aminoácido (veja próxima secção).

Um gene é um segmento do DNA composto por uma determinada sequência de códons. Cada códon será uma instrução para agregar um determinado aminoácido quando da síntese de uma proteína. Tudo ocorre como num código de programação, daí seu nome – código genético. Estima-se que o DNA do ser humano possua de 20.000 a 25.000 genes, com um total de cerca de 3,2 bilhões de pares de nucleotídeos.

O código genético é o código da vida e é quase universal. Ele é semelhante em praticamente todos os organismos vivos, com pequenas variações encontradas no DNA mitocondrial.

Sintetizando uma proteína:

Foi na década de 1950 que os mecanismos bioquímicos para sintetizar uma proteína começaram a ser estudados. Até os dias de hoje, essa área de pesquisa foi laureada com mais de 20 prêmios Nobel. O processo de síntese de proteína é inacreditavelmente complexo, bonito e elegante. Vale a pena conhecê-lo.

Descrevemos aqui, de maneira sucinta, a síntese de proteínas em células eucariontes (que têm núcleo). Em células procariontes (sem núcleo, como as bactérias e vírus) o processo é semelhante, mas não é igual.

O processo da síntese proteica se divide, basicamente, em duas etapas: a transcrição e a tradução.

A transcrição

Figura 9 – (a) A transcrição de um gene do DNA gera um pré-RNAm. A enzima RNA polimerase II se acopla à fita template (antisense strand) e faz uma cópia da fita codificadora (sense strand) trocando a base timina pela uracila; (b) Recomposição (splicing) do pré-RNAm. Setores que não codificam (íntrons) são eliminados do RNA e as regiões codificadoras (éxons) são emendadas resultando no RNA mensageiro maduro (Crédito: domínio público)

Na transcrição do DNA, a enzima RNA polimerase se liga à região promotora do gene (composta, em geral, por cerca de 100 a 1000 pares de bases nitrogenadas) e começa a abrir (localmente) a fita dupla do DNA (expondo seus nucleotídeos) até encontrar uma região terminadora do gene.

Uma das fitas, chamada de codificadora, contém a sequência de códons da proteína, a outra, chamada de template, contém os anticódons (Figura 9a). Sobre a template, se liga a enzima RNA polimerase II que lê os anticódons e constrói, com as bases complementares, o  precursor do RNA mensageiro – o pré-RNAm.

O pré-RNAm passa, então, por uma série de modificações que eliminam as regiões não codificadoras – os íntrons, e emendam todas as regiões que codificam – os éxons (Figura 9b). Ao final desse processo de recomposição (splicing), teremos o RNA mensageiro maduro.

Finalmente, o RNA mensageiro (RNAm) atravessa a membrana do núcleo e vai para o citoplasma onde se liga a um ribossomo.

A tradução

O ribossomo é um complexo de RNA e proteína. É uma macromolécula com duas subunidades: uma pequena – onde o RNA mensageiro (RNAm) se conecta e é decodificado e a outra grande – onde os aminoácidos específicos para uma determinada proteína são adicionados.

Para a decodificação, o ribossomo utiliza o círculo do código genético (Figura 10). O código de início (para qualquer proteína) é o códon AUG que codifica para o aminoácido metionina. Os três códigos de parada são: UGA, UAG e UAA que não codificam para nenhum aminoácido (com exceções da selenocisteína e da pirrolisina, leia legenda da Figura 10).

Figura 10 – O círculo do código genético. Os códons devem ser lidos do centro para fora. O aminoácido selenocisteína é incorporado à proteína se, no RNA mensageiro, o códon de parada UGA vem acompanhado do elemento de inserção SECIS ; já a pirrolisina utiliza o código de parada UAG e necessita da presença dos genes pyITSBCD. Há muitos códons codificando para o mesmo aminoácido. São códons sinônimos. Por exemplo, a serina é codificada por 6 códons: UCU, UCC, UCA, UCG, AGU e AGC (Crédito: domínio público)

O RNAm desliza ao longo do ribossomo que lê um códon de cada vez. O códon especifica (univocamente) o aminoácido que será incorporado à proteína em construção. O ribossomo convoca então, um RNA transportador (RNAt, Figura 12). Este RNAt tem o anticódon correspondente e carrega o aminoácido correto (graças à ação das enzimas aminoacil-tRNA sintetase). O RNAt se acopla ao RNAm e o aminoácido se liga à proteína.

Organismos genomicamente recodificados

Figura 11 – Todas as milhões de proteínas existentes (em qualquer organismo vivo na Terra) são elaboradas a partir de meros 22 aminoácidos mostrados nesta tabela. Eles são chamados de aminoácidos canônicos (ou padrão). O 22º. aminoácido – a pirrolisina, não está presente no ser humano. Em verde, indicamos os aminoácidos essenciais (Crédito: R. N. Onody)

Durante 3,5 bilhões de anos a vida na Terra evoluiu e gerou os mais diversos e incríveis organismos. Mais inacreditável ainda é que a evolução tenha se utilizado de meros 20 aminoácidos para elaboração todas as proteínas necessárias!  Isto está prestes a mudar pela ação do homem.

Se apenas 20 aminoácidos (22, se incluirmos a selenocisteína e a pirrolisina) bastaram para criar todos os seres vivos (em todas as épocas) imagine o que aconteceria de pudéssemos lançar mão dos 500 aminoácidos conhecidos?

Sabemos que existem cerca de 140 aminoácidos não canônicos presentes em proteínas naturais. Eles não fazem parte do código genético e se formam por modificações após a tradução da proteína. Exemplos: a carboxilação, isto é, a adição do grupo carboxila COOH ao glutamato resulta no ácido carboxiglutâmico (aminoácido presente em proteínas da cascata de coagulação); a hidroxilação, isto é, a adição do grupo hidroxila OH à prolina produz a hidroxiprolina, um aminoácido presente no colágeno.  Temos, portanto, aminoácidos não canônicos, não codificados, mas, que estão naturalmente presentes nas proteínas dos seres vivos.

Com os enormes avanços das técnicas bioquímicas é possível inserir um aminoácido não canônico em novos medicamentos e obter ótimos resultados funcionais. Um exemplo recente, é o Ozempic que foi desenvolvido pela Novo Nordisk em 2012 (aprovado pela ANVISA em 2018) e é indicado para tratamento da diabetes tipo 2. Seu princípio ativo, a semaglutida, contém um aminoácido não canônico – o ácido 2-aminoisobutírico (AIB). O AIB é sintetizado em laboratório e incorporado à semaglutida por modificação do RNAt!

Essa engenharia utilizada em medicamentos poderia ser usada em seres vivos? Poderíamos modificar o código genético (construído arduamente pela natureza ao longo de bilhões de anos) de maneira a codificar para aminoácidos não canônicos?

Experimentos realizados em organismos com alterações apenas parciais do seu genoma resultaram em proteínas malformadas ou mesmo tóxicas. Consequentemente, concluiu-se que as modificações no código deveriam ser feitas em todo o genoma. O organismo daí resultante é chamado de Organismo Genomicamente Recodificado.

É importante não confundir os Organismos Genomicamente Recodificados com os Organismos Geneticamente Modificados. Estes existem há muito mais tempo e têm seu material genético alterado pela adição ou remoção de genes que muitas vezes (principalmente nas plantas) introduzem novas características como tamanho, sabor ou resistências a herbicidas. Uma das preocupações dessa tecnologia transgênica é de biossegurança, já que ela libera formas funcionais de DNA no meio ambiente.

Nos organismos genomicamente recodificados, entretanto, o objetivo é reescrever ou expandir o código genético! Expandir o código genético é um programa de pesquisa (de uma área chamada biologia sintética) que deve contemplar os seguintes pré-requisitos:

Reatribuir um códon para que ele passe a codificar para aminoácidos não canônicos;

– Produzir um novo RNAt com o anticódon correspondente;

– Produzir uma nova enzima RNAt sintetase que carregue o novo RNAt com o aminoácido não canônico desejado.

Além disso, os biólogos sintéticos têm que garantir ainda que, durante a tradução, os processos sintéticos e endógenos (isto é, já existentes no organismo) não interfiram entre si, que sejam ortogonais! Qualquer mistura dos processos seria extremamente perigosa, com futuro imprevisível e consequências desconhecidas.

Figura 12 – A complexa e fascinante fase de tradução de uma proteína envolve o RNA mensageiro, o RNA transportador, o ribossomo e enzimas. Em eucariotos (procariotos), as proteínas crescem incorporando cerca de dois (quinze) aminoácidos por segundo. Quando a proteína está finalizada, o RNA mensageiro é degradado (Crédito: domínio público)

O primeiro organismo genomicamente recodificado foi a bactéria Escherichia Coli (E. Coli) em 2013. Identificada em 1885 por T. Escherich e presente no intestino humano, essa bactéria foi escolhida por ter um genoma relativamente pequeno (4.400 genes) que foi totalmente sequenciado em 1997.

Na E. Coli, a síntese de uma proteína termina quando, na presença e sob a ação do fator de liberação RF1 (Release Factor 1), o ribossomo encontra o códon de parada UAG. Esse códon é muito raro com somente 321 aparições no genoma da E. Coli.

Os pesquisadores converteram todos os códons UAG em UAA e deletaram os fatores RF1.  O UAG deixou de significar um códon de parada para o E. Coli e, quando ele foi reintroduzido numa posição apropriada de um gene de interesse, ele pôde ser usado como códon codificador para aminoácidos não canônicos. Para que isso acontecesse, o E. Coli recebeu um novo RNAt e um novo aminoacil-tRNA-sintetase ortogonais aos endógenos. A bactéria E. Coli genomicamente recodificada estava agora pronta para testes e validação. E o novo organismo revelou ter adquirido vantagem imunológica.

Vírus vivem às custas de seu hospedeiro. Eles sequestram a máquina celular obrigando-a a produzir as proteínas que o vírus precisa. E, sim, as bactérias também são atacadas e mortas por vírus conhecidos como bacteriófagos. Testado o E. Coli genomicamente recodificado mostrou ter adquirido imunidade e resistência contra infecção dos vírus T4 e T7!

O processo descrito acima de recodificação de genoma de indivíduos procariotos também foi estendido para organismos eucariotos como Saccharomyces cerevisiae (a levedura do pão e da cerveja) e Caenorhabditis elegans (um nematoide).

Em outra vertente da pesquisa deseja-se utilizar a técnica de recodificação de genomas para proteger plantas de doenças virais. Vírus que atacam plantas – os fitovírus, causam grandes prejuízos na agricultura e podem infectar até mesmo plantas ornamentais. Estima-se que os fitovírus causem prejuízos de 60 bilhões de dólares por ano no mundo todo.

Por último e de maneira ainda mais radical, existem estudos que pretendem incorporar aminoácidos não canônicos às proteínas através de variantes do RNAt que decodificam para um quadrupleto, isto é, um códon de tradução com 4 bases!

A biologia sintética está apenas começando, mas seus avanços recentes apontam para um futuro promissor com o desenvolvimento de novas e potentes drogas abrangendo aminoácidos não canônicos. Além disso, estaremos abrindo novos caminhos para a evolução da vida na Terra com a criação de organismos genomicamente recodificados.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo

 

 

 

 

 

Se você gostou, compartilhe o artigo nas redes sociais

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Assessoria de Comunicação – IFSC/USP

22 de outubro de 2023

A busca pelo raríssimo diamante cor de rosa – Por: Prof. Roberto N. Onody

Figura 1 – O diamante cor de rosa Graff – O famoso colecionador de diamantes Laurence Graff (conhecido como King of Bling) comprou esse diamante em 2010, num leilão realizado pela Sotheby´s. Ele tem 24,78 quilates (1 quilate = 0,2 gramas) e foi comprado por 46 milhões de dólares! Até aqui, o mais caro diamante cor de rosa vendido por quilate! Na gema havia 25 imperfeições (inclusões) superficiais. Com assessoria da GIA (Gemological Institute of America, seus certificados são o padrão-ouro na classificação de diamantes), especialistas da empresa Graf fizeram um novo polimento da pedra. Hoje ela tem 23,88 quilates, é magnífica e sem defeito. Feita de puro carbono, como os diamantes brancos (incolores).

Entre todas as pedras preciosas, os diamantes são os mais cobiçados. Desempenhando um papel cultural importante há milênios, os diamantes evocam sentimentos associados a beleza, brilho, luxo, poder, amor e compromisso. Eles são eternos.

Há diamantes azuis, verdes, laranjas e incolores, mas, o mais desejado é o diamante cor de rosa (Figura 1). Até seu fechamento em 2020, a mina de Argyle (situada numa região remota da Austrália Ocidental) era responsável por 90% do suprimento mundial dos diamantes cor de rosa! Para saber por que o local onde ficava a mina de Argyle produziu tantos diamantes, cientistas fizeram um estudo minucioso das suas características geológicas. E identificaram duas causas principais: a colisão de placas tectônicas e a deriva continental.

Para os gregos e os romanos, os diamantes seriam frutos das lágrimas derramadas pelos deuses ou pedaços de estrelas cadentes. Mitologia à parte, na verdade os diamantes naturais foram forjados entre 1 e 3 bilhões de anos atrás nas profundezas da Terra, quando o carbono, sob efeito de enormes pressões e altas temperaturas, adquire a sua forma cristalina (metaestável) de rede cúbica (Figura 2). Em baixas pressões e baixas temperaturas o carbono se estabiliza numa estrutura planar hexagonal – o grafite.

Figura 2 – Cada célula unitária da rede cristalina do diamante contém 8 átomos de carbono. As esferas azuis são átomos de carbono que se encontram ou nos 8 vértices ou nas 6 faces do cubo; as esferas pretas são átomos de carbono que estão no interior do cubo. O diamante é o material mais duro produzido pela natureza (dureza 10, máxima na Escala de Mohs)

Os diamantes se formam entre 40 e 600 km de profundidade no manto superior da Terra e são trazidos à superfície pelo magma dos vulcões. As condições termodinâmicas para a formação do diamante ou do grafite dependem criticamente da temperatura e da pressão local. A título de exemplo, numa temperatura de 950 graus Celsius e em profundidades maiores do que 150 quilômetros (o que equivale a pressões maiores do que 44.400 atmosferas) o grafite se transforma em diamante.

Diamantes também podem ser produzidos na queda de grandes meteoritos. A pressão e a temperatura geradas no impacto são mais do que suficientes para formar diamantes, desde que haja carbono ou no próprio meteorito ou nas rochas presentes no local da queda. Foi o que ocorreu há 35 milhões de anos atrás, quando um meteoro com diâmetro de 5 a 8 km, abriu a cratera de Popigai (na Sibéria, Rússia) com 100 km de diâmetro e cerca de 150 metros de profundidade. Ao redor da cratera, encontra-se uma quantidade enorme de pequenos diamantes (milimétricos) semelhantes aos diamantes sintéticos (veja abaixo). Além disso, incrustado nas rochas e no interior da cratera, acredita-se que existe uma quantidade de diamante maior do que em todas as outras jazidas do mundo juntas!

Diamantes também se formam nas estrelas, mais especificamente, nas anãs brancas. A anã branca BPM 37093 está a cerca de 49 anos-luz da Terra, tem raio de 4.000 km e é composta por carbono e oxigênio. O carbono presente (que está cristalizado) tem massa de 5 1029 kg, ou seja, um valor cem mil vezes maior do que a massa da Terra.  Trata-se do maior diamante existente na nossa vizinhança! Ele foi apelidado de Lucy, em homenagem à música dos Beatles Lucy in the Sky with Diamonds.

Figura 3 – Os maiores produtores mundiais de diamantes naturais em 2022. A Rússia lidera com folga, produzindo quase 42 milhões de quilates ou 8,4 toneladas de diamantes (Crédito: M. Garside)

Tudo o que dissemos até aqui se refere aos diamantes naturais (Figura 3). A partir da década de 1950 os diamantes passaram também a ser produzidos e manufaturados pelo homem – são os chamados diamantes sintéticos ou industriais. Dois métodos são utilizados na fabricação dos diamantes sintéticos: o CVD (Carbon Vapor Deposition), que faz a deposição química de vapor de carbono e o HPHT (High Pressure High Temperature) que imita a forma de produção da natureza.

Para olhos não preparados pode ser difícil distinguir um diamante natural de um sintético. Mas, existem hoje no mercado cerca de 40 dispositivos que detectam a diferença entre eles. Ainda bem, porque a diferença de preço é enorme – os diamantes sintéticos são muito mais baratos do que os diamantes naturais.

Figura 4 – Diamantes naturais adquirem a cor: (a) marrom devido a deformações plásticas na sua rede cristalina; (b) amarelo pela presença de átomos de nitrogênio; (c) azul pela presença de átomos de boro; (d) verdes pela exposição a material radioativo durante a sua formação ou depois (diamantes brancos se tornam verdes quando irradiados). O material radioativo cria vacâncias de átomos de carbono

Hoje, um quilate de diamante sintético custa três vezes menos do que um quilate de diamante natural. E, com o avanço das técnicas empregadas, o preço do diamante sintético deve recuar ainda mais. O maior produtor mundial de diamantes sintéticos é a China que responde por quase 90% do consumo mundial.

Figura 5 – Os 9 diamantes Cullinan. O maior de todos eles (indicado pela seta), conhecido como Estrela da África, tem 530,2 quilates e dimensões de 58,9 mm x 45,4 mm x 27,2 mm. Ele está montado no topo do cetro real da monarquia britânica.

Mas, por que os diamantes naturais têm várias cores? Resumidamente, a resposta é pela presença de vacâncias ou de defeitos (átomos de carbono são substituídos por outros elementos) que retiram da gema sua integridade cristalina ou sua pureza e alteram sua cor (Figura 4).

Os diamantes brancos ou incolores são praticamente feitos de carbono puro. Entre eles, certamente, o mais famoso é o diamante de Cullinan. Descoberto em 1905 na África do Sul, o diamante tinha, originalmente, 3.025 quilates e foi cortado e lapidado em 9 diamantes que hoje fazem parte das joias da coroa britânica (Figura 5).

Ainda sobre diamantes brancos, em 2019 a Alrosa (empresa russa e maior mineradora de diamantes do mundo) descobriu um diamante duplo – um diamante que contém no seu interior outro diamante. O diamante interno se move livremente numa cavidade do diamante externo (veja vídeo). À semelhança com a tradicional boneca russa, o diamante duplo foi batizado de matrioska.

Voltemos agora aos raríssimos diamantes cor de rosa. Eles são realmente os mais raros? De fato, não. Os diamantes vermelhos são os mais raros. Tão raros que, no mundo, só existem cerca de 30 diamantes considerados realmente vermelhos (Figura 6). Por esse motivo, não existe empresa mineradora de diamantes vermelhos. Mas, existem mineradoras de diamantes cor de rosa na Austrália, África do Sul e Índia. E, como dissemos no preâmbulo, a maior delas, a Argyle, fechou em 2020. Desde então, cientistas vêm tentando descobrir os pré-requisitos geológicos para a formação dos diamantes cor de rosa.

Como os diamantes cor de rosa (e o vermelho) não apresentam vacâncias (provocadas por radiação) e nem defeitos (pela presença de outros elementos químicos além do carbono) de onde vem a sua cor?

A única explicação plausível é que, durante o processo de sua formação, esses diamantes sofreram deformação plástica. Mas, de que tipo? Quais são os ingredientes por trás da formação dos diamantes cor de rosa?

Figura 6 – O diamante Mussaieff é o maior diamante vermelho do mundo. Descoberto na década de 1990 em Minas Gerais, Brasil, ele tem 13,9 quilates. O joalheiro Shlomo Mussieff é o seu atual proprietário

Em artigo publicado na Nature, Olierook et al. lançaram duas hipóteses novas. Há mais de um bilhão de anos atrás, no supercontinente Nuna ou Colúmbia Figura 7), as placas tectônicas em que hoje se encontram o Norte da Austrália e Kimberley (Austrália Ocidental) colidiram. A região da mina de Argyle se formou na sutura dessas placas.  Primeiro ingrediente: colisão de placas tectônicas.

Olierook et al. fizeram, então, uma datação geológica muito precisa dessa região e concluíram que ela se formou há 1,3 bilhão de anos. Isso coincide com o momento (estimado entre 1,3 e 1,22 bilhão de anos) em que o supercontinente Nuna ou Colúmbia iniciava seu processo de fratura e desagregação! O continente do que é hoje a Austrália não se partiu ou se desagregou, mas a região da mina de Argyle foi ´esticada´. Segundo ingrediente: estiramento geológico.

Se os pesquisadores estiverem corretos, esses ingredientes podem balizar buscas por novas minas de diamantes em locais que tenham um histórico geológico semelhante. Pelos magníficos diamantes cor de rosa, esperamos que sim.

Figura 7 – O supercontinente Nuna ou Colúmbia há 1,6 bilhão de anos atrás. (Crédito: Alexandre DeSotti)

 

 

 

 

 

 

 

 

 

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo

 

 

 

 

Se você gostou, compartilhe o artigo nas redes sociais

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Assessoria de Comunicação – IFSC/USP

1 de setembro de 2023

Criptobiose – Um verme ressuscita depois de 46.000 anos

Figura 1 – Embaixo de espessas camadas de gelo, está o Permafrost – um solo formado por terra, rochas, sedimentos e muito gelo. Nele, congelados por milhares de anos, estão presentes vermes, vírus e bactérias. Uma cápsula do tempo e uma bomba relógio contendo uma gigantesca quantidade de gases de efeito estufa como dióxido de carbono e metano (Crédito: Sergey Pesterev/Unsplash)

Por: Prof. Roberto N. Onody *

Criptobiose é um estado de latência em que as atividades metabólicas de um organismo cessam devido a condições ambientais extremas como baixas temperaturas, desidratação e falta de oxigênio. Nos solos gelados da Sibéria, foram encontrados e ressuscitados vermes nematoides em animação suspensa há 46.000 anos!

Permafrost, como o próprio nome indica, é uma camada do subsolo permanentemente congelada. É uma mistura de rochas, terra, matéria orgânica e, claro, gelo. Ele se concentra na região do Ártico, principalmente na Rússia, Groenlândia, Canadá e Alasca (Figura 1).

O Permafrost recobre cerca de 25% das terras do hemisfério norte e abriga sob uma manta de gelo uma quantidade colossal de matéria orgânica, decomposta ao longo de milhões de anos. Estima-se que o Permafrost contenha 1,5 trilhões de toneladas de carbono, duas vezes mais do que aquela que existe (atualmente) na nossa atmosfera!

Um possível degelo do Permafrost libertará uma quantidade enorme dos principais gases responsáveis pelo efeito estufa – o dióxido de carbono e o metano.  Vale lembrar que o Acordo de Paris, assinado por 195 países em 2015, prevê um esforço internacional para limitar o aumento da temperatura média global  a 1,5 graus Celsius.

Figura 2 – Duvanny Yar, no nordeste da Sibéria, é a região onde o material foi coletado. As amostras do solo foram colhidas a cerca de 40 m de profundidade. A datação por radiocarbono (das plantas contidas nessas amostras) estimou sua idade em 46.000 anos (com 95% de precisão) (Fonte: Imagem extraída de Shatilovich et al., PLOS Genetics)

E foi no Permafrost da Sibéria que o material contendo os vermes foi colhido cuidadosamente e levado para o laboratório (Figura 2). Um estudo filogenético, envolvendo tanto características morfológicas quanto o genoma do verme, concluiu que se tratava de uma nova espécie que os pesquisadores batizaram de Panagrolaimus kolymaensis (Figura 3). Os indivíduos dessa espécie que reviveram foram cultivados em laboratório e se reproduziram por mais de 100 gerações!

Através do sequenciamento e estudo do genoma do P. kolymaensis, os cientistas descobriram que a espécie é triplóide, isto é, seu genoma é composto por 3 conjuntos de cromossomos, como de alguns peixes e ostras.

Os mecanismos celulares (utilizados por esses vermes para sobreviverem a dessecação e ao congelamento extremos) são a biossíntese de trealose (um dissacarídeo) e a gliconeogênese (produção de glicose na ausência de carboidratos).

Na espécie encontrada, P. kolymaensis, a sobrevivência ao congelamento acontece graças a uma rápida desidratação (que pode chegar a mais de 95% da água do corpo) o que evita a formação de cristais de gelo no interior das células. Já na espécie encontrada na Antártica e estudada em 2015, P. davidi, descobriu-se inibidores que impediam a formação de gelo intracelular, ou seja, o organismo era capaz de sobreviver ao congelamento mesmo estando totalmente hidratado.

Figura 3 – Morfologia do P. Kolymaensis: A e C – imagens obtidas por microscopia eletrônica; E e F – fotografias obtidas por microscópio ótico; B, D e G – esboços gráficos. A barra de escala na figura A é de 0,002 mm. (Fonte: Imagem extraída de Shatilovich et al., PLOS Genetics)

Entender melhor os mecanismos que levam esses organismos a terem tanta tolerância à desidratação e ao congelamento, pode ser muito importante em campos de ciência relacionados como a crioterapia, criobiologia e  astrobiologia.

E fica a pergunta: quanto tempo o P. kolymaensis pode sobreviver em condições ambientais tão severas? Não sabemos. Até o momento, o organismo campeão por tempo de vida latente é uma bactéria que foi descoberta no abdômen de uma abelha preservada em âmbar (encontrada na República Dominicana) e que foi trazida de volta à vida após mais de 25 milhões de anos!

Dessa forma, para o bem ou para o mal, estamos alterando o processo de evolução natural ao reviver indivíduos que, de outra forma, pertenceriam a linhagens já extintas.

Ao despertarmos organismos anteriormente dormentes corremos o risco de introduzir espécies invasoras e prejudiciais àquelas nativas de uma determinada região. Elas não tiveram coevolução temporal e a adaptação correspondente. Foi pensando nisto que foi publicado, em julho de 2023, um artigo que investiga os riscos de ressuscitar patógenos. Eles, através da criptobiose, conseguiram viajar para o futuro.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

 

 

 

 

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo.

 

 

 

 

 

Se você gostou, compartilhe o artigo nas redes sociais

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Assessoria de Comunicação – IFSC/USP

20 de julho de 2023

Lentes gravitacionais de supernovas – Por: Prof. Roberto N. Onody

Supernovas são explosões de grandes estrelas ou de anãs brancas que canibalizam uma estrela companheira e que podem gerar buracos negros ou estrelas de nêutrons. O brilho dessas explosões é tão intenso que pode superar a luminosidade de uma galáxia inteira.

Grandes estrelas, com massas 8 vezes (ou mais) a massa do Sol (), contrabalançam a pressão gravitacional com a pressão de radiação proveniente da reação de fusão de elementos químicos. Numa primeira fase, núcleos de Hidrogênio se fundem formando Hélio que, por sua vez, se combinam para formar o carbono e assim por diante, até chegar ao Ferro. Aqui o processo cessa, pois a fusão de núcleos de Ferro absorve ao invés de liberar energia. Neste ponto, o núcleo da estrela extremamente massivo colapsa gravitacionalmente.

No colapso, a compressão gravitacional eleva a temperatura do material (fermiônico – nêutrons, neutrinos, prótons e elétrons) para mais de 100 bilhões de Kelvin! Graças à repulsão da força de Fermi, parte do material que ainda colapsa, rebate numa onda de choque poderosa. Devido à enorme produção de neutrinos e nêutrons na onda de choque, formam-se elementos químicos mais pesados do que o Ferro (e até radioativos como o Urânio). A energia cinética da onda de choque é tamanha que supera a velocidade de escape e a estrela explode liberando no espaço enorme quantidade de matéria e radiação. A explosão é a supernova.

Se a massa da estrela progenitora da supernova estiver entre cerca de 8 e 25 massas solares, o corpo celeste remanescente será uma estrela de nêutrons. Para massas maiores, o núcleo que colapsa atingirá o limite do raio de Schwarzschild (que depende da massa) e o corpo remanescente será um buraco negro.

Se o núcleo da estrela que colapsa contém Hidrogênio, a supernova é chamada de tipo II,  se não contém Hidrogênio é do tipo Ib e, se não contém nem Hidrogênio e nem Hélio, é do tipo Ic.   E a supernova do tipo Ia ? Bem, ela está associada a estrelas bem menores – as anãs brancas.

Figura 1 – A pequena anã branca Sirius B ao lado da brilhante Sirius A (imagem feita pelo telescópio Hubble). Ela é a anã branca mais próxima do Sol, está a 8,6 anos luz de distância e sua nebulosa planetária já se dissipou.  Nosso Sol se tornará uma anã branca daqui há alguns bilhões de anos. b) A nebulosa da Hélice é a mais próxima da Terra, está a cerca de 700 anos luz. No centro vemos a anã branca. O gás que forma a nebulosa tem um diâmetro de cerca de 3 anos luz. Imagem (com filtros) feita pelo telescópio CFHT (Canada-France-Hawaii telescope)

Quando uma estrela nasce, é a sua massa que ditará sua evolução e seu destino. Quando a massa inicial da estrela está entre 0,2 e 8 vezes a massa do Sol, ela se tornará uma anã branca. Numa primeira  etapa, a estrela funde hidrogênio para formar hélio, depois hélio para formar carbono etc. Cada etapa requer uma temperatura cada vez mais alta para realizar a fusão.  A estrela, então, se expande tornando-se uma gigante vermelha. Dependendo da massa da estrela, chegará um ponto em que ela não conseguirá mais compressão gravitacional suficiente para aumentar a temperatura do seu interior.  As reações de fusão cessam, o núcleo colapsa dando origem à anã branca e as camadas gasosas externas da estrela são ejetadas formando belíssimas nebulosas planetárias (Figura 1). As nebulosas planetárias têm vida curta (em termos astronômicos) e se dissipam em algumas dezenas de milhares de anos.

Figura 2 – As 4 imagens da SN Zwicky, refratadas pela galáxia lente, estão indicadas pelas letras A,B,C e D. Elas percorreram caminhos diferentes passando por diferentes curvaturas do espaço-tempo. Elas têm também diferentes luminosidades

A composição química da anã branca será dada pelos elementos químicos formados nas últimas etapas de fusão nuclear (em geral, carbono e oxigênio). Anãs brancas tem densidade enorme – da ordem de 1 bilhão de kg/m3, tipicamente, a massa do Sol comprimida ao tamanho da Terra. Nessa densidade, os férmions (prótons, nêutrons e elétrons) presentes na anã branca sentem a força de Pauli (consequência do princípio de exclusão de Pauli) que se opõe à atração gravitacional e estabiliza a anã branca. Porém, se a massa da anã branca for superior a 1,4 massas solares (limite de Chandraseckhar), ela explodirá como uma supernova.

Para que esse limite seja rompido (depois da anã branca ter se formado) é necessário um sistema binário no qual a anã branca se alimenta de matéria de uma estrela companheira. A explosão resultante é uma supernova tipo Ia (veja animação).

Para essa explosão da anã branca, temos uma teoria muito bem conhecida e desenvolvida de como a magnitude absoluta (valor da luminosidade de um corpo celeste a uma distância de 10 parsecs ou 32,6 anos-luz) varia com o tempo. Medindo a magnitude relativa aqui na Terra, podemos determinar com bastante precisão, a nossa distância até a supernova. Hoje, na Astronomia, as supernovas Ia representam uma das melhores oportunidades para se medir grandes distâncias no nosso universo.

A detecção ou descoberta do brilho das explosões supernovas é feita não só por grandes telescópios de observatórios, mas também por astrônomos amadores. É o caso da descoberta da supernova SN 2023ixf. Em maio de 2023, o astrônomo amador Koichi Itagaki observou o aparecimento de um forte brilho (de magnitude 11, não visível a olho nu) num dos braços da galáxia espiral do Cata-Vento, a cerca de 21 milhões de anos-luz da Terra. Era a supernova de número 172 descoberta por Itagaki! Este prolífico e solitário astrônomo amador só é superado pelo norte-americano Tim Puckett que, com ajuda de voluntários do mundo todo, já detectou cerca de 360 supernovas!

Agora que conhecemos melhor as supernovas, é hora de nos debruçarmos sobre os efeitos de lente gravitacional. Pela Teoria da Relatividade Geral proposta por A. Einstein em 1915, sabemos que a luz (radiação eletromagnética) ao passar próximo de corpos celestes muito massivos (galáxias, estrelas de nêutrons, buracos negros etc.) não percorre uma linha reta, mas segue, isso sim, a curvatura do espaço-tempo causada por estes corpos celestes. Dessa forma, estes objetos massivos podem funcionar como lentes – as lentes gravitacionais (veja newsletter 4), que magnificam a luminosidade e aumentam a resolução da imagem.

Em 1936, A. Einstein fez os cálculos do ângulo de deflexão para o caso em que tanto a lente quanto o fundo luminoso fossem estrelas da Via Láctea. Concluiu que este ângulo seria pequeno demais para ser resolvido com os instrumentos astronômicos (da época). No ano seguinte, F. Zwicky mostrou ser possível medir esse efeito caso a lente e a fonte de luz fossem extragalácticos.

Hoje em dia, lentes gravitacionais de galáxias e quasares são bastante comuns. Muito mais raro, porém, é encontrar uma lente gravitacional da explosão de uma supernova posto que é um evento transitório no tempo, raro e requer um perfeito alinhamento da fonte de luz (supernova), da lente (galáxia) e da Terra. E se a supernova for do tipo Ia, os cálculos podem ser muito mais precisos.

A primeira observação do efeito lente gravitacional de uma supernova do tipo Ia, só foi realizada em 2013. Mas, como os astrônomos levaram 3 anos para reconhecer o evento como uma lente gravitacional, à essa época, a intensidade luminosa da explosão já estava muito baixa e as múltiplas imagens não puderam mais ser resolvidas.

Em 2018, teve início o projeto ZTF (Zwicky Transient Facility) no Observatório Palomar (Califórnia, EUA). Em agosto de 2022, os astrônomos observaram múltiplas imagens da lente gravitacional de uma supernova tipo Ia – que foi batizada de SN Zwicky. Dado o alerta, astrônomos do mundo todo correram para analisar exaustivamente o evento, utilizando tanto telescópios terrestres quanto espaciais. O resultado foi publicado na revista Nature, de junho de 2023.

O telescópio Keck (Havaí, EUA) conseguiu resolver (separar) as quatro imagens da SN Zwicky no comprimento do infravermelho baixo (Figura 2). O núcleo da galáxia que hospeda a supernova está a uma distância de cerca de 4 bilhões de anos luz da Terra. A galáxia refratora (lente) está mais próxima, aproximadamente, 2,5 bilhões de anos luz da Terra.

Agora, vamos torcer para que daqui há algum tempo surja uma quinta imagem da SN Zwicky. Isto permitirá calcular o valor da constante de Hubble, a constante que mede o ritmo de expansão do universo. Isso já aconteceu com a supernova SN Refsdal. Detectada em 2014, ela também apresentou, inicialmente, 4 imagens, mas, cerca de 1 ano depois surgiu uma quinta imagem. Medindo o seu redshift, isto é, o aumento do comprimento de onda (efeito Doppler) da luz devido à expansão do universo e comparando com aqueles das 4 imagens anteriores, eles puderam estimar o quanto o universo havia se expandido durante esse 1 ano. Para a constante de Hubble, eles obtiveram o valor de 66,6 km/s por megaparsec. Por enquanto, a discrepância nos valores da constante de Hubble obtidos por diferentes métodos continua um mistério.

Caro leitor:

Já se encontra disponível na página

Newsletter Ciência em Panorama – Portal IFSC (usp.br)

o repositório da newsletter “Ciência em Panorama

Boa leitura!

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo

 

 

 

 

 

Se você gostou, compartilhe o artigo nas redes sociais

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Assessoria de Comunicação – IFSC/USP

15 de junho de 2023

Células-Tronco e a Medicina Regenerativa (parte 3) – Por: Prof. Roberto N. Onody

Por: Prof. Roberto N. Onody *

Caro leitor,

O tema “Células-Tronco e a Medicina Regenerativa” pela sua extensão e complexidade foi dividido em 3 partes. Esta é a parte 3 ( veja parte 1 e parte 2). Devido às suas inúmeras aplicações no tratamento e, em alguns casos, até da cura de doenças graves, a importância das células tronco cresce dia a dia. Juntos, o transplante de células tronco e a terapia genética, representam hoje a vanguarda da medicina regenerativa.

Aproveito para informar que a newsletter “Ciência em Panorama” no. 4 já está no ar.  Abaixo, um sumário da edição

*Astronomia

1-Um buraco negro supermassivo semeando novas estrelas?

2-Um buraco negro solitário

*Biologia

Qual é a árvore mais velha do mundo?

*Inteligência Artificial

Prêmio recusado

*Curiosidades Editoriais

*Curiosidades Matemáticas

A newsletter pode ser subscrita por qualquer pessoa, alunos, docentes, funcionários etc. Para receber as edições basta enviar um e-mail para

onody@ifsc.usp.br

colocando o seu nome e o seu e-mail.

Boa leitura!

Junho/2023

6-Perda da Visão

Figura 11 – Os cílios protegem os olhos contra materiais suspensos no ar, como a poeira. As pálpebras se movimentam (piscam) espalhando as lágrimas que umedecem a córnea e a esclerótica retirando substâncias prejudiciais ao olho

A visão é, provavelmente, dos nossos 5 sentidos o mais nobre. Nossos olhos são as janelas que nos permitem ver o mundo maravilhoso e colorido que nos rodeia e são também, os espelhos de nossos sentimentos e emoções. Como abordaremos o transplante de células-tronco para diferentes regiões oculares, segue abaixo um pequeno resumo.

A luz que chega aos nossos olhos percorre o seguinte caminho (veja Figura 11):

*Atravessa primeiramente a Conjuntiva, membrana transparente que recobre a parte anterior do olho e a parte interna das pálpebras (membrana que, se infeccionada causa a Conjuntivite);

*Depois passa ou pela Córnea, tecido transparente (feito de fibras paralelas de colágeno) que recobre a íris ou pela Esclerótica, tecido semirrígido (feito de fibras entrelaçadas de colágeno), opaco, que reflete a luz (dando a cor branca aos olhos) e que se estende até o nervo ótico. A córnea e a esclerótica estão ligadas pelo Limbo, tecido onde são geradas muitas células-tronco;

*Depois da córnea (a janela dos nossos olhos), a luz atravessa o Humor Aquoso líquido transparente, nutriente dessa região e que controla a pressão ocular;

*Em seguida vem a Íris, que é um músculo com muitos pigmentos (que dão a cor ao olho – marrom, mel, verde, cinza e azul) e que também controla o diâmetro de um orifício chamado Pupila. O diâmetro da pupila regula a intensidade de luz que seguirá adiante (quanto mais luz menor o diâmetro). Em ótica, a íris e a pupila corresponderiam ao diafragma e a abertura, respectivamente.

*Depois a luz passa pelo Cristalino que é uma lente transparente que se movimenta para focar objetos situados em diferentes distâncias. A Catarata é uma lesão que torna o cristalino menos transparente.

*Então, a luz atravessa o Humor Vítreo, substância transparente e gelatinosa que dá a forma esférica ao olho.

*Finalmente, a luz atinge a Retina que é uma camada de células fotossensíveis com formatos de bastonetes (120 milhões) e cones (6 milhões). A retina se apoia sobre um tecido chamado de Coróide, que contém uma rede de vasos sanguíneos fornecedora de oxigênio e nutrientes para a retina. O olho humano tem diâmetro de 2,2 cm, ou seja, uma área de aproximadamente 3,8 cm2. A retina recobre quase 70% dessa superfície. No centro dela se encontra uma pequena região (com raio de 0,5 cm) chamada Mácula e no interior dela, uma área menor ainda, alinhada com o eixo central da lente do cristalino, chamada de Fóvea. Elas são compostas somente por células cônicas. São responsáveis pela visão nítida e detalhada. A degeneração da mácula ocorre com o avanço da idade e é uma das doenças oculares que podem ser tratadas com células-tronco.

*As células receptoras transformam a luz em impulsos elétricos que são conduzidos pelo Nervo Ótico até o cérebro onde as imagens são formadas e interpretadas.

A-Retina

Figura 12 – Após a dissociação do organóide retinal, foi utilizado como marcador um vírus modificado da raiva. Em vermelho, o rastro deixado pelo marcador, demostrando a reconexão entre células fotorreceptoras e células ganglionares (Fonte: UW-Madison/Gamm Laboratory)

Nas doenças degenerativas da retina, as células fotorreceptoras começam a funcionar mal, morrem, levando à cegueira progressiva. Como vimos anteriormente, é natural lançar mão de células-tronco pluripotentes induzidas (ou não) para restaurar a retina repondo suas células fotossensíveis.

No início as culturas das células-tronco cresciam em duas dimensões (placas de Petri) mas, rapidamente os pesquisadores se convenceram de que, para os transplantes, era necessário fazer o cultivo em três dimensões. Essas culturas passaram a ser chamadas de organóides. Há várias técnicas para isso, mas basicamente todas elas utilizam hidrogel sintéticos ou biológicos.

Em 2014, pesquisadores da Universidade Johns Hopkins, Maryland, EUA, recriaram in vitro aspectos funcionais e estruturais da retina. Eles utilizaram células-tronco pluripotentes induzidas que foram obtidas a partir da pele humana. O organóide 3D assim construído, tinha a sequência correta das camadas correspondentes aos bastonetes e cones e eram fotossensíveis!

Para avançar para uma fase de testes clínicos era necessário provar que essa retina construída no laboratório, uma vez dissociada do organóide, manteria sua capacidade de formar novas conexões sinápticas. Isso foi demonstrado em um trabalho realizado por uma equipe da Universidade de Wisconsin e publicado em 2023 (Figura 12) na revista PNAS.

B-Mácula

A degeneração macular relacionada à idade é a lesão ocular mais comum para indivíduos com mais de 50 anos. Caracteriza-se pela perda progressiva de visão, com o surgimento de pontos escuros nos olhos; os objetos que estão bem à sua frente (pois, como vimos, a mácula fica bem no centro da retina) começam a perder a forma, o tamanho e a cor ou ficar embaçados; ao ler um texto, palavras podem desaparecer.

A degeneração da mácula neovascular (ou úmida) é a forma mais grave da doença. Nas pessoas com degeneração macular úmida, o Coróide se enche em demasia de vasos sanguíneos que acabam perfurando o epitélio pigmentar da retina, justamente onde ela é mais esgarçada – a mácula. O epitélio pigmentar da retina é a última camada da retina à qual estão ligados diretamente os fotorreceptores – cones e bastonetes.

A terapia tradicional dessa lesão consiste aplicar injeções intraoculares de medicamentos antiangiogênicos (que ajudam a secar os vasos sanguíneos) como Lucentis e Eylea. Esse tratamento não cura, não pode ser aplicado em casos de conjuntivite e flebite (inflamação nas veias das pernas) e é comum recidivas.

Em 2010, uma mulher japonesa de 77 anos foi diagnosticada com degeneração macular úmida. Passou 3 anos sendo medicada com antiangiogênicos, mas a doença era recorrente. Ao todo ela recebeu 13 injeções intraoculares que não conseguiram parar a degeneração!

Figura 13 – Na parte de cima: olho normal, neovascularização com ruptura do epitélio pigmentar, remoção dessa região e transplante da cultura de células tronco induzidas a partir de células somáticas (na parte de baixo).

Em novembro de 2013, ela foi escolhida para fazer um tratamento clínico experimental. Nessa ocasião, sua acuidade visual era de 0,15 e 0,20 nos olhos esquerdo e direito, respectivamente. Esses valores foram obtidos usando-se anéis de Landolt. Estes anéis têm a forma aproximada de um C (o tamanho e a abertura do C são alterados e rotacionados pelo oftalmologista) e são bastante utilizados quando a pessoa não é alfabetizada. No Brasil é mais comum se utilizar a tabela de Snellen. Neste caso, a paciente teria 20/130 e 20/100 de acuidade visual.

A Medicina considera uma pessoa cega quando sua visão corrigida do seu melhor olho é menor ou igual a 20/200, ou seja, o que uma pessoa normal consegue enxergar a 50 m de distância, ela só consegue a 5m. Portanto, a idosa japonesa estava bem próxima da cegueira.

Depois de colhido material da paciente, utilizando-se protocolos bioquímicos para induzir células-tronco a se diferenciarem em células do epitélio pigmentar da retina, várias culturas e amostras foram testadas em camundongos para verificar elas tinham algum potencial cancerígeno. No mês de setembro de 2014, dez meses depois do início do tratamento clínico, foi realizado o primeiro transplante mundial desse tipo (Figura 13). O sucesso foi parcial, pois um ano depois da cirurgia, não houve aumento da acuidade visual, mas a progressão degenerativa foi estancada.

Agora em 2023, um grupo de pesquisa de Kobe (Japão) publicou uma revisão do método e estimou que esse primeiro transplante, além de demorado, teria custado cerca de um milhão de dólares. Eles propõem a utilização de técnicas de HLA (Human Leukocyte Antigens) para diminuir o tempo e o dinheiro necessários para o transplante.

C-Córnea

Figura 14 – O limbo é uma região rica em células-tronco. Elas se diferenciam e migram para formarem as células epiteliais da córnea (Fonte: Nature)

Como dissemos na Introdução, o primeiro transplante de córnea foi realizado em 1905 pelo médico austríaco E. Zirm. O receptor foi um trabalhador rural de 45 anos que, ao limpar um galinheiro com cal, teve seus dois olhos queimados. O doador da córnea foi um menino de 11 anos, cego por perfuração das duas escleróticas. Suas córneas foram removidas e enxertadas no agricultor. No olho direito a cirurgia falhou, mas o esquerdo atingiu, depois de 6 meses, acuidade visual 6/36 (ou seja, ele conseguia ver a 6 metros de distância o que uma visão normal consegue a 36 metros).

Muito embora o primeiro transplante de córnea tenha sido feito com um doador vivo, toda pessoa com córneas sadias e que tenha falecido há menos de 6 horas (ou 24 horas, mas congelada) pode ser um doador. Como a córnea não contém vasos sanguíneos, não importa o tipo sanguíneo do doador e do receptor.

Com um índice de sucesso entre 80 a 90 % dos transplantes, o número de cirurgias da córnea realizadas por ano é de cerca de 185 mil no mundo e 13 mil no Brasil. As técnicas desses transplantes evoluíram muito ao longo do tempo e se tornaram extremamente precisas com a utilização de lasers.

Um transplante de córnea pode não ter resultado positivo se o limbo (a região entre conjuntiva e a córnea) não produzir ou for deficiente na reposição das células epiteliais da córnea (veja figura 14).

Quando essa deficiência ocorre somente em um dos olhos, parte das células-tronco são cirurgicamente removidas, crescidas em laboratório e colocadas no limbo danificado. Mas, quando o problema está presente em ambos os olhos, entram em cena as células-tronco pluripotentes induzidas.

O primeiro transplante desse tipo foi feito em uma mulher japonesa pelo cirurgião Kohji Nishida, da Universidade de Osaka, em 2019. Não houve rejeição.

Um programa mais ambicioso está em andamento na Universidade de New Castle (Reino Unido). Utilizando uma impressora 3D com uma tinta composta por células-tronco pluripotentes, colágeno e um extrato de alga, os pesquisadores Swioklo e Connon pretendem construir uma córnea completa!

7-Perspectivas

Quase todas as doenças danificam, de alguma forma, os tecidos do nosso corpo quer sejam elas oriundas de infecções, doenças crônicas ou degenerativas. A reparação de tecidos danificados, quando não eficiente, acaba redundando na formação de fibroses. A fibrose pode afetar qualquer órgão e está particularmente presente em processos inflamatórios crônicos. Estima-se que 45% de todas as mortes podem ser mapeadas, em última instância, a falhas regenerativas associadas à fibrose e inflamações.

Como vimos, a medicina regenerativa muito se desenvolveu nesta última década, mas muito ainda está para ser feito. Segundo artigo recente publicado na revista Nature, os maiores obstáculos aos avanços da medicina regenerativa (veja Figura 15) são: inadequação das células progenitoras (escassez de células-tronco, comprometimento funcional e status de diferenciação), inflamação e fibrose. Por outro lado, as terapias emergentes mais promissoras para a medicina regenerativa são: células-tronco humanas pluripotentes (tratadas nesta série de 3 artigos que ora encerramos), terapias anti-inflamatórias e anti-fibróticas. Neste último caso, está incluída a terapia celular CAR-T que levou, recentemente, à remissão de um paciente SUS com linfoma.

Figura 15 – Obstáculos à medicina regenerativa e terapias emergentes (Fonte: K. Holoski/Science)

 

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo:

 

 

 

 

 

Se você gostou, compartilhe o artigo nas redes sociais

 

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Assessoria de Comunicação – IFSC/USP

27 de abril de 2023

Células-Tronco e a Medicina Regenerativa (Parte 2) – Por: Prof. Roberto N. Onody

Figura 5 – Imagem gerada no computador pelo sistema de inteligência artificial Midjourney, da OpenAI, com o comando: “Many realistic stem cells in a Petri dish glass,4k, illuminated by LEDs”

Por: Prof. Roberto N. Onody *

Caro leitor,

O tema “Células-Tronco e a Medicina Regenerativa” pela sua extensão e complexidade foi dividido em 3 partes. Esta é a parte 2, a parte 1 você encontra AQUI.

Devido às suas inúmeras aplicações no tratamento e, em alguns casos, até da cura de doenças graves, a importância das células tronco (Figura 5) cresce dia a dia. Juntos, o transplante de células tronco e a terapia genética, representam hoje a vanguarda da medicina regenerativa.

Aproveito para informar que a newsletter “Ciência em Panorama” no. 3 já está no ar.  Abaixo, um sumário da edição.

Química

As esponjas líquidas;

Azida de azidoazida;

Matemática

A agulha de Buffon e o número π;

Biologia

Vivo, congelado e vivo de novo!;

Astronomia

A estrela Trappist-1 e seus 7 exoplanetas;

A newsletter pode ser subscrita por qualquer pessoa, alunos, docentes, funcionários etc. Para receber as edições basta enviar um e-mail para onody@ifsc.usp.br , colocando o seu nome e o seu e-mail.

Boa leitura!

Abril/2023

3-Sangue fabricado a partir de células-tronco

Figura 6 – Primeira transfusão de sangue com células vermelhas fabricadas em laboratório da Universidade de Cambridge

Em imunologia, um antígeno é uma estrutura molecular que pode se ligar a um anticorpo ou célula T, disparando um ataque do sistema imunológico. Os grupos sanguíneos A, B, AB e O têm antígenos na superfície das células vermelhas (também chamadas de glóbulos vermelhos, hemácias ou eritrócitos) que são açúcares, já os grupos Rh têm antígenos que são proteínas. Até setembro de 2022, eram conhecidos 43 grupos sanguíneos contendo 349 antígenos! Felizmente, na prática, para as transfusões do dia a dia, basta conhecer os oito grupos A, B, AB e O com seus respectivos Rh (positivo ou negativo).

Em todo o mundo, bancos de sangue selecionam doadores e coletam o sangue que pode ser armazenado por 35 a 42 dias. Em períodos de festas como entre o Natal e o Ano Novo, os estoques de sangue caem sensivelmente. Pior, pacientes com tipos sanguíneos mais raros ou portadores de mutações genéticas como a anemia falciforme, serão severamente prejudicados. E aí entram novamente as células-tronco.

Em 2022, pesquisadores da Universidade de Cambridge coletaram sangue de doadores, separaram as células-tronco, cultivaram-nas em laboratório até se diferenciarem em células vermelhas (Figura 6). Duas pessoas, não doadoras e saudáveis, receberam a transfusão do sangue produzido in vitro. Não sentiram nenhum efeito colateral.

Na próxima etapa da pesquisa, cerca de 10 participantes deverão receber transfusão com hemácias manufaturadas em laboratório e 10 uma transfusão de sangue normal. Os cientistas acreditam que as células vermelhas crescidas em laboratório, por serem todas jovens e da mesma idade, devem ter desempenho superior (maior oxigenação do sangue) à daquelas obtidas via transfusão tradicional.

4-Curando a diabetes?

Figura 7 – Brian Shelton talvez seja o primeiro ser humano a ser curado da diabetes tipo 1 (New York Times)

No ano de 2019, 463 milhões de pessoas em todo o mundo tinham diabetes, cerca de 9,3 % da população adulta. Nesse mesmo ano, morreram 1,5 milhões de pessoas por causa da diabetes e 460.000 por doenças renais causadas pela diabetes. Há 2 tipos de diabetes: a do tipo 1 (que compõe 5% dos casos), em que os portadores necessitam tomar doses de insulina e a do tipo 2 (95% dos casos) que não precisam, mas que produzem insulina em quantidade insuficiente.

A insulina é o hormônio que controla os níveis de açúcar no sangue. Ela é produzida pelas células beta (β), no pâncreas. A diabetes é uma doença autoimune que mata essas células beta, desestabilizando o metabolismo de açúcar no sangue.

A insulina foi extraída pela primeira vez do pâncreas de um cachorro em 1921 e aplicada (com sucesso) em um adolescente de 14 anos em 1922. Portanto, há 100 anos que a insulina é injetada em pessoas diabéticas. Mas, isso está prestes a mudar com o advento das células-tronco.

Em 2021, a Universidade de Harvard utilizou células-tronco que se diferenciaram (in vitro) em células beta. Aplicaram (junto com terapia imunossupressora) em um paciente que há 40 anos injetava diariamente insulina (Figura 7). Em 90 dias, o paciente já estava produzindo sua própria insulina.

A companhia de biotecnologia ViaCyte estuda uma alternativa ao procedimento utilizado por Harvard. Neste estudo, as células-tronco ainda não estão totalmente diferenciadas – elas amadurecem e se tornam funcionais dentro do corpo humano.

Nos últimos 100 anos, pessoas com diabetes tipo 1 sobreviveram tendo que aplicar injeções de insulina durante a vida toda. Com as investigações das células-tronco em andamento, esse transtorno pode acabar.

5-Células-tronco e as doenças Neurodegenerativas

Discutiremos em seguida as doenças neurodegenerativas mais comuns no Brasil e no mundo. Antes, porém, lembremos a diferença existente entre incidência e prevalência do ponto de vista epidemiológico (tratadas, frequentemente na mídia como sinônimos). A incidência se refere ao número de casos novos que ocorrem por ano numa população. A prevalência se refere ao número total de casos existentes (novos e antigos) numa população em uma determinada data (ano). Abaixo, uma tabela com as respectivas prevalências (estimadas).

Doença de Alzheimer

No Mundo38 milhões

No Brasil1,2 milhões

 

Doença de Parkinson

No Mundo – 8,5 milhões

No Brasil 200 mil

 

Esclerose Lateral Amiotrófica

No Mundo – 320 mil

No Brasil – 8 mil

A)Doença de Alzheimer

A doença de Alzheimer responde por 70% de todas as possíveis formas de demência no mundo. Afeta, em geral, pessoas com mais de 65 anos. A Organização Mundial de Saúde estimou (2021) em cerca de 38 milhões de pessoas em todo o mundo diagnosticadas com Alzheimer, atingindo mais as mulheres do que os homens (na proporção de 3 para 2). No Brasil, estima-se em 1,2 milhões o número total de casos, com 100 mil novos diagnósticos todo ano.

Como todas as partes do nosso corpo, o cérebro envelhece. Os sintomas de Alzheimer começam com a perda da memória recente. Em seguida, vem a mudança de humor e comportamento, desorientação e confusão sobre eventos, lugares e tempo. Na fase final, dificuldades de falar, de engolir e de caminhar (Figura 8).

Figura 8 – A doença de Alzheimer é devastadora, mudando as pessoas que amamos e a nossa relação com elas para sempre

Muito embora a doença de Alzheimer atinja, na sua maioria, pessoas idosas, ela também pode se manifestar em jovens. Neste ano de 2023, foi diagnosticado o indivíduo mais jovem com mal de Alzheimer, um rapaz chinês de apenas 19 anos!

A doença de Alzheimer não tem cura. Sabe-se com certeza que, à medida que a doença avança, aumenta a formação de duas proteínas: tau e beta amilóide. Acredita-se que o acúmulo dessas proteínas interrompa ligações entre neurônios comprometendo, progressivamente, várias funções do organismo. Essas proteínas em quantidade extra são tóxicas, iniciando processos inflamatórios, eliminando sinapses e atrofiando o cérebro.

Terapias do Alzheimer têm sido propostas utilizando todos os tipos de células-tronco: pluripotentes (inclusive aquelas oriundas do cordão umbilical e da placenta), pluripotentes induzida e multipotentes. Para uma revisão recente, veja essa referência.  Bons resultados na fase pré-clínica têm sido obtidos em camundongos. Em seres humanos os estudos não vão além das fases clínicas I e IIa. Utilizando algumas dezenas de pacientes com Alzheimer confirmado ou sob suspeita, eles são divididos em grupos que recebem o placebo e o transplante (intranasal).

Muito embora os resultados sejam promissores (no sentido de que os pacientes tiveram alguma melhora na memória) vale a pena lembrar que só existem (até agora) registros de experimentos realizados na China.

Em que pese tudo o que dissemos acima sobre as pesquisas com células-tronco estarem ainda no seu estágio experimental, pululam, na internet, anúncios capciosos oferecendo ´tratamento´ da doença de Alzheimer. Nenhuma surpresa, já que as redes sociais estão abarrotadas de anúncios do tipo ´o que os médicos não contam…´ sem nenhuma vergonha ou punição. Para casos iniciais e moderados de Alzheimer são prescritos os medicamentos, tradicionais e ´antigos´ (anteriores a 2003) Rivastigmina, Donezepil e Galantamina. O medicamento Aducanumab, aprovado pela FDA (Food and Drug Administration, a Anvisa dos EUA) em 2021, desenvolve anticorpos para combater as placas beta amilóides que se formam em portadores de Alzheimer, mas seus efeitos clínicos têm sido duramente contestados. Agora, em janeiro de 2023, a FDA aprovou o Lecanemab com a condição de que os pacientes usuários desse medicamento realizem 3 imagens de ressonância magnética nos 6 primeiros meses de uso. Nos testes clínicos de nível III, realizados em 1.800 pacientes (todos no primeiro estágio do Alzheimer e com duração de 18 meses), estimou-se que o medicamento diminuiu em 27% o ritmo do decaimento cognitivo. Houve 3 óbitos e vários casos de hemorragia e inchamento do cérebro.

À medida que o envelhecimento populacional aumenta em todo o mundo, se torna cada vez mais necessário investir e a pesquisar a doença de Alzheimer, seja para diminuir seus efeitos mais perniciosos ou, quem sabe, para se encontrar uma cura.

B)Doença de Parkinson

James Parkinson, médico inglês, escreveu o primeiro ensaio sobre os sintomas da doença em 1817. A doença de Parkinson é uma condição degenerativa do cérebro que se caracteriza, principalmente, por afetar os movimentos – lentidão, rigidez, tremores e desequilíbrio, bem como complicações não motoras – declínio cognitivo, distúrbios do sono e dor.

Com o avanço da doença, o portador desenvolve discinesias (movimentos involuntários) e distonias (contrações involuntárias e dolorosas dos músculos) que afetam a fala. É uma doença estigmatizada e discriminada socialmente. Quem nunca ouviu, ao deixar tremer uma xícara, a frase cruel em tom de chacota “está com mal de Parkinson?”

Figura 9 – O ator Michael J. Fox, 61, foi diagnosticado com a doença de Parkinson em 1991. Montou uma ONG e já arrecadou 1,5 bilhões de dólares para pesquisas da doença (Fonte: Celeste Sloman/The New York Times)

Em 2019, a Organização Mundial de Saúde estimou, em 8,5 milhões de pessoas com a doença de Parkinson em todo o mundo, com um total de 329.000 óbitos. No Brasil, acredita-se que 200 mil pessoas tenham essa enfermidade.

Sabe-se que cada paciente desenvolve a doença de Parkinson a seu modo, passando por diferentes ou os mesmos sintomas em ordens cronologicamente diferentes. Existe uma escala internacional que atribui, ao paciente, um valor para o estágio em que se encontra sua doença de Parkinson (veja aqui).

A doença de Parkinson, até agora, não tem cura (Figura 9). Uma das mais importantes descobertas foi feita pelo médico sueco Arvid Carlsson que constatou a diminuição de dopamina em seus pacientes. Por esse trabalho ele recebeu o Prêmio Nobel de Medicina e Fisiologia de 2000.

No interior do nosso cérebro, a dopamina é um neurotransmissor e neuromodulador responsável por inúmeras funções: executiva (selecionar e monitorar escolha de objetivos), controle motor, motivacional, estimulador, aprendizado associativo, satisfação sexual e até náusea.

Fora do nosso cérebro, a dopamina é um vasodilatador que reduz o número de linfócitos, aumenta a excreção de sódio e urina nos rins, reduz a produção de insulina no pâncreas e reduz a motilidade gastrointestinal.

A dopamina é um hormônio produzido por neurônios especializados (chamados de dopaminérgicos) que estão situados em apenas algumas regiões do cérebro como a substantia nigra (do latim, substância negra) que é um dos 5 gânglios (ou núcleos) basais localizado no meio do cérebro. No total se conhecem 6 regiões do cérebro produtoras de dopamina. O número estimado de neurônios nessas regiões é muito pequeno – cerca de 400 mil.

Muito embora o número de neurônios que secretam dopamina e suas regiões produtoras seja realmente pequeno, elas são muito articuladas, com axônios conectando-as a quase todo o cérebro.

É importante observar que a dopamina com origem externa ao nosso cérebro não consegue entrar devido à barreira hematoencefálica (a membrana que protege o sistema nervoso de substâncias tóxicas presentes na corrente sanguínea). A solução foi utilizar uma substância precursora na síntese da dopamina – a L-DOPA. Ela consegue penetrar a barreira hematoencefálica e difundir dopamina no interior do nosso cérebro. Daí veio o medicamento Levodopa que é, de longe, o mais utilizado no tratamento do Parkinson. Porém já se sabe que o seu prolongado conduz a inúmeros e indesejáveis efeitos colaterais.

Algumas vezes a doença de Parkinson não é naturalmente adquirida, mas, causada por agentes externos que conhecidamente destroem os neurônios dopaminérgicos como encefalite, concussões cerebrais e envenenamento químico (por exemplo, por MPTP). Esta forma adquirida é chamada de Síndrome de Parkinson que é similar em múltiplos aspectos à doença de Parkinson. O caso mais comum do Parkinson (´naturalmente´ adquirido) se trata de uma doença idiopática uma vez que a causa mortis dos neurônios produtores de dopamina é desconhecida.

Como dissemos acima, atualmente a doença de Parkinson não tem cura. Medicamentos como carbidopa-levodopa melhoram sim, os sintomas e a qualidade de vida dos pacientes, mas são paliativos e não impedem a degeneração progressiva e a morte continuada dos neurônios que sintetizam a dopamina. Precisamos repor esses neurônios e, naturalmente, o transplante de células-tronco passou a ser investigado.

O primeiro estudo clínico (com 7 participantes) utilizando células-tronco pluripotentes induzidas foi realizado no Japão em 2018. Como a morte dos neurônios dopaminérgicos ocorre numa região bem localizada no cérebro, a doença de Parkinson, ao contrário de outras doenças neurodegenerativas, pode se beneficiar com implantes de células-tronco feitos diretamente na área afetada (através de 2 pequenos furos feitos no crânio).

Os cientistas já aprenderam a induzir neurônios dopaminérgicos em células-tronco em grande quantidade e a baixo custo. O ideal seria produzi-las a partir de células-tronco do próprio paciente mas isso, já se sabe, encareceria bastante o procedimento. Portanto, faz-se necessário o uso concomitante de drogas imunossupressoras.

Neste ano de 2023, um teste clínico nível 1 estará em curso com 4 pacientes da Suécia e 4 pacientes do Reino Unido. A expectativa é de que nos próximos 4 a 8 anos essa terapia já esteja disponível em uma escala maior. Recrutamento para tentar participar de testes clínicos pode ser realizado aqui.

Por último, gostaria de apontar a iniciativa de estudantes de engenharia elétrica do Centro Universitário de Brasília, que desenvolveram um protótipo de um talher eletrônico para ajudar pessoas com a doença de Parkinson.

C)Esclerose Lateral Amiotrófica (ELA)

É uma doença neurodegenerativa que acarreta paralisia motora progressiva e irreversível. É causada pela degeneração dos neurônios motores localizados no cérebro e na medula espinhal. Seus sintomas são fraqueza muscular, enrijecimento dos músculos laterais, câimbras, espasmos etc.

Figura 10 – O físico Stephen Hawking deixou importantes contribuições para a Ciência. Diagnosticado com ELA aos 21 anos de idade, foi-lhe prognosticado ter somente mais 3 anos de vida. Sobreviveu por mais 50 anos sem nunca parar de trabalhar

ELA é relativamente uma doença rara, atingindo cerca de 320 mil pessoas no mundo todo (valor médio que eu obtive utilizando esta referência). No Brasil, os dados não são confiáveis de sorte que eu supus uma distribuição global uniforme e extrapolei o valor para 8 mil casos diagnosticados (1/40, que é a razão entre a população brasileira e a mundial). Está em andamento um projeto que pretende determinar a incidência/prevalência dos indivíduos com ELA no Brasil em 2022. Não há dados na Organização mundial de Saúde.

Quando entramos em contacto com um patógeno (vírus, bactéria…), nosso corpo reage enviando um batalhão de anticorpos ou leucócitos para o local afetado. Temos uma inflamação aguda – o local fica avermelhado, dói ao ser tocado, incha (edema) e se aquece. Se esta inflamação perdurar por meses ou anos, teremos uma inflamação crônica.

Em uma pessoa portadora de ELA, esta condição inflamatória ativa um grande número de micróglias que além de eliminarem os neurônios motores mortos, passam a atacar também os neurônios motores saudáveis, conduzindo ao quadro de paralisia progressiva (Figura 10).

A terapia com células-tronco diminui a inflamação e modula o sistema imune. Células-tronco retiradas da pele do paciente, são induzidas em laboratório e administradas via injeção intravenosa. Estudos clínicos demonstraram uma diminuição no ritmo da degeneração dos neurônios motores. Para uma revisão recente da pesquisa do uso clínico de células-tronco em pacientes com ELA, veja aqui.

Continua (em breve) na parte 3

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo.

 

 

 

 

 

Se você gostou, compartilhe o artigo nas redes sociais

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Assessoria de Comunicação – IFSC/USP

24 de março de 2023

Células-Tronco e a Medicina Regenerativa (Parte I) – Por: Prof. Roberto N. Onody

Figura 1 – Imagem gerada no computador pelo sistema de inteligência artificial DALL*E 2, da OpenAI, com o comando: “3D render large and connected stem cells in Digital Art, high resolution”.

Por: Prof. Roberto N. Onody *

Caro leitor,

Iniciamos o ano de 2023, abordando o tema “Células-Tronco e Medicina Regenerativa” que será dividido em 3 partes. Devido às suas inúmeras aplicações no tratamento e, alguns casos, até da cura de doenças graves, a importância das células tronco (Figura 1) cresce dia a dia. Juntos, o transplante de células tronco e a terapia genética, representam hoje a vanguarda da medicina regenerativa.

Também já está no ar a newsletter “Ciência em Panorama”. Abaixo, um sumário da edição no. 2

Tecnologia

1-ChatGPT – a Inteligência Artificial para o bem e para o mal

2-Drones Anfíbios

3-Tela de Vidro Háptica

Saúde

1-Atrofia Muscular Espinhal (AME) tipo1

2-Hemofilia B

Física

1-Para-raios a laser?

2-Fibra ótica no ar

Para Relaxar

1-O lápis mais velho do mundo

2-A magia do cubo mágico

Astronomia

Adeus, cometa verde!

A newsletter pode ser subscrita por qualquer pessoa, alunos, docentes, funcionários etc.

Para receber as edições basta enviar um e-mail para onody@ifsc.usp.br colocando o seu nome e o seu e-mail.             

Boa leitura!

Introdução

Clinicamente, podemos considerar como a primeira forma de terapia celular a transfusão de sangue. Pioneiramente efetuada pelo ginecologista britânico James Blundell em 1818 ao cuidar, com sucesso, de uma hemorragia pós-parto. Hoje sabemos que o final feliz dessa transfusão foi pura sorte, já que a descoberta dos grupos sanguíneos ABO e o fator Rh (VER AQUI) só ocorreram em 1900 e 1939, respectivamente!

Já a terapia de órgãos parcialmente comprometidos, começou com o enxerto de peles realizado pela primeira vez (de maneira comprovada) pelo cirurgião suíço J.L. Reverdin em 1869. Em seguida, veio o transplante de tecidos, com o oftalmologista austríaco E. Zirm realizando, em 1905, o primeiro transplante de córnea.

O rim foi o primeiro órgão completo a ser transplantado. Um jovem de 22 anos foi dispensado da Guarda Costeira dos EUA com nefrite crônica. Para sua sorte, ele tinha um irmão gêmeo. Em 1954, J. Murray fez o transplante de um rim do seu irmão. Foi um sucesso. Em seguida, vieram outros transplantes de órgãos como fígado, coração, pulmão etc.

O transplante de órgãos é um dos maiores sucessos da Medicina, tendo salvado a vida de milhões de pessoas em todo o mundo. O Brasil é o segundo país no mundo com maior número de transplantes anuais (o primeiro é os EUA). Apesar das frequentes campanhas incentivando a doação de órgãos, a fila de espera é grande. Os pacientes aguardam o transplante em lista única, controlada pelo Sistema Nacional de Transplantes que é coordenado pelo Ministério da Saúde.

Figura 2- Células-tronco embrionárias (no interior da linha vermelha) sendo extraídas do blastocisto (Crédito: IPCT – Instituto de Pesquisa com Células-Tronco)

Vejamos agora as células-tronco. As células-tronco têm duas características formidáveis: elas se autorrenovam, reproduzindo-se e gerando células idênticas e elas podem ser programadas para se transformarem em qualquer tipo de célula do corpo.

Após a união do espermatozóide com o óvulo, a célula resultante – o zigoto, começa a se dividir através da clivagem. Após o 3º. ou o 4º. dia da fecundação, o ovo atinge a chamada fase de mórula (pré-embrionária) que é formada por células-tronco totipotentes, isto é, por células que podem se transformar em qualquer outra célula, seja ela de um órgão específico ou um tecido qualquer. Podem tanto gerar as células do embrião quanto as dos tecidos extraembrionários (como a placenta e o cordão umbilical).

Do 5º. ao 8º. dia após a fecundação, o embrião já tem centenas de células e está na fase chamada blastocisto. Na fertilização in vitro, é nessa fase que é feita a transferência do embrião para o útero. É no blastocisto que se encontram as células-tronco embrionárias ou pluripotentes. A diferenciação funcional das células ainda não ocorreu (Figura 2).

A obtenção de células-tronco a partir de embriões humanos ocasionou, em termos mundiais, uma grande discussão ética que freou essa linha de pesquisa. As células-tronco pluripotentes podem ser encontradas, em maior ou menor quantidade, em todos os órgãos humanos, com destaque para a medula óssea e o cordão umbilical. Nas últimas décadas, surgiram várias empresas especializadas em congelar células-tronco do cordão umbilical dos bebês (para um possível uso no futuro)Em casos de leucemia um transplante de medula óssea é um procedimento bastante eficiente e vem sendo realizado desde a década de 1950!

O corpo humano tem aproximadamente 37 trilhões de células e cerca de 216 tipos de células diferentes. Até 2006, a pesquisa cientifica utilizava células-tronco que eram coletadas no embrião, no cordão umbilical ou na medula óssea. Porém, o transplante dessas células-tronco naturais, de um paciente para outro, pode gerar problemas de histocompatibilidade e uma resposta agressiva do sistema imunológico.

Em 2007, Yamanaka e colaboradores, conseguiram obter células-tronco induzidas a partir de células (já diferenciadas) da pele humana. As células da pele foram reprogramadas para voltarem à sua forma original. Por esse trabalho notável, Yamanaka recebeu o prêmio Nobel de Fisiologia ou Medicina de 2012. Mas, produzir células-tronco induzidas foi um longo caminho que precisou passar por três etapas: a clonagem celular, a descoberta dos fatores de transcrição e a capacidade de cultivo celular.

A primeira clonagem de um animal vertebrado foi feita há 26 anos atrás com a ovelha Dolly. Ela foi gerada a partir da inserção do núcleo das células da glândula mamária em óvulos sem núcleo.

Fatores de transcrição são proteínas que controlam a informação genética transmitida do DNA para o RNA mensageiro. Eles regulam, ativando ou não, a expressão de genes nas células. O papel desses fatores de transcrição no desenvolvimento de órgãos e membros foi primeiro esclarecido na mosca das frutas (Drosophila melanogaster). De fato, a manipulação genética dessas moscas, permitiu substituir suas antenas por um par de patas.

Finalmente, foi necessário se desenvolver a capacidade do cultivo de células-tronco em laboratório. Iniciada em 1981, com o cultivo das células-tronco de camundongos, foi somente em 1998 que se conseguiu manter células-tronco humanas em laboratório sem que elas perdessem sua capacidade pluripotente.

Em 2007, Yamanaka e seu grupo conseguiram reprogramar células da pele do rosto de uma mulher de 36 anos, transformando-as em células-tronco pluripotentes. Para isso, introduziram retrovírus (vírus cujo genoma é de RNA) contendo quatro fatores de transcrição humanos – Oct4, Sox2, c-Myc e Klf4, na cultura celular da pele. Seguindo um determinado protocolo, eles otimizaram a porcentagem de transdução viral, isto é, maximizaram a fração das células receptoras (da cultura celular) que tiveram os 4 fatores de transcrição incorporados. Foram as primeiras células-tronco pluripotentes induzidas.

Como o processo para a obtenção dessas células é complexo, delicado e bastante trabalhoso, se pesquisa de maneira alternativa a produção de células-tronco multipotentes induzidas, as quais não se diferenciam em qualquer outro tipo de célula, mas tão somente em um grupo específico de células (veja mais adiante na secção Células-tronco neurais).

Figura 3 – As incríveis aplicações das células-tronco (Crédito: Wikipedia)

Na medicina, as possibilidades de aplicações das células-troncos induzidas são enormes (Figura 3)

Células-tronco neurais

Nosso cérebro é composto por cerca de 86 bilhões de neurônios e, aproximadamente, um mesmo número de células gliais (glia é o termo grego para ´cola´).  Os neurônios se comunicam entre si por meio de sinapses. Estima-se que na região mais externa do cérebro – o córtex cerebral (ou massa cinzenta) de um indivíduo adulto, há uma média de 7.000 sinapses por neurônio (e o dobro disso para uma criança de 3 anos).

A massa cinzenta é o centro de processamento em que se formam os nossos pensamentos, personalidade, sentimentos e linguagem. Sua massa corresponde à metade do peso do nosso cérebro. Na outra metade e em sua região mais interna e profunda, está a massa branca que é percorrida por bilhões de axônios responsáveis pelo transporte de informações entre diferentes regiões da massa cinzenta. Nosso cérebro, apesar de corresponder somente a 2% do nosso peso, contém 20% do volume do nosso sangue e consome 20% da nossa energia!

Foi o médico espanhol S. R. Cajal que, utilizando marcadores de nitrato de prata, diferenciou os neurônios de outras células, estabelecendo sua estrutura e conexões. Por esse trabalho, ele recebeu o Prêmio Nobel de Fisiologia de 1906.

Durante décadas se acreditou que essa rede de neurônios era fixa. Caso os neurônios se deteriorassem com o tempo, eles jamais poderiam se regenerar (como as células do fígado e da pele). A criação de novos neurônios (neurogênese), seria impossível pois não conseguiriam se integrar ao nosso complexo sistema neurológico.

Somente em 1998 foi comprovada a ocorrência de neurogênese no hipocampo de seres humanos. As células-tronco ali encontradas não são pluripotentes, mas, somente multipotentes podendo apenas se diferenciar em neurônios e células gliais. Mais tarde elas também foram encontradas nos bulbos olfatórios e no septo. O hipocampo (que tem esse nome devido à sua forma de um cavalo marinho) se situa no ´epicentro´ do cérebro. Embora nos refiramos a ele no singular, nós temos na verdade 2 hipocampos, um embaixo de cada hemisfério (Figura 4).

Figura 4 – Os 2 hipocampos são os corpos mostrados em amarelo na imagem. O hipocampo fica logo acima da orelha, entrando 3,8 cm dentro da cabeça – Fonte: hipocampo-2.jpg (800×400)

O hipocampo tem 2 funções importantes. Uma delas é controlar e mediar a nossa memória explícita (ou declarativa). Por exemplo, lembrar de datas, nomes ou evocar imagens de nossa infância ou do dia da nossa formatura. Memórias não explícitas, estão ligadas a hábitos e talentos (como caminhar e tocar piano) que são reguladas pelo cerebelo e o gânglio basal. Outra função importante do hipocampo diz respeito ao posicionamento do nosso corpo em relação ao seu entorno. Ele mapeia o ambiente ao nosso redor, dando nossa localização espacial.

O hipocampo recebe sinais do nosso sistema neurotransmissor que produz importantes moléculas como a serotonina (regula o humor, o apetite, o sono e a temperatura do corpo), dopamina (um dos hormônios da felicidade provoca sensação de prazer, diminui o estresse e estimula a memória) e acetilcolina (envolvida no processo de contração muscular, nos batimentos cardíacos e dilatação pulmonar, bem como na consolidação da memória e na aprendizagem).

As células gliais têm mesmo progenitor que os neurônios. Elas regulam a concentração de íons, nutrientes e mensageiros químicos próximos aos neurônios. Há 3 tipos principais: astrócitos – que auxiliam a comunicação entre neurônios; oligodendrócitos – que aumentam a velocidade de transmissão da informação emitida pelos neurônios e micróglias – responsáveis pelas atividades fagocitárias de limpeza do sistema nervoso central e processos inflamatórios.

As micróglias (menores células da glia) são as protetoras do nosso cérebro. A morte celular programada – a apoptose, é um processo essencial no desenvolvimento dos seres vivos. Quando isso não acontece teremos o desenvolvimento de tumores cancerígenos. No caso da morte de um neurônio, uma micróglia o envolve e o metaboliza enquanto astrócitos removem as ramificações do neurônio morto. Em 2020, esse processo foi filmado in vivo em cérebros de ratos por uma equipe da Universidade de Yale (veja vídeo).

Com o envelhecimento, a não remoção de neurônios mortos leva ao surgimento de doenças neurodegenerativas.

(Continua na parte 2 – em breve)

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo

 

 

 

 

 

Se você gostou, compartilhe o artigo nas redes sociais

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Assessoria de Comunicação – IFSC/USP

9 de dezembro de 2022

Um ´foie gras´ de Sódio – Artigo da autoria do Prof. Roberto N. Onody

Por: Prof. Roberto N. Onody *

Caro leitor,

Na sexta-feira, dia 25 de novembro, enviei a todo o corpo discente a primeira edição da newsletter “Ciência em Panorama”. A newsletter seguiu, em formato pdf, como anexo ao e-mail. O objetivo é divulgar Ciência e Tecnologia através de múltiplos canais de comunicação. O site “Notícias de Ciência e Tecnologia” no portal IFSC-USP continuará funcionando. Quero agradecer ao empenho e competência do Sr. Rui Sintra, nosso assessor de comunicação. É ele quem faz a diagramação dos textos que envio, posicionando as figuras (que, obrigatoriamente, vão separadas do texto) e me alertando sobre fórmulas matemáticas que não podem ser digitadas diretamente no Word. Eu vejo nosso portal como um meio importante para se atingir um público fora dos muros universitários.

A newsletter “Ciência em Panorama” deve ter periodicidade mensal.  Pode ser subscrita por qualquer pessoa, docentes, funcionários etc.

Para receber a newsletter, basta enviar um e-mail para onody@ifsc.usp.br com seu nome e seu e-mail.

Cada newsletter “Ciência em Panorama” possuirá um certo número de artigos. A partir deles, selecionarei um para ser adaptado e publicado no portal. O de hoje se intitula: Um ´foie gras´ de Sódio 

Dezembro/2022

Boa leitura!

Um ´foie gras´ de Sódio  

Figura 1 – O cíclotron do RIKEN Nishina Center for Accelerator-Based Science, no Japão. Ele pode acelerar núcleos desde o hidrogênio até o urânio! (Crédito: Riken Nishina Center for Accelerator-Based Science)

O foie gras (fígado gordo) é um alimento muito apreciado na culinária francesa. É produzido a partir de fígados de patos e gansos que são engordados e forçados a comer sem parar através de tubos enfiados até o esôfago. O resultado é um fígado com muita gordura e um volume dez vezes maior do que o normal. É um procedimento cruel. Países como Alemanha, Itália, Turquia, Polônia, Tchecoslováquia e Finlândia baniram sua produção.

A ciência também opera um ´foie gras´ nos núcleos dos elementos químicos, só que com objetivos muito mais nobres. Poderosos aceleradores forçam núcleos atômicos engolirem mais nêutrons, construindo novos isótopos. Isso permite estudar vários modelos teóricos e, em particular, testar limites de estabilidade nuclear. Além disso, novos elementos radioativos acabam sendo criados que poderão vir a ser utilizados pela medicina.

Em experimento recente, o RIKEN (Radioactive Isotope Beam Factory) Nishina Center criou o isótopo mais pesado do 39 Sódio, com 11 prótons 28 nêutrons (Figura 1).

O sódio é um elemento químico abundante e fundamental à vida dos animais. Na sua forma iônica, é um dos responsáveis pela transmissão dos impulsos nervosos e pelo balanço eletrolítico que influencia o crescimento, o apetite e o metabolismo de aminoácidos e de vitaminas.

Na sua forma composta de cloreto de sódio (NaCl), o sal é utilizado desde tempos imemoriais como tempero e na conservação de carnes. Uma pessoa de 50 kg possui cerca de 200 g de cloreto de sódio no seu corpo. Quando suamos nós perdemos sal que precisa então ser ingerido para ser reposto. A ingestão diária de sal deve estar entre 0,5 e 2 g. Nós, brasileiros, consumimos o dobro do recomendado.

O sódio foi separado quimicamente do cloro pelo inglês Humphry Davy, no começo do século XIX, utilizando eletricidade. Além do seu papel na manutenção química de nossas células, o sódio (quando associado ao Flúor) tem aplicações tecnológicas importantes como no diagnóstico de câncer através do PET (Tomografia por Emissão de Pósitrons). Lembramos também que, até uma década atrás, eram as lâmpadas de sódio que iluminavam a maioria das nossas ruas. Paulatinamente, elas vêm sendo substituídas pelas lâmpadas de LED, mais econômicas.

Uma curiosidade… em 1998, observando uma chuva de meteoritos, astrônomos detectaram uma cauda (invisível) de átomos de sódio deixados para trás pela Lua. Sem atmosfera, esses meteoritos impactaram a superfície da Lua, liberando átomos de sódio que foram, em seguida, carregados pelo vento solar.

O núcleo de um átomo é formado pela ligação de um número Z de prótons (que têm carga elétrica positiva) com um número N de nêutrons (carga nula). Como sobre os prótons age a repulsão eletrostática, o que mantém um núcleo coeso é a força nuclear atrativa (mediada por mésons Pi) entre próton-próton, nêutron-nêutron e próton-nêutron.

Figura 2 – Uma fábrica de isótopos – o acelerador do Facility for Rare Isotope Beams da Universidade de Michigan, EUA. Foi inaugurado em maio/2022 e custou 730 milhões de dólares (Crédito: domínio público)

Um núcleo é chamado de instável se sua composição (caracterizada por Z e N) muda com o tempo. Isso pode acontecer de várias maneiras: o núcleo decai emitindo uma partícula alfa (composta por 2 prótons e 2 nêutrons), um nêutron se transforma em um próton, emitindo um elétron e um antineutrino (decaimento beta), um próton se transforma em um nêutron, emitindo um neutrino e um pósitron (a antipartícula do elétron), um próton captura um elétron da órbita se transformando em um nêutron e emitindo um neutrino, etc.

O número de prótons Z define o elemento químico. Núcleos com o mesmo Z mas diferentes valores de N são chamados de isótopos (Figura 2).

Figura 3 – O Sódio é menos denso do que a água. Ele se funde a 97,8 oC e evapora a 882,9 oC. No estado metálico, ele pode ser cortado com uma faca (Crédito: Hackaday)

Em geral, para núcleos estáveis, N é maior ou igual a Z.  Só existem duas exceções: o Hidrogênio (1H, Z=1, N=0) e o Hélio-3 (3He, Z=2, N=1). Dos 118 elementos químicos conhecidos até agora, o que tem maior número de isótopos estáveis é o Estanho (Z=50), com 10 isótopos estáveis. O elemento mais pesado, que ainda tem isótopos estáveis, é o Chumbo (Z=82), com 4 isótopos estáveis.

Voltando ao Sódio (Z=11), ele é um sólido metálico a temperatura ambiente. Ele reage violentamente com a água e ácidos. É altamente corrosivo para os olhos, para a pele e mucosas (Figura 3).

Há 22 isótopos de Sódio, mas, somente um é estável, o 23Na (Z=11, N=12). O isótopo 22Na (Z=11, N=11) emite pósitrons e é utilizado no equipamento chamado PET (tomografia por emissão de pósitrons), para a análise de tumores.

O experimento realizado no laboratório RIKEN produziu o isótopo 39Na (Z=11, N=28), o núcleo de sódio mais pesado conhecido até agora. Nenhum modelo teórico do núcleo previa a sua existência.

Toshiyuki Kubo é um físico nuclear que trabalha com uma equipe de 26 colaboradores, no cíclotron RIKEN. Eles lançaram núcleos de cálcio, 48Ca, contra o Berílio (Z=4) e os fragmentos da colisão passaram por uma sequência de magnetos. Após dispararem 500 quatrilhões (5.1017) de núcleos de 48Ca, eles confirmaram a criação de 9 (isso mesmo, apenas nove) núcleos de 39Na.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo:

 

 

 

 

 

Compartilhe o artigo em:

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Assessoria de Comunicação – IFSC/USP

16 de novembro de 2022

Defesa Planetária e as ameaças que vêm do Espaço (Parte 2)

Por: Prof. Roberto N. Onody *

Caro leitor,

Na parte 1** deste artigo, discutimos a natureza e a composição química dos asteróides e dos cometas. Analisamos missões espaciais (só as bem-sucedidas) que enviaram naves para estudar esses corpos celestes de perto, coletar amostras e até trazê-las de volta à Terra!

Mas, essas missões têm um custo muito alto e demoram anos para se completar. Para salvaguardar a Terra, temos que lançar mão dos telescópios (terrestres e espaciais), que localizam e rastreiam os chamados NEOs (Near-Earth Objects, Objetos Próximos à Terra). Discutimos, brevemente, os vários tipos de telescópios que cumprem esse papel.

Muito já feito. Hoje são conhecidos mais de trinta mil NEOs, sejam eles asteróides ou cometas. Ressalto aqui, a grande colaboração internacional de observatórios que não apenas dividem entre si informações sobre esses objetos, como as armazenam no arquivo público MPC (Minor Planet Center). Na secção: Veja Onde Eles Estão, indicamos uma página na internet que mostra, em tempo real, a posição e as órbitas desses objetos espaciais.

Em seguida, discutimos a Missão DART propriamente dita. Sua preparação, sua execução e seu estrondoso sucesso. Finalizamos com uma breve análise das perspectivas e do futuro de missões que busquem salvaguardar nosso lindo planeta azul.

A probabilidade de uma eventual colisão do nosso planeta com um asteróide ou cometa é pequena, mas, existe. Um alerta foi dado em filmes como Armagedom, Impacto Profundo e Não Olhe Para Cima. Por outro lado e de maneira não ficcional, temos o enorme sucesso da missão DART, que desviou a órbita do asteróide Dimorphos.

Ao contrário dos dinossauros, nós não estamos indefesos.

Boa leitura!

** Correção – Na saudação da parte 1, dissemos que o tempo necessário para as imagens transmitidas pela nave DART chegarem até a Terra era de 8 segundos… o correto é 37 segundos, já que a distância entre eles era, no momento do impacto, de 11 milhões de quilômetros.

Parte 2

Asteróides e a Evolução das Espécies

Objetos Espaciais Potencialmente Perigosos

Olhe Para Cima!

Veja Onde Eles Estão!

A Missão DART

Perspectivas

Asteróides e a Evolução das Espécies

Figura 1 – Ilustração artística do devastador impacto do asteróide que extinguiu os dinossauros e cerca de 75% das espécies existentes, há 66 milhões de anos atrás. A cratera que deixou, é a segunda maior conhecida em nosso planeta. A primeira é a cratera de Vredefort, com prováveis 300 km (hoje, erodida) na África do Sul, formada há 2 bilhões de anos atrás (Crédito: Donald E. Davis)

Local: Península de Yucatán, México, Data: 66 milhões de anos atrás. Um enorme asteróide (Figura 1), com tamanho estimado entre 10 e 15 quilômetros, colidiu com nosso planeta e abriu a cratera de Chicxulub, com diâmetro aproximado de 180 km e profundidade de 20 km.

Novos estudos em modelos executados em supercomputadores, calculam que o asteróide viajava a 42.000 km/h e liberou energia equivalente a 10 bilhões de bombas atômicas de Hiroshima.

O seu efeito foi catastrófico. Provocou tsunamis (com cerca 5 km de altura, suficiente para cobrir e destruir qualquer cidade atual, já que a mais alta é El Alto, na Bolívia, com 4,15 km) levantou enorme quantidade de rochas fundidas (que provocaram incêndios), gases e de poeira (que bloqueou a luz solar) levando a um período longo e prolongado de escuridão.  A matéria lançada na atmosfera era rica em enxofre que voltou à Terra na forma de chuva de ácido sulfúrico, contaminando os mares. É importante notar que há 66 milhões de anos atrás, as Américas, a Europa e a África eram continentes bem mais próximos (Figura 2), o que contribuiu, sobremaneira, para espalhar a destruição. Para piorar o cenário, do outro lado do mundo, na atual Índia, uma violenta atividade vulcânica contribuiu para aumentar, ainda mais, a escuridão. Foi uma extinção em massa – 75% das espécies existentes desapareceram.

A principal prova da colisão desse gigantesco asteróide com o nosso planeta é o rastro de irídio deixado para trás. O irídio é um metal raro na Terra, mas abundante nos meteoritos. A análise do solo da Península de Yucatán mostrou a presença de apenas uma única camada rica em irídio. A datação geológica dessa camada permitiu localizar, precisamente no tempo, a data do cataclisma – 66 milhões de anos (com um erro pequeno, de alguns milhares de anos).

Esse bólido que se chocou contra o nosso planeta era um asteróide ou um cometa? A imensa maioria dos especialistas aposta no asteróide, baseados nas evidências geoquímicas da abundância relativa de carbono e de certos minerais.

Figura 2 – Os mapas aqui mostrados foram feitos usando a projeção de Mercator (que é cilíndrica), o que distorce as áreas mais ao norte e ao sul. Os mapa-múndi escolares usam a projeção Robinson. a) Os continentes e as placas continentais atuais (linhas azuis). As linhas vermelhas mostram as regiões onde essas placas convergem e as setas indicam qual placa desliza sobre a outra. b) Como eram os continentes e as placas continentais há 66 milhões de anos atrás (Crédito: ref. 2)

A grande extinção de 66 milhões de anos atrás atingiu principalmente animais (terrestres e marítimos) e plantas de grande porte. Os grandes dinossauros, que já existiam há 140 milhões de anos, desapareceram. Seu grande apelo popular, sua constante presença na mídia, faz com que o estudo paleontológico desses grandes animais não padeça da falta de financiamento, seja ele público ou privado.

Rigorosamente falando, não é correto afirmar que a queda do asteróide extinguiu todos os dinossauros da Terra, já que as aves modernas descendem e são sobreviventes de uma linhagem de dinossauros terópodes (que, ironicamente, também inclui o T-Rex).

Com a extinção desses grandes carnívoros e herbívoros, as portas da evolução se abriram para o desenvolvimento dos mamíferos e das aves. O asteróide, que trouxe consigo a morte ao extinguir 75% das espécies, agiu como ´seleção natural´, permitindo a sobrevivência (e a evolução) de apenas algumas espécies de porte menor.

Mesmo asteróides com tamanhos pequenos podem causar grandes danos locais. Foi isso o que aconteceu na manhã do dia 15 de fevereiro de 2013, na cidade russa de Chelyabinsk. Sem haver sido previamente detectado (devido à baixa refletividade), um asteróide de 20 metros de diâmetro entrou na atmosfera e explodiu a cerca de 22 km de altura.  A explosão liberou energia equivalente a 440.000 toneladas de TNT (que correspondem a 22 bombas de Hiroshima) e deixou 1.600 pessoas machucadas pelos cacos de vidros das janelas estilhaçadas (Figura 3).

Coincidentemente, no mesmo dia, uma reunião da ONU determinou a criação da IAWN (International Asteroid Warning Network), uma rede de colaboração internacional para detecção e rastreamento de asteróides que ameacem nosso planeta.

Objetos Espaciais Potencialmente Perigosos

Corpos celestes perigosos, o que isso significa? Os astrônomos conseguiram dar uma resposta objetiva a essa pergunta, através de dois conceitos (ou definições): NEO (Near-Earth Object) e PHO (Potentially Hazardous Object).

Um corpo celeste (asteróide ou cometa) é um  NEO se existirem dois pontos, um na sua própria órbita e o outro na órbita da Terra, cuja distância entre eles seja menor do que 48 milhões de quilômetros. Portanto, um objeto espacial, seja ele um asteróide ou um cometa, será classificado como NEO, somente após a determinação de sua órbita.

O Congresso norte-americano aprovou uma diretiva (para seus Observatórios) que tem como objetivo detectar e caracterizar 90% dos NEOs com mais de 140 metros.

Hoje, são conhecidos 30.039 asteróides NEOs. Somente o telescópio terrestre Catalina Sky Survey, no Arizona (EUA), descobre um novo asteróide por semana! Já o número conhecido de cometas NEOs é bem menor, 117.

Figura 3 – Foto tirada 1 minuto depois da explosão do meteoro de Chelyabinsk, a uma distância de 200 km do local da detonação. Ondas de choque se estenderam por uma área de 500 km2 (Crédito: Alex Alishevskikh)

Somente são conhecidos 25 asteróides cujas trajetórias estão completamente contidas no interior da órbita da Terra. Eles são muito difíceis de serem detectados, devido ao brilho do Sol. Para se ter uma idéia, foi somente agora, em 2022, que o asteróide denominado 2022AP7 foi descoberto… seu tamanho – 1,5 km!

Um asteróide ou um cometa (com tamanho maior do que 30 metros) é um PHO se existirem dois pontos, um na sua própria órbita e o outro na órbita da Terra, cuja distância entre eles seja menor do que 8 milhões de quilômetros. Claro, os PHOs formam um subconjunto dos NEOs, o mais perigoso. O número atual de PHOs é de 1.436.

Com os possíveis empurrões gravitacionais dos planetas, asteróides e cometas NEOs podem deixar de sê-lo (e vice-versa). Aqui na Terra, o sinal vermelho acende se o PHO tiver mais de 1% de probabilidade de impactar a Terra nos próximos 50 anos.

Nos EUA, a responsabilidade de detectar, alertar, mitigar (diminuir danos) e coordenar ações contra os PHOs está nas mãos do Planetary Defense Coordination Office.

Na Europa, tal tarefa é executada pela Space Situational Awareness, que conta com o financiamento de 19 países. Essas duas organizações, por sua vez, são coordenadas pela ONU através da IAWN.

Olhe Para Cima!

Figura 4 – Num dia de inverno, um dos três telescópios óticos operados pelo Observatório Steward da Universidade do Arizona. Eles estão situados nas montanhas Santa Catalina, ao norte da cidade de Tucson (Crédito: Catalina Sky Survey)

Basicamente, três tipos de telescópios são usados no descobrimento e rastreamento dos NEOs: o ótico, o infravermelho e o radar. Os telescópios óticos trabalham nos comprimentos da luz visível e consequentemente, só podem entrar em ação durante a noite. Os telescópios no infravermelho podem detectar os chamados asteróides escuros (que não refletem a luz visível) e os radares que calculam, com muita precisão, a velocidade e a distância dos NEOs.

Entre os mais importantes telescópios óticos caçadores de NEOs podemos citar o Catalina Sky Survey (Figura 4) e o Very Large Telescope (que também opera no infravermelho, Figura 5).

Os asteróides não escuros e cometas refletem a luz visível e emitem luz no infravermelho (como nós, seres humanos). Dessa forma, os telescópios que operam no infravermelho, podem ´ver´ esses objetos espaciais mesmo quando estes se interpõem entre a Terra e o Sol.

Muitos telescópios infravermelhos estão localizados no cume  deslumbrante do Mauna Kea, no Havaí (Figura 6). Altitude acima de 4.000 metros, céu limpo, ar seco, sem poluição, Mauna Kea é o melhor local para observações astronômicas no hemisfério norte (no hemisfério sul, é o deserto de Atacama, no Chile).

É importante notar que telescópios baseados em terra, precisam compensar a turbulência atmosférica. Na mesosfera, entre 90 e 100 km de altura, existem átomos de sódio que, ao serem excitados por raios laser (com comprimento de 589 nanômetros), emitem luz. Essa pequena estrela artificial, permite então utilizar técnicas de ótica adaptativa, que deixam a imagem (do objeto estudado) bem mais nítida. Recomendo muito, que vocês vejam o vídeo feito em Mauna Kea.

Figura 5 – O Very Large Telescope está localizado em Cerro Paranal (cuja altitude é de 2.600 metros), no deserto de Atacama (Chile). É composto por 4 telescópios que operam tanto no visível quanto no infravermelho. É capaz de distinguir os dois faróis de um carro localizado na Lua (Crédito: European Southern Observatory, ESO)

Telescópios espaciais como o Spitzer, James Webb e até o Hubble, também são utilizados para localizar e caracterizar NEOs no infravermelho.

Vamos agora, analisar os caçadores de NEOs que utilizam o radar. Diferentemente dos telescópios óticos e infravermelhos que são passivos (só recebem os sinais eletromagnéticos), os radares são elementos ativos que enviam sinais de rádio para o objeto em estudo, recebem o retorno do seu eco e o interpretam. A diminuição da potência do eco permite calcular a distância do objeto e o efeito Doppler permite determinar a sua velocidade radial. Variando a direção do feixe de rádio, é possível calcular a rotação e os detalhes da superfície daquele objeto.

O objeto espacial mais distante analisado por um radar foi o planeta Saturno, seu anel e suas luas (um sinal de radar leva mais de duas horas para ir e voltar). O autor dessa façanha foi o gigantesco Telescópio de Arecibo, em Porto Rico (Figura 7). O seu colapso, há dois anos, foi um duro golpe para a radioastronomia. Operou por 57 anos e foi pioneiro em inúmeras descobertas. Seu legado não será esquecido.

A palavra radar é um acrônimo para RADAR (Radio Detection and Ranging). O radar foi desenvolvido secretamente para usos militares, durante a Segunda Guerra Mundial (Figura 8). Hoje, os radares estão em toda parte: no trânsito, nos navios, nos aviões, nos foguetes e nos satélites.

O primeiro asteróide detectado por um radar foi o 1566 Icarus, em 1968. Hoje, o número de asteróides descobertos através do radar já passa de 1000. Um conjunto de 10 telescópios chamado VLBA (Very Long Baseline Array), com ´pratos´ de 25 m de diâmetro e espalhados pelos EUA, utiliza o radar para detectar e analisar NEOs. Como rádio receptor, ele também investiga os buracos negros.

Figura 6 – O maravilhoso pico de Mauna Kea (Havaí) abrange um conjunto de 13 telescópios. Mauna Kea é um vulcão adormecido e sagrado para o povo nativo. O 14º. telescópio projetado (um gigante com um espelho de 30 metros) tem encontrado resistência para sua construção, por parte da comunidade nativa (Crédito: Frank Ravizza)

Figura 7 – O icônico telescópio de Arecibo, em Porto Rico. Com um ´prato´ de 305 metros de diâmetro, o Arecibo operava ondas de rádio de 3 centímetros a 6 metros. Com o objetivo de contactar extraterrestres, o Arecibo em 1974, enviou uma mensagem (de Carl Sagan, Frank Drake e outros colaboradores) na direção do grande aglomerado globular M13 (que orbita o centro da Via Láctea), informando sobre a humanidade e o nosso planeta. Foi um gesto apenas simbólico pois, como o M13 está a 25.100 anos da Terra, somente uma civilização tecnologicamente super avançada, poderia captar o sinal de rádio que chegará absurdamente fraco. Saberemos daqui há 50.000 anos (Crédito: Arecibo Observatory/NAIC)

Muito embora a nossa tecnologia de radar só permita estudar objetos dentro do sistema solar, os radiotelescópios podem receber sinais de astros que emitem intensos sinais de rádio como estrelas, galáxias e quasares.  Os radiotelescópios recebem sinais de rádio com comprimento entre 1 mm e 10 m. Portanto, foram eles que detectaram a radiação cósmica de fundo (micro-ondas, com comprimento de onda da ordem de 1,9 mm) emitida quando os primeiros átomos de hidrogênio se formaram e o nosso universo tinha cerca de 300 milhões de anos de idade.

Veja Onde Eles Estão!

Para a tela do seu computador, a NASA disponibiliza, em tempo real, a posição espacial de cometas, asteróides e astronaves como OSIRIS-Rex e Lucy. Você pode ver isso acessando este site. É um programa pesado, leva um bom tempo para carregar. Quando aparecer o ´tag´ indicando lentidão, pressione “Aguarde” muitas vezes, até que surja a tela que mostra a posição atual dos NEOs.

O mapa mostra os principais objetos situados entre o Sol e o planeta Jupiter. Posicionando o cursor sobre esses objetos, aparecerá uma linha indicando a sua órbita. Clicando nos símbolos + ou -, você pode fazer um zoom. Arrastando o relógio que está na parte inferior da tela, você poderá saber as posições desses objetos entre os anos 1990 e 2030. No canto superior direito fica a lupa, digite o nome de um asteróide, cometa ou astronave e você terá mais informações. Vale a pena.

A Missão DART

Resumo

A missão DART (Double Asteroid Redirection Test) foi criada pela NASA para testar a possibilidade de desviar a órbita de um asteróide através do impacto direto de uma nave. A nave DART foi construída com esse objetivo. Foi lançada por um foguete Falcon, da SpaceX, no dia 24 de novembro (GMT) de 2021, da base Vandenberg, na Califórnia. Seu alvo – o asteróide Dimorphos (Figura 9), que forma um sistema duplo com o asteróide Didymos. O impacto ocorreu no dia 26 de setembro de 2022. Foi um sucesso total.

Figura 8 – Placa em homenagem ao sucesso dos primeiros experimentos com radar. Ela está na cidade de Daventry, Inglaterra. Em 26 de fevereiro de 1935, Robert W. Watt e A. Wilkins, demostraram o uso do radar na detecção de aviões. O final da placa diz: “Foi essa invenção, mais do que qualquer outra, que salvou a RAF (Royal Air Force, força aérea britânica) da derrota, em 1940 na batalha da Grã-Bretanha” (Crédito: Kintak)

A Nave DART

O corpo central da Nave DART tinha a forma de um paralelepípedo com dimensões de 1,9 x 1,8 x 2,6 m. No espaço, abriram-se 2 painéis solares com comprimentos de 8,5 m, cada um. A massa total era de 610 kg. Sua propulsão era iônica (60 kg de xenônio) e, para as manobras de posicionamento da nave, utilizou-se 50 kg

Figura 9 – O asteróide Dimorphos, que tem a forma de uma batata, comparado em tamanho e proporção com o Coliseu de Roma (Crédito: ESA)

de hidrazina (N2 H4).

Como carga útil, DART (Figura 10) trazia a câmera DRACO (para Didymos Reconnaissance and Asteroid Camera for Optical navigation) que junto com os algoritmos chamados de SMART Nav (para Small-body Maneuvering Autonomous Real Time Navigation) permitiram que, uma hora antes do impacto, DART pudesse distinguir entre Dimorphos e Didymos e, realizasse uma navegação ótica autônoma até o alvo.

No lançamento, DART estava acompanhado da nave LICIACube (para Light Italian CubeSat for Imaging of Asteroids) construída pela ASI (Agenzia Spaziale Italiana) com objetivo de adquirir imagens de longa distância. LICIACube se separou da DART 15 dias antes do impacto.

O Sistema Duplo de Asteróides

Para testar a sua técnica de impacto, a NASA escolheu o sistema duplo de asteróides Didymos-Dimorphos. Um sistema ideal, primeiro, porque não havia (e não há) risco algum dele vir a colidir com a Terra, segundo, porque tudo poderia ser observado em tempo real e de ´camarote´ (Figura 11) pelo DART, LICIACube e vários telescópios espaciais e terrestres devido a posição e a proximidade do sistema (então, a 11 milhões de quilômetros da Terra).

Didymos tem diâmetro de 780 m e Dimorphos 160 m (Figura 12). Dimorphos é, praticamente, uma lua de Didymos. A distância média entre eles era de 1.180 metros e o período de rotação de 11 horas e 55 minutos.

Figura 10 – Poster da NASA por ocasião do Primeiro Teste de Defesa Planetária. No primeiro plano, ilustração da nave DART rumo ao seu alvo, o asteróide Dimorphos. Ao fundo, o asteróide Didymos (Crédito: NASA)

Figura 11 – Ilustração da auspiciosa distribuição dos astros à época do impacto. O sistema duplo está numa configuração tal que, quando visto aqui da Terra, o asteróide Dimorphos se eclipsa atrás de Didymos. Muito conveniente para se medir o período de rotação. A colisão do DART e do Dimorphos foi frontal! (Crédito: NASA)

O Sucesso da Nave Kamikaze

Figura 12 – Infográfico de DART, Dimorphos e Didymos e objetos conhecidos. Com o gasto de combustível para percorrer 11 milhões de quilômetros, a massa de DART na hora do impacto era de 570 kg. Não existe medida direta da massa de Dimorphos, mas estimativas fornecem, aproximadamente, 5 bilhões de quilogramas! Logo, o impacto da DART não conseguiria despedaçar Dimorphos! (Crédito: NASA/Johns Hopkins APL)

No dia 26 de setembro de 2022, às 20 horas e 14 minutos (horário de Brasília) a nave DART colidiu de frente com o asteróide Dimorphos. Os derradeiros minutos da espaçonave foram transmitidos pela Tv da NASA. Com apenas 37 segundos de diferença, a humanidade pôde acompanhar, ao vivo, as imagens do

impacto. Foi emocionante e inesquecível.

Na Figura 13, vemos que a superfície de Dimorphos é coberta de pedregulhos como se estes tivessem sido ´grudados´ no corpo (que tem a forma de uma batata) do asteróide. Com o forte impacto (a velocidade da DART era de 23.760 km/h), este material se pulverizou formando uma cauda (Figura 14). O asteróide Dimorphos se vestiu de cometa!

Cerca de 2 semanas após o impacto, novas medições concluíram que o período do asteróide Dimorphos, havia diminuído em 32 minutos (± 2 minutos)! Com isso, Dimorphos se aproximou de Didymos cerca de 35 metros. Sucesso total!

Perspectivas

Para repetir o sucesso da nave DART é necessário se determinar, com muita precisão, a órbita e a forma dos NEOs. E aí entram os radares. Existem bons receptores de radar espalhados por todo o mundo, mas no que tange a emissores de radar, o colapso do telescópio de Arecibo deixou uma enorme lacuna. Pensando nisso, os EUA estão desenvolvendo novas e mais potentes antenas transmissoras de radar para o Green Bank Telescope e o Very Long Baseline Array.

Recentemente, a Agência Espacial Européia tornou operacional o telescópio TBT2 (no Observatório La Silla, Chile). É um telescópio ótico com processamento autônomo para detectar NEOs. Inspirado nos olhos multifacetados de um inseto, está em desenvolvimento uma rede de telescópios denominada  Flyeye, com o objetivo de detectar NEOs com mais de 40 metros de diâmetro, três semanas antes de um possível impacto.

Figura 13 – A última imagem captada pela câmera DRACO a bordo da nave DART, antes de seu impacto contra o asteróide Dimorphos. Ela estava a 7 km de altura e a 2 segundos da colisão (Crédito: NASA/Johns Hopkins APL)

 

Figura 14 – (a) Imagem do asteróide Dimorphos feita pelo telescópio espacial Hubble no dia 08 de outubro de 2022, 285 horas após o impacto da nave DART. (b) Imagem feita pelo telescópio terrestre SOAR, no Chile, mostrando um rastro de poeira e destroços de cerca de 10.000 km (Crédito: (a) NASA/ESA/STScl/Hubble / (b) CTIO/NOIRLab/SOAR/NSF/AURA

Por último, gostaria de mencionar a Missão Hera. Em desenvolvimento pela Agência Espacial Européia, ela deve lançar a espaçonave Hera (provavelmente, em 2024) para estudar o sistema duplo Didymos-Dimorphos após impacto da DART. Além de colher dados geofísicos da superfície desses asteróides e, em particular, da cratera onde colidiu com a DART, Hera está equipada com um radar e poderá investigar a composição do seu interior.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo:

 

 

 

 

Compartilhe o artigo:

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Assessoria de Comunicação – IFSC/USP

21 de outubro de 2022

Defesa Planetária e as ameaças que vêm do Espaço (Parte 1)

Figura 1 – O famoso cometa Halley tem período orbital curto de, aproximadamente, 76 anos. Imagem do núcleo do cometa Halley, feita pela sonda Giotto em 1986 (Crédito: Agência Espacial Européia)

Por: Prof. Roberto N. Onody *

Caro leitor,

Eram cerca de 20 horas do dia 26 de setembro de 2022. Sentado no sofá, em frente à TV, eu assistia à transmissão da NASA pelo YouTube, da colisão da nave DART com o asteróide Dimorphos. Ao vivo, com atraso das imagens de apenas 8 segundos, eu acompanhava confortavelmente, em casa, o impacto proposital de uma nave construída pelo ser humano contra um asteróide. Como brincou o narrador da NASA: “Durante bilhões de anos nosso planeta foi bombardeado pelos asteróides, agora estamos dando o troco”.

As cenas dos momentos finais da nave se chocando contra o asteróide e a clara visão de sua superfície, foram formidáveis. Fiquei profundamente entusiasmado e resolvi que deveria escrever sobre o assunto. Uma vez que o material disponível é enorme, abundante, decidi separar o artigo em duas partes.

Na parte 1, eu discuto a natureza dos asteróides e cometas, bem como as principais missões espaciais realizadas com intuito de, não só estudar à distância esses astros, mas, literalmente, abordá-los e até pousar neles. Temos hoje, aqui na Terra, amostras do material colhido e trazido ao nosso planeta, tanto da cauda de cometas quanto da superfície de asteróides!

Não poderia deixar de mencionar a passagem, pelo nosso sistema solar, de visitantes interestelares. No momento que escrevo, temos somente um par deles: o asteróide Oumuamua e o cometa Borisov. Atraídos gravitacionalmente, eles fizeram uma pequena e breve visita ao nosso Sol e seguem, pelo espaço sideral, tropeçando em outras estrelas.

Na parte 2, vou discutir os projetos do Centro de Coordenação de Defesa Planetária com seu trabalho de identificação e rastreamento de NEOs (Near-Earth objects). NEOs são asteróides e cometas que, próximos à Terra, podem representar algum tipo de ameaça ao nosso planeta. Por fim, analisarei a missão DART em si, seu planejamento, execução e fabuloso sucesso. A estimativa da NASA era de que a colisão diminuiria o período de rotação do asteróide Dimorphos de 10 a 15 minutos. O resultado final foi muito além das expectativas – o período diminuiu em 32 minutos!

Boa leitura!

Parte 1

Sobre Cometas

Sobre Asteróides

Visitantes das Estrelas:

O Asteróide Oumuamua

O Cometa Borisov

Sobre Cometas

Figura 2 – Ilustração da Nuvem de Oort (fronteira do sistema solar). O zoom da pequena região em azul (no centro da Nuvem de Oort), é delimitada pelo Cinturão de Kuiper e o círculo amarelo é a órbita de Plutão (Crédito: NASA)

Os cometas se formaram a partir da nebulosa que deu origem ao nosso Sol, há cerca de 4,5 bilhões de anos atrás. São objetos formados por gelo, gases congelados e um núcleo rochoso. Quando um cometa se aproxima do Sol, esses gases congelados são evaporados e ionizados pela radiação solar dando ao cometa uma cauda brilhante e visível.

Os cometas sempre fascinaram a humanidade. Tem-se registro de passagens de cometas que remontam há cerca 1.000 A.C. Em certas ocasiões, esse fascínio terminou em tragédia, como foi o caso da fanática seita religiosa, Heaven’s Gate. Em 1997, acreditando que havia uma nave espacial na cauda do cometa Hale-Bopp (que os transportaria a uma outra dimensão), 41 seguidores praticaram suicídio coletivo para ´subirem´ até a suposta nave.

Os cometas com pequeno período de rotação em torno do Sol (menor do que 200 anos, como o cometa Halley, veja Figura 1), têm sua origem no chamado Cinturão de Kuiper (uma região entre as órbitas de Netuno e Plutão). As órbitas desses cometas estão em planos muito próximos ao da eclíptica, isto é, do plano da órbita da Terra em torno do Sol.

Os cometas com grande período de rotação em torno do Sol (de milhares a milhões de anos), têm sua origem na chamada Nuvem de Oort. Além da enorme diferença entre os períodos de rotação, os cometas da Nuvem de Oort aproximam-se do Sol vindo de todas as direções possíveis (Figura 2).

Ao se aproximar de um dos grandes planetas gasosos do sistema solar, um cometa pode vir a ser despedaçado pela força gravitacional. Foi exatamente o que aconteceu com o cometa Schoemaker-Levy 9, em 1994. Fracionado gravitacionalmente, pedaços do cometa colidiram, de maneira espetacular, com a superfície de Júpiter.

Figura 3 – A cápsula enviada pela nave Stardust com amostras do cometa Wild-2 (Crédito: NASA/JPL)

Com o intuito de analisar a composição química dos cometas, a NASA lançou, em janeiro de 2005, a nave Deep Impact (mesmo nome de um filme de 1998). Além dos instrumentos científicos a bordo, a nave levava consigo uma pequena sonda. Ao se aproximar do cometa Tempel 1, Deep Impact lançou a sonda para colidir com o cometa. O impacto ocorreu (patrioticamente) no dia 04 de julho de 2005. Levantou material da superfície, cuja análise revelou a presença de carbono, gelo e poeira.

A Stardust foi a primeira nave espacial que colheu material de um cometa e enviou de volta à Terra. Lançada em 1999 do Cabo Canaveral, sobrevoou a cauda do cometa Wild-2 em 2004. O material coletado da cauda foi enviado em uma cápsula (Figura 3) que chegou ao nosso planeta em 2006.

Figura 4 – Canto superior direito: foto do cometa 67P feita em 2015 pela nave Rosetta; Lado esquerdo: foto do cometa 67P tirada em 2016 pela nave OSIRIS; Canto inferior direito: zoom da sonda Philae tomando carona com o cometa 67P (Crédito: Agência Espacial Européia)

Logo após a recuperação dessa cápsula, a NASA distribuiu fotos das amostras para pessoas, ao redor do mundo, instando-as a procurarem por grãos exóticos (projeto Stardust@home). Aproximadamente, 30 mil pessoas estudaram as amostras. A análise final, feita posteriormente pelos cientistas, revelou dois tipos de material: poeira do próprio cometa Wild-2 e poeira interestelar. Essa última está presente no espaço interestelar e é mais antiga do que a poeira de cometa. Acredita-se que essa poeira interestelar foi forjada (e ejetada) no interior de estrelas que se formaram antes do nosso Sol. A prova da origem interestelar dessas partículas foi feita medindo-se a abundância de determinados isótopos de oxigênio e comparando-a com aquelas encontradas em nosso sistema solar.

O cometa Wild-2 estava originalmente em uma órbita bem distante do Sol, com órbita entre os planetas Júpiter e Urano e período de rotação era de 43 anos. Em 1974, perturbado gravitacionalmente pela sua proximidade com Júpiter, o cometa foi lançado em uma nova órbita bem mais próxima da Terra. Seu período de rotação atual é de cerca de 6,41 anos.

Vale a pena também mencionar a aeronave Rosetta que foi lançada em 2004 pela Agência Espacial Européia e sobrevoou o cometa 67P em 2014 [3]. O cometa 67P tem massa de 1013 kg, volume de 18,7 km3 e período de 6,44 anos. A nave Rosetta lançou o módulo robótico Philae para pousar no cometa. Devido à falha nos arpões, projetados para fixar o módulo ao solo, a sonda Philae quicou várias vezes até, finalmente, parar. Foi a primeira sonda humana a pousar sobre um cometa. Em 2016, o módulo Philae foi localizado e fotografado pela nave norte-americana OSIRIS, incrustrado no corpo do cometa 67P (Figura 4).  

Sobre Asteróides

Os asteróides são corpos rochosos que permeiam boa parte do sistema solar. Sua concentração é maior entre as órbitas dos planetas Marte e Júpiter (também conhecido como Cinturão de Asteróides), mas também não é incomum passarem bem perto da Terra. São verdadeiras cápsulas do tempo que guardam informação sobre a formação do sistema solar a cerca de 4,5 bilhões de anos atrás.

Figura 5 – Material recolhido pela sonda Hayabusa 2 do asteróide Ryugu. Observe que o diâmetro interno dos 3 recipientes onde estão as amostras é bem pequeno (cerca de 2,1 cm) e o massa de cada amostra gira em torno de 1 grama (Crédito: Japan Aerospace Exploration Agency)

Em geral, os asteróides têm forma irregular, podendo ser sólidos e rochosos, esponjosos, contendo metais como ferro, níquel, hidrogênio cobalto e carbono. O tamanho dos asteróides varia de cerca de 1 m até 530 km (que é a extensão de Vesta, o maior asteróide conhecido até agora). O maior objeto no Cinturão de Asteróides é o planeta anão Ceres (mesma classificação astronômica de Plutão). A massa total de todos os asteróides presentes no Cinturão de Asteróides é menor do que a massa da Lua.

Meteoróides são asteróides pequenos que vagueiam pelo espaço. Quando um meteoróide, em alta velocidade, entra na nossa atmosfera e se queima, ele produz um clarão que chamamos de meteoro. Muito mais visíveis à noite, o meteoro é chamado popularmente de estrela cadente. Se o meteoróide conseguir chegar até o solo, ele é chamado de meteorito.

Estima-se que 48 toneladas de meteoritos atinjam a Terra todos os dias! Todo mês de agosto, a órbita da Terra atravessa uma esteira de meteoróides abandonados pelo cometa Swift-Tuttle. À noite, vemos uma chuva de meteoros que são chamados de Perseidas.

Figura 6 – Imagem do asteróide Bennu, feita pela sonda OSIRIS-REx em 2018, quando se encontrava a 24 km de distância do asteróide (Crédito: NASA)

Asteróides que acompanham a órbita de um planeta, indo à sua frente ou atrás, são chamados de Troianos. Eles não colidem com seus planetas (estão posicionados nos pontos de Lagrange L4 e L5). Já foram detectados asteróides troianos em Júpiter, Netuno, Marte e na Terra. Só conhecemos (até agora) dois asteróides Troianos da Terra: o 2010TK7 e o 2020XL5. As aproximações frequentes do planeta Vênus com a Terra perturbam nossos asteróides troianos e, daqui alguns milhares de anos, devem conduzi-los a uma nova órbita.

O asteróide Ryugu foi descoberto em 1999, tem uma órbita elíptica em torno do Sol e leva 16 meses para percorrê-la. Está a uma distância média de 180 milhões de quilômetros do Sol e sua menor distância à Terra é de 100.000 km.

O Japão foi o primeiro (e, até agora, o único) país a coletar e trazer de volta à Terra amostras de um asteróide. A sonda Hayabusa 2 (que significa Falcão Peregrino), lançada há 7 anos atrás, é dotada de um braço robótico que fustigou o asteróide Ryugu, obtendo amostras da sua superfície que foram armazenadas na cápsula de reentrada. Esta cápsula desceu em solo Australiano no dia 05/12/2020. O material encontrado, é escuro, duro e parecido com carvão (Figura 5).

O asteróide Bennu (Figura 6) foi descoberto no mesmo ano que o Ryugu. Tem órbita de formato elíptico (mas, ela não é fechada) em torno do Sol com aproximação máxima da Terra de cerca 480.000 km e período de, aproximadamente, 14 meses. É popularmente conhecido como o “asteróide do fim do mundo” pela possibilidade de, no futuro, vir a colidir com a Terra. Segundo os cálculos, a probabilidade de colisão com a Terra será de uma chance em 2.500 (no ano 2.135).

Em 2016, a NASA enviou a sonda OSIRIS-REx para, assim como a japonesa Hayabusa 2, recolher e trazer material para a Terra.

Em dezembro de 2018, a nave OSIRIS-REx encontrou o asteróide Bennu. Durante quase dois anos, fotografou e buscou o melhor ponto para coletar o material. Finalmente, em 20/10/2020, coletou amostras utilizando a técnica TAG (Touch-And-Go) numa cratera de Bennu (batizada de Nightingale) com cerca de 140 metros de diâmetro. OSIRIS-REx deve retornar à Terra em 2023.

Figura 7 – Ilustração artística do asteróide interestelar Oumuamua. Ao contrário do que encontramos na Internet, não existe nenhuma ´foto´ do asteróide. No seu ponto mais próximo do Sol (periélio), o Oumuamua estava a uma distância de 43 milhões de quilômetros e a uma velocidade incrível de 315.000 km/h! (Crédito: ESO/M. Kornmesser)

Dissemos acima que os asteróides são corpos predominante rochosos, mas há exceções.

O gigantesco asteróide Psyche (na mitologia grega, a deusa da alma ou do espírito) é muito rico em metais! Sua órbita está localizada entre Marte e Júpiter.

Se o asteróide Psyche fosse esférico, seu diâmetro seria de 226 km.

Acredita-se que Psyche seja o núcleo metálico de um planetesimal que perdeu seu manto rochoso.

Os planetas (na teoria mais aceita sobre a formação do sistema solar) teriam se originado das colisões entre planetesimais.

Daí a importância de estudar o asteróide Psyche.

Com esse objetivo, a NASA construiu e já tem pronta a nave (de mesmo nome) Psyche.

Ela teve sua partida adiada várias vezes.

Existe uma janela para seu lançamento entre julho e setembro de 2023.

Visitantes das Estrelas

O Asteróide Oumuamua

No dia 19 de outubro de 2017, o telescópio ótico pan-STARRS1 (localizado no Havaí) avistou pela primeira vez o asteróide Oumuamua (que significa Primeiro Mensageiro Distante, numa tradução livre da palavra havaiana). Imediatamente, telescópios espalhados pelo mundo assestaram seus espelhos e lentes para o objeto (Figura 7).

Primeiramente, pensava-se se tratar de um cometa e ele recebeu a classificação C/2017 U1. Depois, pela ausência de cauda, foi reclassificado

Figura 8 – Órbita do asteróide Oumuamua dentro do sistema solar. No seu ponto mais próximo do Sol (periélio), o Oumuamua estava a uma distância de 43 milhões de quilômetros e a uma velocidade incrível de 315.000 km/h! Em seu ponto mais próximo da Terra, o asteróide estava a uma distância de cerca de 14 milhões de quilômetros (Crédito: NASA/JPL – Caltech/IAU)

como asteróide A/2017 U1. Porém, quando estimaram sua velocidade e encontraram fantásticos 160.000 km/h, concluiu-se que esse objeto não pertencia e nem permaneceria no sistema solar – era a descoberta do primeiro asteróide interestelar!

Oumuamua recebeu, então, uma nova classificação – I1/2017 U1 (com o I inicial, para interestelar). É um objeto longo, com dimensões aproximadas de 230m x 35m x 35m. Oumuamua foi também observado em frequências de rádio, o que permitiu aos astrônomos traçarem a sua órbita dentro do sistema solar (Figura 8). Ele penetrou a eclíptica (plano de rotação da Terra-Sol), entre o Sol e Mercúrio e cruzou de volta, entre os planetas Terra e Marte (quando foi detectado).

O asteróide Oumuamua foi ejetado de algum sistema estelar que estava formando seu cinturão de planetas. Muitas especulações acompanharam o Oumuamua. Ele teria vindo da estrela Vega (que fica na constelação de Lira), seria uma nave espacial alienígena, … a maioria dessas hipóteses foram descartadas.

Quando estiver livre no espaço sideral, Oumuamua desenvolverá 95.000 km/h, percorrendo em um ano, cinco vezes a distância Terra-Sol. Aloha! (Tchau, em havaiano) Oumuamua, nunca mais o veremos.

O Cometa Borisov

Figura 9 – Fotografia do cometa 2I/Borisov tirada pelo Hubble em 12 de outubro de 2019. O cometa estava a uma distância de 418 milhões de quilômetros da Terra, com velocidade de 177.000 km/h (Crédito: Hubble Space Telescope)

No dia 29 de agosto de 2019, o astrônomo amador e construtor de telescópios Gennadiy Borisov (da Criméia) observou um cometa nas proximidades de Marte. Imediatamente, telescópios terrestres e espaciais estudaram e fotografaram o cometa (Figura 9).

Com velocidade ainda maior do que a do asteróide Oumuamua, o cometa revelou também ser de origem interestelar. Foi o segundo astro registrado (até agora) vindo das estrelas e foi batizado de 2I/Borisov. Numa trajetória bem mais distante da Terra do que a de Oumuamua, ele penetrou o sistema solar para além da órbita de Marte (Figura 10).

O diâmetro estimado para o seu pequeno núcleo, quando comparado com os dos cometas Tempel 1 (6 km), Halley (15 km) e Hale-Bopp (35km), é de apenas 400 metros. Núcleos desse tamanho tendem a se fragmentar.

No espaço interestelar, o cometa 2I/Borisov terá a velocidade de 116.000 km/h percorrendo em um ano, quase sete vezes a distância Terra-Sol. Khoroshaya poyezdka! (Boa viagem, em russo) 2I/Borisov, nunca mais o veremos.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

 

 

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo

 

 

 

 

 

 

Compartilhe o artigo

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

Deep Impact Mission to a comet | NASA

Stardust – Comet Missions – NASA Jet Propulsion Laboratory

ESA – Rosetta

Lagrange point – Wikipedia

JAXA Hayabusa2 Project

OSIRIS-REx | NASA

Updated: For the first time, astronomers are tracking a distant visitor streaking through our solar system | Science | AAAS

Oumuamua – Wikipedia

2I/Borisov – Wikipedia

Asteroid 16 Psyche | Psyche Mission – A Mission to a Metal World (asu.edu)

Smashing success: humanity has diverted an asteroid for the first time (nature.com)

Assessoria de Comunicação – IFSC/USP

28 de setembro de 2022

“Uma Usina Geotérmica no Brasil?” – Artigo assinado pelo Prof. Roberto N. Onody

Figura 1 – Usina geotérmica de Milford, Utah (EUA) [1] (Crédito: Eric Larson/Flash Point SLC)

Caro leitor,

 

No artigo de hoje, comparamos a matriz elétrica brasileira com a do restante do mundo. Vamos constatar que o Brasil tem uma posição privilegiada, posto que gera 81% da sua eletricidade a partir de recursos renováveis e sustentáveis. Destaco aqui, a ascensão meteórica da energia elétrica eólica e solar (fotovoltaica).

Em seguida, discuto sucintamente, a origem da energia geotérmica e o mecanismo básico para o seu melhor aproveitamento – a perfuração de poços. No mundo, a energia geotérmica é utilizada, principalmente, no aquecimento das residências, na indústria, na agricultura e na produção de energia elétrica. No Brasil, devido às condições do nosso subsolo, ela é aproveitada, basicamente, para banhos termais e recreação.

Na última secção, eu analiso as usinas elétricas geotérmicas convencionais e focalizo a usina geotérmica EGS (Enhanced Geothermal System) – a mais complexa e avançada do ponto de vista tecnológico. Quem sabe, através das EGS, o Brasil possa vir a construir suas primeiras usinas geotérmicas.

Quando comecei a escrever sobre esse assunto, rapidamente muito material foi se acumulando e o artigo ficou extenso. Julguei melhor organizar o texto em secções, de maneira que o leitor, com um clique, seja direcionado para aquele item desejado.

Boa leitura!

Matriz Elétrica do Brasil e do Mundo

Origem da Energia Geotérmica

Perfurando Poços

Energia Geotérmica no Brasil e no Mundo

Usinas Elétricas Geotérmicas

Matriz Elétrica do Brasil e do Mundo

Energia renovável e sustentabilidade. Qualidades e conceitos que, no século XXI, se tornaram relevantes, fundamentais e indispensáveis. Hoje, quase toda empresa, seja ela industrial, agrícola, comercial ou bancária tem, no seu portfólio, referência a esse selo verde. Lamentavelmente, existem empresas solertes que se metamorfoseiam de “verde” para ganhar a simpatia e o apoio do consumidor ou do cliente.

As principais energias renováveis são: a hidráulica, eólica, solar, biomassa e geotérmica (Figura 1) [1]. São formas sustentáveis, com baixa emissão de gases de efeito estufa. As energias não renováveis mais utilizadas são: os combustíveis fósseis (petróleo, gás natural e carvão mineral) e energia nuclear.

Figura 2 – Principais fontes de geração de energia elétrica (em %): média mundial (2021) e Brasil (2022). Produzimos 81% da nossa eletricidade utilizando recursos de fontes renováveis! (Crédito: Tabela elaborada por R. Onody, a partir dos dados das referências [2] e [3] (mundo) e referências [4] e [5] (Brasil))

A matriz energética de um país é composta por todas as formas de energia responsáveis pelo aquecimento, transportes e produção de eletricidade. Já a matriz elétrica de um país, se restringe àquelas formas de energia que geram eletricidade.

Vale a pena fazer uma análise comparativa da matriz elétrica do Brasil  com a do resto do mundo [2], [3]. Na Figura 2, vemos que enquanto a média mundial utiliza cerca de 28% de energia renovável para produzir eletricidade, no Brasil, esse valor sobe para 81%! Nada mal.

No Brasil, a produção elétrica total atingiu (julho/2022) 196,6 gigawatts de potência instalada. Muito embora a maior contribuição ainda venha das hidrelétricas (53,5% do Brasil, 4% importada, totalizando 57,5%), essa participação vem diminuindo nos últimos anos.

A energia eólica já é a 2ª. maior fonte produtora de eletricidade no Brasil, respondendo por 10,8% do total ([4], [5]). No ranking mundial, o Brasil está na 6ª. posição. Com bons ventos, a região nordeste produz 80% da nossa energia eólica. As turbinas eólicas são aerogeradores que possuem hélices gigantescas, montadas sobre enormes torres com até 150m de altura (Figura 3).

A energia solar fotovoltaica é a 3ª. maior fonte de energia elétrica do Brasil, com 8,5% da produção nacional. Desse total, 69% correspondem a energia fotovoltaica distribuída (para residências, comércio, indústrias etc.) e 31% para a energia fotovoltaica centralizada (geradas pelas usinas fotovoltaicas). Recentemente, a energia elétrica fotovoltaica teve um crescimento explosivo pois, até 2016, praticamente, ela não existia no Brasil. No ranking mundial, o Brasil está em 13º. Lugar [5].

Figura 3 – O maior parque eólico do Brasil (e da América do Sul) fica em Lagoa dos Ventos, no Piauí. Tem 230 turbinas e gera 716 megawatts de potência (Crédito: Piauí Express)

Ao contrário das usinas hidrelétricas que produzem energia continuamente, a energia fotovoltaica só opera durante o dia. O fornecimento noturno é feito ou por um banco de baterias ou via conexões com a rede hidrelétrica.  Os dois estados com maior produção de energia fotovoltaica distribuída são Minas Gerais e São Paulo [4] e fotovoltaica centralizada são Minas Gerais e Bahia (Figura 4).

Paralelamente à produção de eletricidade, a energia fotovoltaica vem sendo utilizada na produção do “hidrogênio verde”, através da hidrólise da água que separa o hidrogênio do oxigênio. Esse hidrogênio, que é armazenado na forma líquida no tanque de combustível (do automóvel, caminhão ou ônibus) vai para a célula de combustível, reage com o oxigênio produzindo eletricidade. Daí por diante, os componentes eletromecânicos são iguais aos dos veículos elétricos com baterias de íons de Lítio. Para produzir “hidrogênio verde”, uma alternativa está sendo pesquisada [6]. Ela utiliza semicondutores, água e luz solar.

Antes de tratarmos das usinas geotérmicas, é interessante tecer algumas considerações sobre uma outra fonte renovável de eletricidade, mas com baixa eficiência. Consiste em utilizar as ondas das marés para movimentar as turbinas. São as chamadas usinas undi-elétricas. Essa fonte de energia renovável nem aparece na Figura 1, pois sua contribuição é ínfima, tanto no Brasil quanto no resto do mundo. O Brasil possui apenas uma única usina undi-elétrica construída no Ceará (Figura 5) [7].

Figura 4 – A usina fotovoltaica “Sol do Sertão” (BA) tem mais de um milhão de painéis, ocupa uma área de 700 hectares e gera 150 megawatts de potência (Crédito: Capital Reset)

A energia geotérmica é aquela proveniente do interior quente do nosso planeta. Ela pode ser aproveitada de maneira direta – para aquecimento e indireta – para geração de energia elétrica. Na forma direta, através da água ou vapor quentes, ela já era utilizada nos famosos banhos romanos.

Antes de discutirmos a utilização da energia geotérmica na sua forma indireta, isto é, para a produção de eletricidade, é muito importante analisarmos a origem desse calor planetário.

Origem da Energia Geotérmica

A superfície do nosso planeta recebe, continuamente, 24 horas de calor oriundo do núcleo quente da Terra e, cerca de 12 horas, de calor gerado pela radiação eletromagnética oriunda do Sol. A supremacia solar é avassaladora. Durante o dia, o Sol envia para a Terra 173.000 trilhões de joules por segundo de energia contra meros 47 trilhões de joules vindos do interior da Terra.

Praticamente, a radiação solar controla a nossa atmosfera, os oceanos e as formas de vida sobre a Terra. Entretanto, no solo e no fundo dos oceanos, essa radiação penetra, apenas, algumas dezenas de centímetros. Como a crosta terrestre tem de 30 a 70 km de espessura (para mais detalhe, veja [9]), ela é controlada, termicamente, pelo calor vindo do interior da Terra – a energia geotérmica.

Estima-se que metade da energia geotérmica atual venha do calor primordial, isto é, do calor gerado pelo esfriamento da Terra, desde a sua formação, há 4,5 bilhões de anos atrás. A outra metade, é o chamado calor radiogênico, isto é, o calor gerado pelo decaimento radioativo de elementos químicos presentes na crosta e no manto terrestre.

Em ordem decrescente de contribuição ao calor radiogênico, os principais elementos radioativos são: Tório 232, Urânio 238, Potássio 40 e Urânio 235. A quantidade desses elementos é estimada através de detectores de neutrinos (geoneutrinos) [10].

Figura 5 – A única usina undi-elétrica do Brasil, foi construída em 2013 ao custo de 18 milhões de reais. Ela abastece o porto de Pecém (Ceará) e gera 100 quilowatts de potência (Crédito: [7])

Perfurando Poços

Para se construir uma usina elétrica com base na energia geotérmica, cavam-se poços (às vezes, com mais de um quilômetro de profundidade) em busca de vapor (com temperatura acima de 235oC) ou água quente (entre 120 oC e 180 oC , que se encontra líquida devido à alta pressão no poço de onde ela é extraída).

O poço mais profundo escavado (até agora) pelo ser humano fica na Rússia, na Península de Kola, perto da fronteira com a Noruega. Sua perfuração foi iniciada em 1970 (pela, então, União Soviética) com objetivos puramente científicos, não comerciais [11]. O poço atingiu seu máximo em 1989, na profundidade (quase vertical) de 12.226 metros (Figura 6).

Figura 6 – O buraco mais profundo do nosso planeta foi feito pelo homem, não pela natureza. Ele fica na Península de Kola (Rússia). O poço de Kola atingiu, em 1989, a profundidade recorde de 12.226 metros, contra os ´meros´ 11.034 metros da Fossa das Marianas, no Oceano Pacífico. O poço de Kola tem 23 cm de diâmetro. Ele foi abandonado e selado em 2002 (Crédito: autor desconhecido)

Nesse ponto, a escavação cessou, pois, a temperatura havia atingido 180oC e o material rochoso lá embaixo havia adquirido uma consistência viscosa, “plástica”, inibindo a perfuração. O local do poço foi escolhido por ter um subsolo granítico. Estudos sísmicos anteriores indicavam que, embaixo do granito, haveria basalto (o principal constituinte da crosta oceânica) mas, ele não foi encontrado. Por outro lado, constatou-se a presença de água quente mineral em todos os níveis da perfuração.

Entre os poços voltados para a exploração comercial de gás e petróleo, o recordista é o poço Z-44 Chayvo, perfurado na plataforma marítima perto da ilha de Sakhalin (Rússia). Em 2012, ele atingiu o comprimento de 12.375 metros (mais longo, mas, menos profundo que o de Kola).

No Brasil, o recorde pertence à Petrobras que, em 2021, atingiu a profundidade de 7.700 metros no poço de Monai (Pré-Sal), no Espírito Santo [12].

Energia Geotérmica no Brasil e no Mundo

Hoje em dia, de uma perspectiva mundial, a energia geotérmica na forma direta é utilizada predominantemente para o aquecimento de residências, banhos termais, agricultura e indústrias, nessa ordem (veja Figura 7) [8]. Algumas outras utilizações direta da energia geotérmica são: refrigeração (veja abaixo), derretimento de neve e aquecimento de estufas.

De maneira geral, quando o fluido (vapor ou água) se encontra em baixa temperatura (algo entre 35oC e 150oC), apenas a forma direta de aproveitamento da energia geotérmica é possível. É o que acontece na maior parte do território brasileiro.

Nosso subsolo não tem um fluxo de calor geotérmico razoável.  Estamos no centro da placa tectônica Sul-Americana o que, se por um lado nos protege de grandes terremotos, por outro, faz com que nossa energia geotérmica seja utilizada quase que exclusivamente, para fins turísticos e recreativos (banhos termais).

O enorme sistema aquífero Guarani, fornece água em baixa temperatura que é utilizada apenas para recreação nos estados de Goiás (Caldas Novas), Minas Gerais (Araxá), Piratuba (Santa Catarina) e Olímpia, Águas de Lindóia e de São Pedro (São Paulo) [13].

A energia geotérmica superficial (rasa) pode ser utilizada tanto para aquecer quanto para refrigerar ambientes. Essa possibilidade vem sendo explorada desde a década de 1980 em vários países. Podendo ser usada em edifícios comerciais e residenciais, a ideia consiste em levar o calor do ambiente para o subsolo mais frio.

Figura 7 – No mundo, a calefação de ambientes e os banhos termais correspondem a 66% da utilização de energia geotérmica (Crédito: [8])

Para isso é necessário que, durante a construção do prédio, as estacas da fundação estejam acompanhadas por tubos que, quando cheios d´água e através de uma bomba de calor, refrigeram o ambiente.

Essa forma de ar-condicionado já é usada, por exemplo, nos prédios da Google em Mountain View, Califórnia. No Brasil, ela será testada pela USP [14], na construção do Centro de Inovação em Construção Sustentável (CICS) na cidade universitária.

Usinas Elétricas Geotérmicas

Para se construir uma usina geotérmica economicamente viável é necessário satisfazer algumas condições geológicas. Regiões com presença de vulcanismo, gêiseres, fontes termais ou localização próxima dos interstícios das placas tectônicas, são altamente favoráveis à implantação de usinas geotérmicas.

Hoje, o maior produtor de energia elétrica geotérmica é os Estados Unidos. Somente o campo “The Geyser” na Califórnia, formado por 22 usinas, gera mais de 1,5 gigawatts de potência. Em seguida vêm a Indonésia, Filipinas, Turquia e Nova Zelândia.

Mas o maior produtor de energia elétrica geotérmica per capita é a Islândia (Figura 8). Com 600 fontes termais e 200 vulcões, 25% de toda sua energia elétrica tem origem geotérmica!

As chamadas usinas geotérmicas convencionais (naturalmente convectivas) são de três tipos: vapor seco, que utiliza diretamente o vapor em alta temperatura (acima de 235oC); flash, em que há uma mistura de água e vapor (com temperatura entre 150 e 170oC) e ciclo binário, em que a água ( com temperatura entre 120 e 180oC) entra em contacto com um segundo fluido (com ponto de ebulição mais baixo) e o vaporiza [15].

Atualmente, as usinas geotérmicas são responsáveis por cerca de 0,4% de toda a eletricidade produzida no mundo. É pouco. Segundo estimativa do Conselho Mundial de Energia, as usinas geotérmicas convencionais poderiam alcançar (na melhor das hipóteses) 8,3% da produção mundial de eletricidade [16].

Figura 8 – Usina elétrica geotérmica de Krafla, na Islândia. Esse pequeno país explora energia geotérmica desde 1907. Hoje, tem 5 usinas geotérmicas em funcionamento (Crédito: Ásgeir Eggertsson)

 

O Brasil não tem nenhuma usina geotérmica

Como discutimos na secção anterior, o Brasil tem um subsolo em que água e vapor são encontrados em temperaturas baixas ou moderadas. Isto inviabiliza a construção de usinas geotérmicas convencionais. Mas, quem sabe, poderemos vir a ter uma usina geotérmica não convencional do tipo EGS (Enhanced Geothermal System)?

Basicamente, em uma usina EGS um fluido frio é injetado em um poço (previamente perfurado), profundo o suficiente para atingir rochas muito quentes, secas e impermeáveis, e fazê-lo jorrar, na forma de vapor muito quente, por um outro poço de saída, próximo e paralelo.

Portanto, diferentemente das usinas tradicionais que buscam bolsões de fluidos aquecidos, nas usinas geotérmicas EGS os alvos são rochas quentes, impermeáveis e secas. São perfurados poços (com profundidades de alguns quilômetros) nos quais o fluido frio é injetado. Este fluido, ao entrar em contacto com rochas muito quentes, se aquece (alta pressão) e, através de um segundo poço, aflora à superfície (pressão atmosférica), onde o fluido se evapora passando a movimentar as turbinas.

As primeiras tentativas de se construir uma usina geotérmica EGS tiveram início na década de 1970 na Islândia, EUA e Alemanha. Foram dezenas de projetos piloto, mas a imensa maioria não teve sucesso [17]. Na Austrália, depois de 5 anos e 144 milhões de dólares gastos, o projeto piloto foi cancelado (em 2016). A água injetada, fluía por falhas geológicas previamente desconhecidas. Em 2006, na Suíça, engenheiros tiveram que fechar o poço perfurado pois este estava provocando pequenos terremotos. Na Coréia do Sul, em 2017, um projeto EGS causou um terremoto de 5,5 na escala Richter.

Mas, há esperança. Um projeto ambicioso (FORGE, Frontier Observatory for Research in Geothermal Energy) está em andamento em Utah, EUA [1]. Iniciado em 2018, com um orçamento de 218 milhões de dólares, o poço perfurado tem 22 cm de diâmetro e atingiu, este ano, a profundidade de 3.300 metros. Para penetrar o duro granito, eles lançaram mão de técnicas já utilizadas pela indústria de extração de petróleo e gás natural, como fraturar o granito com fluido de alta pressão e buscar ângulos quase horizontais para interceptar estresses naturais da rocha.

Cada avanço, foi monitorado por sensores sísmicos ligados a softwares especialmente desenvolvidos para detectar pequenos deslizamentos. As paredes do poço foram forradas com aço, o que permitia selar (através de juntas especiais) uma secção do tubo para, abaixo dela, detonar pequenos explosivos. Finalmente, nos últimos 60 metros de rocha (sem ter a parede protetora de aço), eles injetaram água a uma pressão de 250 atmosferas e um fluxo de 50 barris por minuto. Isso abriu, na base do poço, extensas fissuras. Monitorando todos os abalos sísmicos a distâncias de até 500 metros do poço, eles agora têm um mapa geológico e sísmico de toda a região próxima e ao longo do poço de entrada. Nos próximos meses, uma análise detalhada e rigorosa de todos esses dados, indicará onde e como deve ser perfurado o poço de saída do fluido.

Estima-se que usinas geotérmicas EGS possam gerar cinco vezes mais energia elétrica do que o consumo atual nos EUA [1]. E, ao contrário das usinas eólicas e fotovoltaicas, a produção não é intermitente.

Em abril de 2022, o Departamento de Energia dos EUA destinou mais 84 milhões de dólares para construção de mais 4 usinas geotérmicas EGS, em diferentes locais e tipos de rochas. Em junho de 2022, a Associação Helmholtz da Alemanha, liberou 35 milhões de euros para o estudo de usinas geotérmicas em rochas cristalinas.

Até onde eu sei, não existe no Brasil nenhum projeto piloto de construir uma usina geotérmica EGS. Naturalmente, sua implementação requer financiamento e investimento em tecnologia e recursos humanos. Mas, quem sabe não seja este o caminho para termos uma usina geotérmica no Brasil?

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo.

 

 

 

 

Compartilhe o artigo:

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

[1] In Utah, researchers are trying to unlock Earth’s heat and make geothermal energy a reality | Science | AAAS

[2] Share of electricity production by source, World (ourworldindata.org)

[3] Energy Statistics Data Browser – Data Tools – IEA

[4]  Aneel – Microsoft Power BI

[5] ABSOLAR – Associação Brasileira de Energia Solar Fotovoltaica

[6] Crise energética faz nascer o “Hidrogênio Verde” – IFSC/USP aposta em fotossíntese artificial para gerar combustível renovável – Portal IFSC

[7] Energia de ondas e marés deve avançar com aquecimento – Mar Sem Fim

[8] a17v38n01p08.pdf (revistaespacios.com)

[9] Sobre o campo magnético criado pela Terra, pelo homem e pelas estrelas – Portal IFSC (usp.br)

[10] Earth’s internal heat budget – Wikipedia

[11] Kola Superdeep Borehole – Wikipedia

[12] PETROBRÁS CONCLUIU A PERFURAÇÃO DO POÇO MONAI, O MAIS PROFUNDO NA HISTÓRIA DO BRASIL | PetroNotícias (petronoticias.com.br)]

[13] Vista do POTENCIALIDADE DE UTILIZAÇÃO DA ENERGIA GEOTÉRMICA NO BRASIL – UMA REVISÃO DE LITERATURA (usp.br)

[14] Underground cooling : Revista Pesquisa Fapesp

[15] Usina geotérmica | Enel Green Power

[16] WECJ1264_WEC_Resources_Geothermal.indd (worldenergy.org)

[17] Enhanced geothermal system – Wikipedia

Assessoria de Comunicação – IFSC/USP

23 de agosto de 2022

Sobre o campo magnético criado pela Terra, pelo homem e pelas estrelas

 

Figura 2 – (a) O polo norte geográfico está situado sobre o gelo, no Oceano Ártico. Como o gelo se move rapidamente, não existe uma estação permanente que marque a posição exata do polo norte geográfico verdadeiro. (b) O polo sul geográfico está situado sobre o gelo que cobre a superfície do continente. Como esse gelo se move apenas alguns metros por ano, os EUA construíram um marco (a estação Amudsen-Scott) que indica a posição verdadeira do polo sul geográfico (Crédito: [1]Por: Prof. Roberto N. Onody *

Por: Prof. Roberto Onody

 

Todo planeta tem um par de polos norte e sul geográficos (que estão contidos ao longo do eixo de rotação do planeta) mas, nem todo planeta tem um par de polos norte e sul magnéticos. Veja por exemplo, o planeta Vênus. Como a Terra, Vênus tem também um núcleo metálico e líquido (composto, basicamente, por ferro), mas, sua velocidade de rotação em torno do seu eixo é tão baixa (1 dia venusiano corresponde a 243 dias terrestres!) que inviabiliza a geração de corrente elétrica e, consequentemente, a criação de um campo magnético.

 

Os polos norte e sul geográficos correspondem aos dois pontos onde todos os meridianos terrestres se encontram.  O polo norte geográfico está em pleno Oceano Ártico e o polo sul geográfico se localiza em pleno continente Antártico (Figura 2). Os 12 países que assinaram o Tratado Antártico de 1959 “dividem” o continente Antártico (o Brasil está incluído). O continente é aberto aos pesquisadores científicos. Até 2022, somente 10 pessoas tinham nascido na Antártica [1]!

 

 

Por outro lado, os polos norte e sul magnéticos da Terra são criados pela combinação dos efeitos da sua rotação, composição química e temperatura do seu núcleo.

Como sabemos, a estrutura da Terra é formada por 4 camadas. A primeira, a crosta, tem espessura entre 30 e 70 km. Ela está dividida em placas tectônicas que se movimentam sobre a camada superior do manto.

O manto tem espessura de cerca de 3.000 km. Ele é composto, principalmente, por ferro, silício e magnésio. É denso e quente. A camada superior do manto (astenosfera) está a uma profundidade de cerca de 100 a 200 km da superfície terrestre e sua temperatura é alta o suficiente para derreter as rochas, formando o magma. Esse magma pode chegar à superfície terrestre por meio dos vulcões.

A terceira camada é o núcleo exterior. Ele tem cerca de 2.000 km de espessura (com profundidade de cerca de 3.000 a 5.000 km). É composto por Níquel e Ferro no estado líquido.  Esse líquido em alta temperatura é muito turbulento, com fortes correntes de convecção. Essas correntes de convecção produzem cargas elétricas que, ao rotacionarem junto com a Terra, geram o campo magnético terrestre. A Terra é (quase) um grande imã!

Figura 3 – As posições dos polos norte e sul magnéticos mudam com o tempo. O polo norte magnético migra de 20 a 40 km por ano, no sentido noroeste. Os polos magnéticos nem sequer são antípodas – eles não estão ligados por uma reta que passa pelo centro da Terra. Em 2020, as latitudes e longitudes dos polos norte e sul magnéticos eram (86,5 N; 162,9 L) e (64,1 S; 135,9 L), respectivamente (Crédito: [2])

Finalmente, na última camada, temos o núcleo interior. Com forma esférica e raio de cerca de 1.300 km, ele é composto por Ferro e Níquel no estado sólido. A pressão aí é altíssima – milhões de vezes a pressão atmosférica na superfície terrestre. A temperatura é de aproximadamente 5.400 oC, similar à da superfície do Sol.

Como o campo magnético terrestre é gestado no turbulento núcleo da Terra, as posições dos polos norte e sul magnéticos não são fixas, elas variam com o tempo (Figura 3) [2]. Hoje, o polo norte magnético se encontra a cerca de 500 km de distância e ao sul do polo norte geográfico. Uma bússola colocada no polo norte geográfico indicaria, incorretamente, a direção sul.   É importante observar que os polos norte e sul magnéticos, não são antípodas, isto é, eles não estão em posições diametralmente opostas.

Hoje sabemos, que os polos norte e sul magnéticos se alternam de tempos em tempos – O polo norte vira polo sul e vice-versa. É a chamada reversão temporal. Estima-se que a última reversão ocorreu há cerca de 770.000 anos atrás.

No mundo em que vivemos, os polos magnéticos norte e sul sempre aparecem aos pares, juntos e inseparáveis. Mas, nas equações de Maxwell, a imposição de uma dualidade eletromagnética, propõe a existência de monopolos magnéticos – cargas magnéticas livres.

Paul Dirac demonstrou (no contexto da eletrodinâmica quântica) que se os monopolos magnéticos realmente existirem, então, as partículas elementares terão cargas elétricas que serão múltiplos inteiros da carga “e” do próton e do elétron. Por outro lado, no Modelo Padrão, essas cargas podem ser fracionárias, “+2e/3” e “-e/3” (carga dos quarks).

As massas previstas para os monopolos magnéticos são muito altas, de dezenas a centenas de Teraeletronvolts (Tev). Talvez, os monopolos magnéticos tenham existido logo após o Big Bang. No acelerador de partículas do CERN, o LHC (que comprovou, há 10 anos atrás, a existência do bóson de Higgs), a busca pelos monopolos magnéticos continua. Outra vertente experimental, tenta encontrar os monopolos magnéticos através do mecanismo de Schwinger, onde campos magnéticos muito intensos podem criar monopolos magnéticos [4]. Até agora, também não obteve sucesso.

Certamente, do ponto de vista linguístico, podemos chamar o campo magnético da Terra de, simplesmente, campo geomagnético.  Mas, é necessário um certo cuidado, pois o termo geomagnético é também utilizado num outro contexto. Muitas vezes, o termo campo geomagnético, se refere a um modelo teórico que aproxima o campo magnético terrestre por um imã (dipolo magnético) situado no centro da Terra. Claro, neste caso, os polos norte e sul geomagnéticos são antípodas. Em grandes altitudes, este campo geomagnético coincide com o verdadeiro campo magnético.

Figura 4 – Imagem artística das duas camadas do cinturão de Van Allen. Elas têm a forma toroidal (rosca). A mais interna, oscila entre 1.600 e 13.000 km acima da superfície terrestre e a mais externa, entre 19.000 e 40.000 km atingindo, portanto, as órbitas dos satélites geoestacionários (do GPS, por exemplo) (Crédito: Karl Tate/Space.com)

O campo magnético terrestre envolve continuamente a Terra (interior e exterior) e se estende por todo espaço. Ele forma um manto protetor (a magnetosfera) que blinda e preserva a vida de plantas e animais contra os efeitos nocivos do vento solar (prótons e elétrons ejetados pelo Sol) e raios cósmicos (prótons e núcleos atômicos extremamente energéticos, oriundos de fora do sistema solar e de outras galáxias). Juntos, a atmosfera e o campo magnético terrestre, formam uma bolha, um escudo que permite a vida em nosso planeta.

Figura 5 – Aurora Austral em tons de rosa e amarelo, na Baía Nublada, Tasmânia (Crédito: Shutterstock)

Em 1958, a espaçonave norte-americana Explorer 1, foi lançada ao espaço tendo a bordo um detector Geiger-Müller de radiação. Foi a primeira observação do cinturão de radiação de Van Allen (Figura 4) [3]. Ele é composto por prótons e elétrons de alta energia, que são armadilhados pelo campo magnético terrestre. O cinturão de Van Allen é composto por, basicamente, duas camadas. A primeira, mais exterior, nos protege das partículas vindas do Sol; a segunda, mais interior, nos protege das

Figura 1 – A intensidade do campo magnético terrestre varia de um ponto a outro na superfície da Terra (e também no tempo). A América do Sul tem, hoje, o campo magnético mais fraco. No mapa, a escala utilizada é de nanotesla (0,00001 gauss). O campo magnético médio na superfície da Terra é de cerca de 0,5 gauss. À guisa de comparação, o campo magnético médio do Sol não é muito maior, cerca de 1 gauss (chegando a 3.000 gauss próximo das manchas solares) (Crédito: ESA/DTU/Space)

partículas (muito energéticas) dos raios cósmicos.

Os efeitos produzidos por essas partículas altamente energéticas podem ser, simultaneamente, feéricos e nefastos.  Nas altas latitudes dos hemisférios norte e sul, ao colidirem com átomos da atmosfera (ionizando-os), irradiam luzes multicoloridas que formam o fabuloso espetáculo das auroras boreal e austral (Figura 5). Porém, quando aumenta a atividade do Sol (com ejeções de massa coronal), a Terra é atingida por uma enorme onda de partículas carregadas, que alteram e ondulam o cinturão de Van Allen.  Os prejuízos tecnológicos, causados por correntes elétricas e grandes variações nos campos magnéticos, não são pequenos.

As tempestades solares provocam, na Terra, enormes tempestades geomagnéticas. Recentemente, em fevereiro de 2022, elas destruíram 40 satélites da Starlink, um prejuízo de quase 50 milhões de dólares. Erupções solares ocorridas em 1989, originaram tempestades geomagnéticas que danificaram usinas hidrelétricas na região de Quebec, deixando-a sem energia elétrica por 9 horas. Em 2003, foi a vez da Suécia ter blecaute. Em 2006, outra tempestade geomagnética interrompeu os sinais de rádio de GPS por 10 minutos. A mais antiga tempestade geomagnética conhecida, foi registrada pelo astrônomo Richard Carrington, em 1859. Ele detectou um enorme movimento das manchas solares, seguido da perda de sinais telegráficos. Carrington recebeu também informações de que a aurora boreal tinha sido observada muito mais ao sul, na região do Caribe.

A intensidade do campo magnético (mais rigorosamente, do fluxo magnético) medido na superfície da Terra, não é uniforme (veja Figura 1). Ela oscila entre 0,25 e 0,65 Gauss e foi medida pela primeira vez em 1832, por Carl Friedrich Gauss. Nesses quase 200 anos, a intensidade média do campo magnético terrestre diminuiu cerca de 10%. Localmente, o valor do campo magnético terrestre é muito influenciado pela presença, na vizinhança, de rochas contendo materiais magnéticos.

Figura 6 – Hoje em dia, a liga de neodímio-ferro-boro é o imã permanente mais forte disponível. Ele é utilizado em larga escala industrial. O fluxo magnético gira em torno de 1 a 1,3 Tesla (10.000 a 13.000 gauss) (Crédito: Science Photo Library)

Os melhores e mais utilizados materiais magnéticos para produzir imãs comerciais são as terras raras (grupo dos lantanídeos, na tabela periódica). O adjetivo “raras” se deve ao fato de ser um material de difícil extração e purificação. O neodímio e o samário são os metais preferidos para produzir imãs. A China é o maior produtor mundial de terras raras. O Brasil, que talvez tenha a maior reserva mundial, é apenas décimo produtor devido aos custos de extração e separação industrial.

Pensando em imãs permanentes comerciais, devemos nos referir ao fluxo magnético, que nos indica o quão magnético um determinado material é, ou poderá vir a ser. O máximo da densidade de energia armazenada num imã (medida em gauss–oersted; 1 GOe = 0,0079 joule/metro cúbico), é uma boa medida do poder desse imã – quanto maior, melhor.

Até o início da década de 1980, o imã permanente mais utilizado comercialmente, era a liga de samário-cobalto (densidade magnética máxima igual a 28 milhões de GOe´s). Nessa época, o cientista japonês Masato Sagawa formulou uma nova liga ainda mais forte, composta de neodímio-ferro-boro (densidade magnética máxima igual a 42 milhões de GOe´s). Por esse seu trabalho, ele foi laureado, em 2022, com o prêmio Rainha Elizabeth para Engenheiros. O imã de neodímio-ferro-boro é largamente utilizado e fundamental em carros elétricos, telefones celulares, tomografia por ressonância magnética, discos duros de computadores, aviões, turbinas eólicas etc. (Figura 6).

Para se obter campos magnéticos ainda mais forte, utilizam-se os eletroímãs (bobinas) com fios supercondutores. Até agora (2022), o recorde para campos magnéticos gerados em laboratório, foi de 45,5 Tesla (455.000 gauss) [5].  Embora este valor seja um milhão de vezes maior do que o campo magnético na superfície da Terra, ele é irrisório quando comparado aos campos magnéticos gerados pelas estrelas de nêutron.

Figura 7 – Imagem feita (no comprimento de raios-x) pelo telescópio espacial Chandra em diferentes épocas. No zoom à esquerda, o buraco negro supermassivo da nossa Via-Láctea com o magnetar SGR 1745-2900 quiescente (2005-2008). No zoom à direita, a mesma região do espaço em 2013, com o magnetar ativo (Crédito: NASA)

Quando explode uma supernova, dependendo da massa da estrela em colapso, poderá se formar um buraco negro ou uma estrela de nêutrons. As estrelas de nêutrons são objetos pequenos, com diâmetro girando em torno de 10 a 20 km, mas, extremamente densos. Um cubo, com aresta de 1 cm, pesaria mais do que todos os 8 bilhões de seres humanos existentes na Terra! O campo magnético típico de uma estrela de nêutron é de cerca de 100 milhões de Tesla (mais de um milhão de vezes o maior campo magnético já criado pelo homem).

Na nossa galáxia, foram detectadas e confirmadas (até agora), pouco mais 3.000 estrelas de nêutrons, mas, acredita-se que existam milhões de estrelas de nêutrons na Via-Láctea. Uma estrela de nêutrons, que gira muito rapidamente (centenas de voltas por segundo!), é chamada de pulsar. Um pulsar emite ondas eletromagnéticas de rádio que emergem dos seus polos magnéticos. Um verdadeiro farol espacial! A maior parte das estrelas de nêutrons conhecidas são pulsares.

Estrelas de nêutrons que giram mais lentamente (algo em torno de uma volta a cada 2 a 10 segundos), mas que têm campos magnéticos absurdos de 100 bilhões de Tesla, são chamadas de magnetar (Figura 7). São os maiores monstros magnéticos do universo. Até julho de 2021, eram conhecidos um total de 24 magnetares (e uma dezena mais, esperando confirmação) [6]. Um magnetar passa por explosões de atividade com intensa emissão de raios-x e raios gama. Em 2004, uma dessas explosões gerou um pulso de energia que derrubou, por um décimo de segundo, as comunicações com satélites e aviões. O magnetar responsável foi localizado a 50.000 anos-luz de distância da Terra.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

 

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo

 

 

 

 

 

 

Compartilhe o artigo

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

[1] Antarctica Map and Satellite Imagery [Free] (gisgeography.com)

[2] Magnetic North vs Geographic (True) North Pole – GIS Geography

[3] Van Allen Probes | NASA

[4] Search for magnetic monopoles produced via the Schwinger mechanism | Nature

[5] 45.5-tesla direct-current magnetic field generated with a high-temperature superconducting magnet | Nature

[6] Magnetar – Wikipedia

Assessoria de Comunicação – IFSC/USP

14 de junho de 2022

O Quadriculo – Uma figura geométrica intermediária entre o quadrado e o círculo

Figura 1 – A equação da superelipse em coordenadas cartesianas, com a ≠ 0 e b ≠ 0 e o expoente p ≥ 0. O quadrículo corresponde ao caso a = b e p ≥ 2 (Crédito: R. N. Onody)

Por: Prof. Roberto N. Onody *

Confesso que quando fui escolher o título desse trabalho, hesitei muito antes de optar pela palavra quadrículo. Isso porque, nos dicionários esse termo já existe, mas com significado bem diferente daquele que eu quero emprestar aqui. Nos dicionários, quadrículo significa quadrado pequeno.

Figura 2 – Curvas da superelipse para os valores a = b = 1, temos: (A) Um formato Apple Watch, para p = 4; (B) Um formato estrela, para p = 1/3 (Crédito: R. N. Onody)

Peço vênia ao leitor mais atento às questões de língua portuguesa ou brasileira, para atribuir à palavra quadrículo um novo significado – uma figura geométrica intermediária entre o quadrado e o círculo. Dessa maneira, quadrículo é um neologismo incompleto construído por aglutinação. O acento tônico é necessário para distinguir da primeira pessoa (no tempo presente) do verbo quadricular. A palavra inglesa correspondente é – squircle (square + circle), com o mesmo significado matemático. Descartei, por sua tenebrosa sonoridade, a alternativa do neologismo quadráculo.

Há que se tomar cuidado com a palavra quadrículo (squircle), pois ela tem 2 significados matemáticos bem diferentes [1].

Um deles se refere à curva de uma superelipse.  A superelipse foi proposta por Gabriel Lamé em 1818 (veja Figura 1). Na equação, temos os ´semieixos´ a ≠ 0 e b ≠ 0 e o expoente p ≥ 0. O quadrículo corresponde ao caso particular em que os ´semieixos´ são iguais (a = b) e o expoente p ≥ 2. Quando p = 2, temos o círculo de raio a e no limite p → ∞ obtemos, assintoticamente, o quadrado com aresta 2a.

Vemos na Figura 2 (A) que, com a = b = 1 e p = 4, o quadrículo ganha a forma de um design da Apple. Para o parâmetro p no intervalo (0,2), a curva adquire o formato de uma estrela de 4 pontas [Figura 2 (B)]. No limite p → 0, ela colapsa no formato do sinal aritmético +.

Figura 3 – A equação do quadrículo de Fernández Guasti em coordenadas cartesianas. Diferentemente do parâmetro p da superelipse (que só forma um quadrado no limite do infinito), o parâmetro s varia continuamente no intervalo [0,1]. Para s = 0 é um círculo de raio r, para s = 1 é um quadrado de aresta 2r (para |x| ≤ r e |y| ≤ r) (Crédito: R. N. Onody)

Uma outra definição matemática do quadrículo, foi proposta por Fernández Guasti [2], ao estudar padrões de difração da luz através de aberturas com contornos na forma do quadrículo (Figura 3).

Na Figura 4, temos as curvas do quadrículo de Fernández Guasti (que abreviaremos FG) para diferentes valores do parâmetro s [3]. Para s = 0 é um círculo de raio r e para s = 1 é um quadrado de aresta 2r.

Figura 4 – Curvas do quadrículo FG para vários valores do parâmetro s. Ela é um círculo para s = 0 e um quadrado para s = 1 (para |x| ≤ r e |y| ≤ r) (Crédito: ref. [3])

Se na equação do quadrículo de FG (Figura 3) fizermos r = s, obteremos uma outra transição contínua para 0 ≤ s ≤ 1 [4]. Só que, desta vez, começa como um único ponto em s = 0 que se transforma num quadrado com aresta de tamanho 2 em s = 1 (Figura 5).

O quadrículo de FG pode ser estendido para três dimensões (veja equação na Figura 6). Nesse caso, temos em s = 0 uma esfera e em s = 1, um cubo (Figura 7).

Figura 5 – Curvas do quadrículo FG quando r = s para diferentes valores do parâmetro s. Ela é um ponto para s = 0 e um quadrado de aresta igual a 2 para s = 1 (para |x| ≤ 1 e |y| ≤ 1) (Crédito: ref. [4])

A palavra ´squircle´ também tem sido usada como uma forma de pensar, agir e desenvolver novas habilidades num mundo cada vez mais complexo e competitivo. Nesse contexto, o objetivo é fazer caminhar juntos a razão (square) e a intuição (circle) de maneira sinérgica [5].

 

 

Figura 6 – Equação da versão tridimensional. Crédito: ref. [3]

 

 

Figura 7 – Superfícies 3D. Para s = 0 temos uma esfera de raio r, para s = 1 temos um cubo com aresta 2r para |x| ≤ r, |y| ≤ r e |z| ≤ r. (Crédito: ref. [3])

 

 

 

 

 

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo

 

 

 

 

 

Compartilhe o artigo

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

[1] Squircle — from Wolfram MathWorld

[2] doi:10.1016/j.ijleo.2005.01.018 (uam.mx)

[3] Chamberlain Fong, squircular calculations (arxiv.org)

[4] Chamberlain Fong, Mappings for Squaring the Circular Disc (arxiv.org)

[5] Francis Cholle, “Squircle: a new way to think for a new world”, ed. Squircle Academy (2020).

Assessoria de Comunicação – IFSC/USP

23 de maio de 2022

Hibernação, torpor e sono – Distinguir os animais que hibernam daqueles que passam por um estado de torpor diário

Figura-1: Diagrama esquemático para distinguir torpor diário e hibernação. (a) A variação da temperatura do corpo de um animal entorpecido, abaixa durante a noite e aumenta durante o dia. (b) A variação da temperatura de um animal que hiberna, dura meses, e é entremeado por breves intervalos de despertar fisiológico. Durante esses pequenos intervalos, os parâmetros fisiológicos retomam seus valores pré-hibernação (Crédito: ref. [1])

Por: Prof. Roberto N. Onody *

A saúde das células de um organismo vivo depende de parâmetros vitais como temperatura, osmolaridade e oxigenação. Para sua preservação, os animais têm que dar respostas fisiológicas às mudanças ambientais, num processo chamado homeostase.

Alguns animais dão uma resposta extraordinária às alterações ambientais – a hibernação. A hibernação é um conjunto de estratégias fisiológicas escolhidas para enfrentar um ambiente muito hostil e adverso, como grandes mudanças de temperatura, falta de comida ou de água. Em geral, o estado de hibernação se caracteriza por uma diminuição da temperatura do corpo, decréscimo da pulsação e da pressão arterial, diminuição do metabolismo e de toda a atividade do animal. A palavra hibernação vem do latim hibernare, que significa ´passar o inverno´.

De maneira surpreendente, o número de animais diferentes que se beneficiam da hibernação é, realmente, muito grande. Inclui tanto animais heterotérmicos (isto é, que não mantêm a temperatura do seu corpo constante, aproximando-a da temperatura ambiente) como répteis, anfíbios e peixes, e os animais homeotérmicos (isto é, que mantêm a temperatura do seu corpo, aproximadamente, constante) como os mamíferos e aves.

É preciso distinguir os animais que, de fato, hibernam daqueles que passam por um estado de torpor diário. Na Figura 1, temos um gráfico esquemático mostrando a diferença [1].  A variação da temperatura de um animal que hiberna é pontuada por breves intervalos de despertar fisiológico (entrementes, o animal não está acordado, consciente). Durante esses curtos intervalos, os parâmetros fisiológicos retomam seus valores pré-hibernação. Esses intervalos de despertar não existem no estado de torpor. Sabe-se que, durante esses intervalos de despertar, a máquina biológica entra em ação: ocorre divisão celular para produzir proteínas e reparar células, estímulo do sistema imunológico e reversão das contrações dos dendritos dos neurônios. Essas contrações sempre ocorrem durante o torpor.

Figura-2: O noitibó-de-nuttal (Phalaenoptilus nuttallii), única ave conhecida que hiberna (por até 100 dias) (Crédito: VeVET : Ahhh o frio… )

Para não sofrer os efeitos de mudanças climáticas, as aves migram em vez de hibernar. Só se conhece uma ave que hiberna – é a noitibó-de-nuttal, uma ave norte-americana (Figura 2).

Aves como o beija-flor não dormem e nem hibernam, mas passam por um torpor diário. Durante o dia, sua temperatura corporal é de cerca de 40oC, batendo o coração num ritmo frenético (1.200 vezes por minuto). À noite, sua temperatura cai para 18oC e coração desacelera para cerca de 50 batidas por minuto.

Nós, seres humanos, durante o sono, temos um decaimento de 1 a 2 graus Celsius da nossa temperatura corporal, uma diminuição de cerca de 10% do nosso metabolismo e da pressão arterial. Quando a temperatura aumenta, nós transpiramos e perdemos calor na forma de suor; quando a temperatura diminui, nós trememos para aumentar a produção de calor.

Todos os animais, para sobreviverem, devem manter a temperatura corporal dentro de um certo intervalo. Abaixo de 0oC, cristais de gelo podem se formar no interior das células, rompendo suas membranas. Acima de 40oC, as proteínas se desnaturam, perdendo sua função.

Para controlar sua temperatura, o animal tem que produzir calor (animal endotérmico ou, popularmente, de ´sangue quente´) ou receber (ou mesmo perder) calor do sol (animal ectotérmico, de ´sangue frio´). Um animal endotérmico pode ser homeotérmico ou heterotérmico. Por outro lado, todo animal ectotérmico é heterotérmico.

A hibernação de animais de sangue frio (peixes, répteis e anfíbios) é chamada de brumação.  Ao contrário dos animais de sangue quente (que, antes de hibernarem, se empanturram de alimentos), eles não precisam se alimentar antes de brumar. Quando está muito frio, colocam-se em um lugar que tenha sol, abaixam a temperatura corporal aproximando-a da temperatura ambiente, diminuem o ritmo metabólico, a respiração e as batidas cardíacas. Se está muito quente, as alterações fisiológicas se repetem, só que desta vez, o animal procura um lugar fresco e à sombra. Este último caso também é chamado de estivação. Entre exemplos de animais que brumam estão algumas espécies de serpentes, tartarugas, jacarés, sapos, peixes, abelhas e até o pequeno caracol.

Figura-3: O fofinho lêmure anão (Fat-tailed Dwarf Lemur). Antes de hibernar, seu peso aumenta em 40%. Essa gordura extra se acumula na sua cauda, daí seu nome ´Fat-tailed´ (Crédito: ref. [2])

Entre os animais de sangue quente que hibernam, o destaque fica para os mamíferos, principalmente aqueles de pequeno porte. São esquilos, morcegos, porcos-espinhos, gambás e marmotas. Estas últimas, famosas por, supostamente, conseguirem prever se o próximo inverno será muito rigoroso ou não, hibernam por 5 meses. Neste período perdem um quarto do seu peso, diminuem seus batimentos cardíacos de 100 para apenas 10 batimentos por minuto e sua temperatura corporal de 37 para apenas 2 graus Celsius!

Quando falamos em hibernação, a imagem imediata que nos vem à cabeça é a de um urso. Essa é uma percepção comum – o urso como modelo de hibernação. É, porém, equivocada. Hoje, a maioria dos biólogos prefere caracterizar como torpor! Isto porque a temperatura corporal dos ursos cai apenas 5oC durante a ´hibernação´ e as batidas cardíacas diminuem de 50 para 20 por minuto (muito pouco quando comparamos, por exemplo, com a marmota). Os ursos são animais enormes (que pesam entre 400 e 700 kg) e muito fortes – a mordida de um urso pardo pode esmagar uma bola de boliche. Antes do inverno eles precisam engordar muito (cerca de 1,5 kg por dia!) para queimar calorias durante a dormência. Mas, é uma obesidade saudável.  Saem do inverno bem ´fit´, com um peso 30 % menor.

O único primata conhecido que hiberna é um lêmure anão encontrado na ilha de Madagascar (Figura 3). Sua temperatura corporal, que é de 37oC diminui para 16 oC. Seu batimento cardíaco despenca de 180 para apenas 8 batidas por minuto [2]. Eles podem hibernar por até 7 meses!

Vamos agora, analisar os mecanismos biológicos envolvidos na hibernação. Entre eles, o controle térmico corporal tem um papel fundamental e o sistema nervoso autônomo é o encarregado desse controle.

A sensitividade térmica do nosso corpo se deve à presença de termorreceptores [3]. Termorreceptores são terminais nervosos livres encontrados na pele, fígado, músculos esqueléticos e no hipotálamo. No ser humano, o número de termorreceptores para o frio é 3,5 vezes maior do que para o quente.

No hipotálamo (Figura 4), neurônios termicamente sensíveis disparam os mecanismos de resposta ao calor e ao frio. Essa resposta é dada por diversos órgãos. Diretamente, pelo fígado e músculos esqueléticos e, indiretamente, pelo coração e a tiróide.

Na parte anterior do hipotálamo fica uma região chamada de pré–óptica. Ela é o verdadeiro centro de coordenação térmica, pois recebe sinais de termorreceptores periféricos (pele e medula espinhal) e os compara com aqueles vindos de termorreceptores centrais (hipotálamo). Ela os integra e escolhe a melhor resposta regulatória para dadas condições térmicas internas e externas (ambientais).

Figura-4: O hipotálamo é um órgão multifuncional. Ele controla a temperatura corporal, a fome, a sede, a fadiga e o ritmo circadiano. (Crédito: Medical News Today)

É também nessa região pré–óptica do hipotálamo que se dispara o sinal de alarme contra invasores no nosso corpo. O metabolismo de bactérias e vírus e a ação defensiva dos leucócitos, produzem pirogênios (moléculas de polissacarídeos ou peptídeos).  A presença dessas substâncias pirogênicas, diminui a atividade de neurônios sensíveis ao calor e aumenta a atividade dos neurônios sensíveis ao frio, causando a febre. O alarme defensivo foi acionado.

Experimentos realizados em mamíferos demonstraram que o aquecimento (resfriamento) da região pré–óptica reduz (aumenta) a taxa metabólica. Em outras palavras, a variação de temperatura nessa região altera a atividade dos neurônios. Voltaremos a esse assunto mais adiante.

Guardadas as devidas proporções (e precauções), o sono se assemelha muito à hibernação. Basicamente, o sono pode ser dividido em quatro fases: REM – movimento rápido dos olhos (Rapid Eye Moviment) e NREM – não REM, com 3 fases denominadas N1, N2 e N3, detectadas pelo eletroencefalograma. Quando nos deitamos para dormir, o sono se inicia com as 3 fases N1, N2 e N3 (nessa ordem). Cerca de 90 minutos depois vem a primeira fase REM, que dura de 10 a 60 minutos. Em seguida, elas vão se alternando com diferentes durações.

Durante a fase REM, as ondas cerebrais, a respiração e a pulsação aumentam de tal forma que se parecem com o da vigília. É a fase mais cheia de sonhos (agitados). Nessa fase, para evitar danos a nós mesmos e aos outros, nossos músculos estão paralisados!

Durante a fase NREM, há uma diminuição da temperatura corporal e do ritmo metabólico. Os vasos sanguíneos da nossa pele se dilatam, favorecendo a dissipação de calor. Exceto pelas amplitudes envolvidas (nos valores da queda da temperatura e do ritmo metabólico), a fase NREM é muito semelhante ao torpor.

Vejamos agora as diferenças. Ao contrário do que acontece na vigília, importantes experimentos demostraram que, durante a fase REM, alterar a temperatura da região pré-biótica não modifica a atividade dos neurônios. Ao contrário da fase NREM, durante o torpor não se observou dilatação de vasos cutâneos.

O torpor natural é caracterizado por uma diminuição espontânea da atividade metabólica e, consequentemente, da temperatura corporal. A temperatura do corpo pode se aproximar da temperatura ambiente, desde que esta fique acima de 0oC. Isso mostra, que a regulação térmica está deprimida, mas, ainda está presente.

Uma vez que o estado de torpor existe em todas as ordens de mamíferos (incluindo os primatas), acredita-se que a característica de supressão da taxa de metabolismo já estivesse presente em algum ancestral evolutivo. Portanto, em algumas espécies, os genes responsáveis pelo torpor foram silenciados.  Será possível reativá-los?

Existe um caso humano, reportado na literatura [4], que se aproxima do torpor. Um senhor de 51 anos tinha ataques de suor violentíssimos, várias vezes por dia. Esses ataques eram unilaterais, pois atingiam somente o lado esquerdo do seu corpo. Aconteciam, estando o paciente em pé ou deitado. Começaram após uma infecção identificada como do tipo influenza. Os ataques de suor duravam cerca de uma hora e meia, após o que ele sentia muita fraqueza, lentidão mental, tremores e muito frio. Sua temperatura baixava para apenas 31oC por, aproximadamente, 80 minutos. Todos os exames foram feitos, diagnósticos possíveis e medicamentos testados, sem resultado. Após 1 ano os sintomas simplesmente desapareceram.

A hipotermia terapêutica em seres humanos é muito utilizada em casos de injúrias cerebrais e coronárias. No processo de hipotermia, a cada 1oC de queda na temperatura de nosso corpo, há uma redução de 6% no consumo de oxigênio nos tecidos e de 10% no nosso cérebro. Porém, abaixo de 32oC esse ritmo diminui. Quando a temperatura chega a 15oC, nosso cérebro está consumindo apenas 17% do oxigênio daquele utilizado em nível normal. Mas, esses níveis de hipotermia só podem ser atingidos com enorme suporte de equipamentos clínicos especializados e coordenação humana.

Uma maneira alternativa (e, talvez, mais eficaz) de conseguir induzir torpor em mamíferos, seja reduzindo o seu metabolismo. O metabolismo envolve a ação de múltiplas enzimas e inclui o catabolismo – em que uma molécula complexa é quebrada em moléculas mais simples liberando energia e o anabolismo – que é o processo oposto, utiliza energia e moléculas mais simples para produzir moléculas mais complexas.

Buscando-se provocar torpor em mamíferos de maneira artificial (o chamado torpor sintético), várias substâncias têm sido testadas. Sulfeto de hidrogênio, N6-cyclohexyladenosine, 3-iodothyronamine (um hormônio da tiróide), etc. Na maioria dos casos, essas substâncias tiveram sucesso apenas em mamíferos de pequeno porte como ratos e esquilos.

O torpor sintético em seres humanos tem particular interesse em longas viagens espaciais. Um astronauta metabolicamente quiescente, ensejaria uma diminuição de consumo de oxigênio, comida, água, e quem sabe, até uma redução dos efeitos nocivos nos ossos e nos músculos da microgravidade.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo:

 

 

 

 

 

Compartilhe o artigo

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

[1] Cellular, Molecular, and Physiological Adaptations of Hibernation: The Solution to Environmental Challenges | Annual Review of Cell and Developmental Biology (doi.org) 

[2] Fat-tailed Dwarf Lemur – Duke Lemur Center

[3] The Central Control of Energy Expenditure: Exploiting Torpor for Medical Applications | Annual Review of Physiology (annualreviews.org)

[4] Paroxysmal episodic central thermoregulatory failure

https://doi.org/10.1212/WNL.58.8.1300

Assessoria de Comunicação – IFSC/USP

26 de abril de 2022

Proteínas e Inteligência Artificial: o ano de 2021 foi disruptivo para a biologia estrutural de proteínas

Figura 1 – O uso da inteligência artificial escancarou novas perspectivas e possibilidades no estudo das estruturas 3D e na formação de complexos de proteínas. A revista Science elegeu o assunto como um dos maiores avanços científicos do ano de 2021 [9]. (Crédito: Spencer Phillips/EMBL-EBI, Solving the protein structure puzzle  EMBL)

Por: Prof. Roberto N. Onody *

O ano de 2021 foi disruptivo para a biologia estrutural de proteínas. Foi o ano em que a inteligência artificial obteve resultados inimagináveis há 50 anos atrás (Figura 1). Além de colocar o problema do enovelamento de proteínas em um novo patamar, a inteligência artificial abriu caminho para que, com orçamentos mais modestos, cientistas e laboratórios do mundo todo possam, agora, desenvolver e aprofundar suas pesquisas.

 

As proteínas são os blocos de construção e manutenção da vida como a conhecemos.  Não importa qual seja o seu domínio na evolução celular – Bacteria, Archaea ou Eukarya, as proteínas são fundamentais e estão sempre presentes.

 

Proteínas são grandes cadeias lineares de aminoácidos (quando essas cadeias são pequenas, são chamadas de peptídeos). Os aminoácidos são compostos orgânicos que contêm carbono, oxigênio, hidrogênio e nitrogênio. Ao se ligarem entre si, os aminoácidos adquirem (num piscar de olhos) uma estrutura tridimensional que, juntamente com a sequência dos diferentes tipos de aminoácidos conectados, definirão a proteína resultante e a sua funcionalidade. Esse processo é chamado de enovelamento da proteína (“protein folding”).

Em um minuto, o ser humano produz cerca de 120.000 proteínas.

Figura 2 – Descoberta em 1921, a insulina é um hormônio sintetizado no pâncreas. É fundamental no metabolismo dos carboidratos, principalmente da glicose. É formada por 2 cadeias de peptídeos (uma com 21 aminoácidos e a outra com 30 aminoácidos) ligadas entre si por átomos de enxofre. Sua fórmula contém 788 átomos – C257 H383 N65 O77 S6 (Crédito: ref. [1])

É bem conhecido o mecanismo de síntese de proteínas por expressão gênica.

Em eucariotos, um gene do DNA (que está no núcleo da célula) é copiado (transcrito) para um RNA. Este, por sua vez, passa por um processamento bioquímico que o transforma num RNAm (RNA mensageiro). O RNAm atravessa a membrana do núcleo para o citoplasma e, no ribossomo, através dos códons e dos RNAt (RNA transportador), convoca os aminoácidos corretos e sintetiza a proteína desejada.

 

A expressão gênica pode sintetizar um pouco mais do que 20.000 tipos de proteínas (número estimado de genes humanos). Com a regulação pós-transcrição (“alternative splicing”), o número total de tipos de proteínas pode chegar próximo de 200.000. Estima-se que, num volume muito pequeno de 10 – 15 litros (igual a 1 micrômetro cúbico) de uma célula, existam de 2 a 4 milhões de proteínas. E olhe que o número total de células existentes no corpo humano é estimado em 30 trilhões!

A primeira proteína que teve sua sequência de aminoácidos corretamente determinada, foi a insulina (por F. Sanger, 1949). O fígado, os músculos e as hemácias (também conhecidas por glóbulos vermelhos ou eritrócitos) contêm 30% de proteínas. As proteínas também recebem outras denominações que dependem de sua função dentro do organismo.

Figura 3 – Asparagina – o primeiro aminoácido descoberto. Cores: cinza escuro – Carbono; cinza claro – Hidrogênio; lilás – Nitrogênio; vermelho – Oxigênio. Fórmula: C4 H8 N2 O3 (Crédito: ref. [2])

As enzimas, por exemplo, são proteínas fundamentais com a função de catalisar reações químicas, seja na produção de novas substâncias, seja na sua degradação. Assim, a pepsina ou protease degrada proteínas em moléculas menores, a miosina atua na contração muscular, a lactase facilita a hidrólise da lactose, a DNA polimerase atua na duplicação do DNA etc. A atividade enzimática é controlada, principalmente, pela temperatura e pelo pH.

Os hormônios são proteínas que têm função regulatória das atividades fisiológicas e manutenção da homeostase. São segregados pelo nosso sistema endócrino. Entre os mais importantes podemos citar: a insulina (Figura 2), que metaboliza o açúcar; a cortisona, no combate às inflamações e os hormônios sexuais estrogênio e testosterona.

Cada órgão sintetiza seu próprio conjunto de proteínas necessárias para o seu pleno funcionamento. No entanto, para sintetizar uma proteína, o organismo tem que ter disponibilidade de todos os aminoácidos que a compõem. As plantas sintetizam todos os tipos de aminoácidos (hoje, são conhecidos mais de 500 aminoácidos), mas os animais não. Existem 20 tipos de aminoácidos nos animais, sendo que 9 deles são essenciais e não são sintetizados pelos animais. Precisamos, então, nos alimentar das plantas para obtê-los (ou de animais que delas se alimentaram). O prato brasileiro principal, feijão com arroz, contém todos os 9 aminoácidos essenciais.

Em 1806, químicos franceses encontraram, no aspargo, o primeiro aminoácido – a asparagina (Figura 3), que não é um aminoácido essencial. Na construção de uma proteína, o primeiro aminoácido incorporado é a metionina (Figura 4). É um aminoácido essencial, codificado pelos códons AUG. É encontrado em grãos, sementes, ovos, carne e peixes.

Durante muitas décadas, os experimentos para se conseguir a estrutura de uma proteína, necessitavam antes cristalizá-la para depois submetê-la a experimentos de espalhamento de raios-x. Um processo muito demorado.

Figura 4 – Metionina – um aminoácido essencial. Cores: cinza escuro – Carbono; cinza claro – Hidrogênio; lilás – Nitrogênio; vermelho – Oxigênio; amarelo – Enxofre.  Fórmula: C5 H11 N O2 S (Crédito: ref. [3])

A partir de 2001, também passou a ser utilizada a técnica de espectroscopia de ressonância magnética nuclear [4]. Ela permite calcular como os átomos estão ligados quimicamente, suas distâncias e velocidades. Em geral, as amostras são dissolvidas em água. Essa técnica, permite também determinar a dinâmica de interação de duas proteínas.

Desde sua invenção (na década de 1930) o microscópio eletrônico de transmissão muito tem contribuído ao estudo de biomoléculas e novos materiais. A preparação de amostras biológicas em baixa temperatura, o avanço na tecnologia dos detetores e de softwares, conduziram ao desenvolvimento da microscopia eletrônica criogênica [5]. Amostras biológicas rapidamente congeladas em gelo amorfo (vítreo) têm pouco dano estrutural. O sucesso dessa nova técnica levou ao prêmio Nobel de Química de 2017.

Todas as proteínas com sua estrutura tridimensional resolvida experimentalmente (por qualquer um dos três métodos descritos acima) estão contidas num repositório de livre acesso – “Protein Data Bank[6]. São cerca de 185.000 proteínas catalogadas. Estima-se que existam pouco mais de 700.000 proteínas no corpo humano (com e sem estrutura espacial conhecida).

Como vimos, ao juntar dezenas ou centenas de aminoácidos (e de tipos de aminoácidos) para formar uma determinada proteína, ao final, devido às interações entre os seus componentes, a proteína se enovela, isto é, ela se curva e se retorce, adquirindo uma estrutura tridimensional que terá papel fundamental na funcionalidade dessa proteína (e sua eventual utilização no design de novas drogas). Há 50 anos atrás, o prêmio Nobel de bioquímica, C. Anfinsen, previu que um dia seria possível se determinar a estrutura 3D final de qualquer proteína, a partir da sequência de aminoácidos que a compõe.

Figura 5 – A estrutura da proteína humana interleucina-12 se ligando a seu receptor (Crédito: Ian Haydon, UW Medicine Institute for Protein Design)

Dessa maneira, prever a estrutura espacial de uma proteína a partir da sua sequência de aminoácidos, se tornou um enorme desafio teórico para físicos, químicos e biólogos. Paralelamente, na década de 1990, surgiram programas computacionais que procuravam prever a estrutura de pequenas proteínas. Em 1994, foi lançada uma competição bianual chamada CASP (Critical Assessment of protein Structure Prediction). Aos competidores eram fornecidas as sequências de aminoácidos de algumas dezenas de proteínas, e os resultados desses programas computacionais eram, então, comparados com os resultados experimentais. Um porcentual de 90 % de acerto na estrutura seria considerado um sucesso.

No início, os programas mal chegavam perto do índice de 60%. Mas, em 2018, entrou na competição um programa de inteligência artificial chamado AlphaFold [7], desenvolvido pela companhia DeepMind, subsidiária da Google. Ela atingiu o índice de 80% e, em 2020, a sua segunda versão AlphaFold 2, obteve uma precisão incrível de 92,4 %! O custo computacional é bastante alto, pois utiliza 182 processadores otimizados para aprendizado de máquina. Em 2021, entrou em cena um outro programa de inteligência artificial, o RoseTTAFold [8] com os mesmos objetivos do AlphaFold, mas que demanda menos poder computacional. Ambos os programas têm seus códigos disponíveis gratuitamente na internet.

Figura 6 – Os anticorpos são proteínas em forma de Y que se ligam a proteínas estranhas ou nocivas. O fato de serem bem grandes, permite que elas se liguem à proteína alvo em vários pontos de encaixe (Crédito: Shutterstock)

Basicamente o que esses programas de inteligência artificial [10], [11] fazem é alimentar uma rede neural com uma determinada sequência de aminoácidos (de uma proteína com estrutura 3D experimentalmente conhecida) e alterar vários bilhões de parâmetros para que saída seja uma proteína compatível com aquela experimental. Repete-se esse procedimento, dando entrada para centenas de milhares de proteínas com estruturas 3D experimentalmente conhecidas. Uma nova proteína, com a sua própria sequência de aminoácidos, tem sua estrutura calculada com os valores dos bilhões de parâmetros ´treinados´ ou ´ensinados´ exaustivamente. A estrutura 3D dessa proteína vai para um banco de dados. A AlphaFold tem quase um milhão de estruturas proteicas propostas para o proteoma humano. A previsão de novas estruturas pode auxiliar no design de novas drogas (Figura 5). Juntos os dois programas revelaram mais de 5.000 complexos de interação proteína-proteína. Pesquisadores chineses mapearam a estrutura de 200 proteínas que se ligam ao DNA.

Anticorpos são proteínas grandes em forma de Y, que se conectam a proteínas prejudiciais presentes em bactérias, vírus ou células cancerígenas, sinalizando ao sistema autoimune para que destrua o invasor (Figura 6). Pelo fato de serem grandes, os anticorpos podem se conectar, simultaneamente, a vários pontos da proteína alvo (antígeno). Anticorpos produzidos artificialmente são, porém, caros e instáveis. Dessa maneira, pesquisadores se lançaram à tarefa de produzir mini proteínas, mais estáveis, mas que necessitam ser bem ´desenhadas´ para se encaixarem em determinados locais e regiões da proteína alvo. Em artigo recente publicado na revista Nature [12], cientistas utilizaram o programa RoseTTAFold para encontrar a sequência de aminoácidos de mini proteínas que se encaixaram em 12 proteínas alvo, incluindo a do SARS-CoV-2.

Claro, apesar do enorme progresso e da rapidez que os programas de inteligência artificial trouxeram à previsão estrutural das proteínas, isso não significa, stricto sensu, que o problema do enovelamento de proteínas tenha sido resolvido. Muitos de nós gostaríamos de ver soluções baseadas em primeiros princípios, ou seja, nas interações físicas e químicas.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo.

 

 

 

 

 

Compartilhe:

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

[1] Insulin: A pacesetter for the shape of modern biomedical science and the Nobel Prize – ScienceDirect

[2] Ben Mill, Public Domain

https://commons.wikimedia.org/w/index.php?curid=98314887

[3] Ben Mill, Public Domain

https://commons.wikimedia.org/w/index.php?curid=98248870

[4] The way to NMR structures of proteins | Nature Structural & Molecular Biology

[5] Preparing Better Samples for Cryo–Electron Microscopy: Biochemical Challenges Do Not End with Isolation and Purification | Annual Review of Biochemistry (annualreviews.org)

[6] wwPDB: Worldwide Protein Data Bank

[7] AlphaFold Protein Structure Database (ebi.ac.uk)

[8] The Rosetta Software | RosettaCommons

[9] Science’s 2021 Breakthrough of the Year: AI brings protein structures to all | Science | AAAS

[10] Teste de Turing e Inteligência Artificial – Portal IFSC (usp.br)

[11] C4AI – Centro de Inteligência Artificial (usp.br), parceria da USP, Fapesp e IBM.

[12] Design of protein binding proteins from target structure alone | Nature

Assessoria de Comunicação – IFSC/USP

5 de abril de 2022

Artigo do Prof. Roberto Onody – “A matéria escura e os buracos negros primordiais”

 

Figura 1 – Legenda: Na foto, a galáxia espiral M33, distante cerca de 2,4 milhões de anos-luz da Terra (1 ano-luz é igual a 63.241 vezes a distância Terra-Sol). Superposto à foto, temos o diagrama velocidade das estrelas (em km/s) versus distância (em anos-luz). Em amarelo (medidas feitas no visível) e azul (medidas feitas em ondas de rádio de 21 cm, emitidas pelo hidrogênio neutro), os valores experimentais com suas respectivas barras de erros. A linha branca contínua é a curva que interpola esses dados esperimentais. A linha tracejada branca é a velocidade estimada (levando-se em conta apenas a massa ‘visível’) (Crédito: Mario de Leo)

 

*Por: Prof. Roberto N. Onody

A existência de matéria escura no universo é uma imposição das observações astronômicas feitas nos séculos XX e XXI.

A primeira indicação da existência de matéria escura veio quando se mediu as velocidades de boa parte das estrelas que compõem uma galáxia. Numa galáxia, as estrelas orbitam em torno de um centro que contém, geralmente, um buraco negro supermassivo. Quando as velocidades das estrelas foram medidas e plotadas contra as suas respectivas distâncias ao centro de rotação, constatou-se que, em vez delas diminuírem com a distância como esperado, elas estavam aumentando com a distância (veja Figura 1).

Outra comprovação experimental da existência da matéria escura, veio através do efeito denominado lente gravitacional, previsto pela Teoria da Relatividade Geral. A luz que sai de uma galáxia A em direção à Terra, é distorcida ao passar pelo forte campo gravitacional de outra galáxia intermediária B, formando várias imagens (arcos) da galáxia A (Figura 2). As estimativas astronômicas feitas para a massa ‘visível’ da galáxia B (responsável pela curvatura da luz oriunda de A), se revelaram incompatíveis do que aquelas preditas pela Relatividade Geral. Assim, a galáxia intermediária B deveria ter uma massa adicional, invisível, que passou a se chamar matéria escura.

E, finalmente, a medição da anisotropia da radiação cósmica de fundo (radiação no comprimento de micro-ondas), determinou que a abundância de matéria visível ou massa bariônica (prótons e nêutrons) é de somente 4% e da matéria escura 26%. O saldo restante, é chamado de energia escura. Esta última, compõe 70% de tudo que existe no nosso mundo, e é a responsável pela expansão acelerada do universo. A primeira constatação experimental dessa expansão acelerada, veio do baixo brilho observado em explosões de supernovas IA muito distantes [1]. Acredita-se hoje, que a energia escura está associada, de alguma forma, com a constante cosmológica introduzida originalmente por Einstein (e depois, abandonada) na equação da Relatividade Geral.

Mas, afinal, de que é feita a matéria escura?

A matéria escura não é feita de átomos e não interage eletromagneticamente. Sua interação com a matéria visível é, predominantemente, gravitacional. Experimentos recentes (2020) parecem indicar que a matéria escura não tem interação forte (nuclear) com os bárions. Entretanto, é possível que a matéria escura tenha interação fraca com prótons e nêutrons (veja ref. [2]).

A necessária existência da matéria escura, deu origem a inúmeras hipóteses sobre sua composição. As mais populares, propõem a existência de novas partículas como WIMPs (Weakly Interacting Massive Particles), axions, supersimétricas, neutrinos estéreis, [3]…, porém, nenhuma delas teve (até agora) confirmação experimental comprovada e inquestionável.

Figura 2 – À esquerda: imagem do aglomerado de galáxias Cl 0024+17, feita em luz visível pelo telescópio Hubble. Junto com as centenas de galáxias amarelas, estão presentes dezenas de estranhos arcos azuis, causados pelo efeito de lente gravitacional. À direita: a distribuição de matéria escura (representada pela névoa azul superposta) necessária para explicar as imagens distorcidas. (Crédito: NASA, ESA, M. J. Jee e H. Ford (Universidade de John Hopkins))

Naturalmente, é muito tentador pensar que a matéria escura poderia ser constituída por buracos negros. Os buracos negros (os que sabemos explicar e, até certo ponto, entender) se formam a partir do colapso gravitacional de estrelas com massa superior a dez vezes a massa solar.  Se a matéria escura fosse composta por esses buracos negros, a quantidade de matéria escura estaria aumentando às custas da diminuição da matéria bariônica. Além disso, os buracos negros só poderiam ser criados depois da formação das primeiras estrelas do universo, suas progenitoras.

A primeira estrela deve ter brilhado entre 250 e 350 milhões de anos após o Big-Bang. A matéria escura já existia nos primeiros minutos do universo? Não sabemos. Há modelos que cogitam da sua existência até antes do Big Bang!? [4]  O fato, é que a matéria escura é elusiva e, até aqui, tem-se mostrado transparente aos nossos equipamentos e experimentos.

Voltando à questão dos buracos negros, não podemos deixar de mencionar o fato de que nos centros das galáxias habitam os buracos negros supermassivos. Com milhões e, muitas vezes, bilhões de massas solares, perguntamos… Qual é a sua origem? Produto da coalescência de buracos negros estelares? Qual a escala de tempo necessária para formar esses monstros?

Talvez a resposta esteja numa hipótese formulada pelo físico Stephen Hawking em 1971. Flutuações quânticas, da enorme densidade de energia inicial que criou o nosso universo, poderiam levar à formação de pequenos buracos negros, os chamados – buracos negros primordiais (BNPs). Na sua proposta original, esses BNPs eram monocromáticos, ou, em outras palavras, tinham uma única e pequena massa. Assim, a matéria escura seria formada pelos BNPs e teria sido criada logo após o Big Bang. Dois argumentos solaparam essa ideia inicial: a incompatibilidade com os dados observacionais da radiação cósmica de fundo (no comprimento de micro-ondas) e a possível existência da radiação térmica de Hawking, que, com o tempo, evaporaria esses pequenos BNPs.

Na teoria do Big Bang, existe um intervalo de tempo que é denominado de inflação. A era da inflação começou imediatamente após a explosão e durou muito pouco tempo: de 10-36 a 10-33 segundos! Mas, teve um efeito gigantesco sobre o nosso universo, aumentando o comprimento linear do espaço por um fator de 1026 e, portanto, o seu volume por um fator de 1078!

Figura 3 – Na parte superior da figura, a evolução temporal do nosso universo na teoria do Big Bang tradicional (sem BNPs); Na parte inferior da figura, a evolução temporal do nosso universo na teoria do Big Bang com BNPs 6 (Crédito: ESA)

Segundo um modelo [5] da Cromodinâmica Quântica, quando a temperatura do universo começou a diminuir (ficando abaixo de 1010 K), o plasma original composto de quarks e glúons passou por uma série de transições de fase que, eventualmente, criaram os BNPs.

Essas transições de fase começaram cerca de dois segundos após o fim da era da inflação. Segundo esse modelo [5], essas transições foram acompanhadas de flutuações quânticas que geraram um aumento da curvatura do espaço-tempo em algumas regiões e, nelas, os BNPs. O caráter estocástico dessas flutuações, permitiria a formação de BNPs com massas de vários tamanhos.

Mais detalhadamente, as transições de fase que criaram os bósons Z, W+ e W, os bárions (prótons e nêutrons pela união ou o confinamento de três quarks), os pions (pela fusão de dois quarks) e a aniquilação de elétrons e pósitrons, estiveram acompanhadas de flutuações quânticas da curvatura do espaço-tempo que teriam dado origem a BNPs com massa planetária, massa solar; dezenas de massas solares e milhões ou bilhões de massas solares, respectivamente.

Foi nesse cenário, com os BNPs tendo uma enorme variedade de massas e sendo criados logo após a era da inflação, que três astrônomos Cappelluti, Hasinger e Natarajan [6], propuseram um modelo simples que descarta a necessidade de se recorrer a um zoológico de novas partículas.

Figura 4 – Imagem feita pelo Telescópio James Webb em 16/03/2022, mostrando no seu centro a estrela 2MASS J17554042+6551277 e um conjunto de estrelas e galáxias. O espelho primário do telescópio tem 6,5 metros de diâmetro. Ele é composto por 18 hexágonos de berílio que foram alinhados no espaço para produzir essa imagem. O telescópio opera na região do infravermelho e, em breve, trará informações fundamentais sobre o universo recém nascido (ou seja, distante), suas galáxias, estrelas, buracos negros e exoplanetas (Crédito: NASA)

Comparando, cuidadosamente, com os dados observacionais disponíveis, eles afirmaram que o modelo se ajusta a todos eles. A conclusão dos autores, é que a matéria escura é feita de buracos negros primordiais.

Uma vez que o modelo proposto descreve a evolução do nosso universo desde a sua criação até os dias de hoje, podemos comparar seus resultados aos do Big Bang tradicional.

Na Figura 3, vemos que o modelo com BNPs antecipa, em dezenas de milhões de anos, a formação de estrelas no universo. Elas teriam se formado quando o universo era mais jovem. Essa previsão, poderá, em breve, ser corroborada ou não, pelo telescópio James Webb (Figura 4). Lançado pela NASA no Natal do ano passado, ele trará informações precisas sobre a época em que se formaram as primeiras estrelas do universo.

Ainda na Figura 3, vemos uma região onde as estrelas ainda não existiam, mas, os BNPs já estariam presentes. Se isso for correto, as ondas gravitacionais resultantes das colisões desses BNPs, poderão ser detectadas pelo futuro satélite espacial LISA (Laser Interferometer Space Antenna) que está sendo projetado pela ESA (Europe Space Agency).

Ainda, seguindo na mesma linha do que descrevemos acima, acabou de sair um artigo no Physical Review Letters [7] que propõe um modelo de transição de fase de primeira ordem, que resulta  na formação de buracos negros supermassivos primordiais. Que novos resultados de observações astronômicas venham lançar luz sobre esses objetos fascinantes – os buracos negros.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo

 

 

 

 

 

 

Compartilhe o artigo

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

[1] https://ned.ipac.caltech.edu/level5/Sept17/Freese/Freese3.html

[2]https://www2.ifsc.usp.br/portal-ifsc/um-misterio-qual-e-o-tempo-de-vida-do-neutron/

[3] https://en.wikipedia.org/wiki/Dark_matter

[4] T. Tenkanen, Phys. Rev. Lett. 123, 061302 (2019)

https://doi.org/10.1103/PhysRevLett.123.061302

[5] Carr et al. https://doi.org/10.1093/mnras/staa3726

[6] Cappelluti et al. https://arxiv.org/pdf/2109.08701.pdf

aceito para publicação no The Astrophysical Journal (2022)

[7] Davoudiasl et al. Supermassive Black Holes, Ultralight Dark Matter, and Gravitational Waves from a First Order Phase Transition (aps.org)

Assessoria de Comunicação – IFSC/USP

10 de março de 2022

Sobre damas, xadrez e computadores – Por: Prof. Roberto N. Onody

 Sobre damas, xadrez e computadores (Crédito: Domínio Público)

Por: Prof. Roberto N. Onody *

No xadrez, a dama é a peça que tem maior mobilidade e alcance. Ela pode se movimentar pelas linhas, colunas e diagonais do tabuleiro.

Em 1848, o enxadrista Max Bezzel [1], especializado em montar e analisar finais de jogos de xadrez (por exemplo, xeque-mate em 2 lances) propôs o seguinte problema: num tabuleiro de xadrez vazio, de quantas maneiras diferentes se pode dispor 8 damas de modo que nenhuma delas esteja sendo atacada?

O problema foi resolvido, por análise combinatória, dois anos depois por Franz Nauck. Existem 92 configurações que solucionam o problema. Na Figura 1, apresentamos uma dessas configurações. Sem dúvida, esse problema das 8 damas é perfeitamente talhado para programas computacionais. Veja a solução em linguagem Python [2].

Quando aprendi os rudimentos do jogo de xadrez (ok, foi há muito tempo, na década de 60) os grandes enxadristas para mim eram Alexander Alekhine e Jose Raul Capablanca. Segundo o site chess.com [3], eles estão classificados em 10o e 4o lugar, respetivamente. Em primeiro lugar está o russo Garry Kasparov, seguido do norueguês Magnus Carlsen, atual campeão mundial (título conquistado no ano passado, pela 5a vez). O primeiro campeão mundial de xadrez foi o tcheco Wilhelm Steinitz em 1886.

Figura 1 – Uma solução particular do problema das 8-damas. Com rotação de 90o e reflexões horizontal e vertical, mais 3 soluções podem ser geradas (Crédito: Wikipedia)

Naturalmente, a lista dos melhores enxadristas apresentadas no site chess.com [3] se baseia, vamos dizer assim, no gosto pessoal dos seus membros ativos. A Federação Internacional de Xadrez, FIDE (Fédération Internationale des Échecs) [4] que tem sede na Suíça, é quem coordena os principais torneios internacionais. Nesses torneios, os jogadores recebem uma pontuação (que depende da sua classificação no torneio). Para ser um Mestre Internacional, o enxadrista precisa acumular 2.400 pontos e 2.500 para se tornar Grande Mestre. Esses títulos, atribuídos ao enxadrista, valem por toda a sua vida, mesmo que sua pontuação acumulada diminua com o tempo.

Hoje, há mais de mil Grandes Mestres vivos no mundo, sendo 14 deles brasileiros. O mais jovem Grande Mestre (até agora) é o norte-americano Abhimanyu Mishra , com 12 anos e 4 meses (obteve o título em junho/2021). O atual campeão brasileiro é Luís Paulo Supe e a campeã brasileira é Júlia Alboredo (ambos conquistaram seus títulos no campeonato brasileiro de 2021, em 2020 não houve campeonato devido à pandemia).

Um critério menos subjetivo para classificar os enxadristas, seria através do pico (máximo) de sua pontuação ao longo de toda a sua carreira. Neste caso, o primeiro lugar caberia a Carlsen (até aqui, 2.889 pontos) e o segundo lugar a Kasparov (2.856 pontos, ele se aposentou em 2005).

E há sempre novos e ótimos enxadristas surgindo. No dia 22/02/2022, Carlsen perdeu o torneio de Airthings Masters para o indiano Rameshbabu Praggnanandhaa, um talento precoce de apenas 16 anos. Ele é o mais jovem enxadrista a derrotar Carlsen.

Entre as mulheres, a primeira enxadrista no ranking da FIDE é a chinesa Yifan Hou, com 2.658 pontos (em fevereiro/2022).

Figura 2 – Uma solução tipo degrau de escada do problema das 10-damas (Crédito: Wikipedia)

A FIDE se tornou a primeira federação internacional esportiva a lançar seu próprio NFT (Non-Fungible Tokens). Um token não fungível utiliza a tecnologia blockchain e é negociado em criptomoedas. Ao contrário de uma determinada criptomoeda (como bitcoins, ethereuns…), que são todas iguais entre si e têm o mesmo valor (como as notas de 100 reais, por exemplo), um NFT é exclusivo e único. É muito comum em games, onde um jogador compra um NFT para ter personagens ou avatares exclusivos e únicos no mundo todo. A FIDE já disponibilizou a compra de NFTs para os melhores momentos do Campeonato Mundial de Xadrez, realizado em Dubai em 2021.

Na minha opinião, o xadrez conheceu o seu auge na década de 1970, durante a guerra fria, no embate entre o norte-americano Bobby Fisher e a poderosa escola de xadrez da Rússia.

Depois disso, o xadrez manteve ainda uma certa popularidade, graças ao início do confronto homem x computador. A primeira vez que um programa de xadrez participou de um torneio foi em 1967.  O algoritmo era o Mac-Hack VI (escrito por Richard Greenblat, analisava 10 posições por segundo) e bateu um enxadrista de ranking 1510. O programa Deep-Thought foi o primeiro a vencer um Grande Mestre (o enxadrista Bent Larsen, em 1988).

Figura 3 – Tabela exata de configurações. Na coluna ´fundamental´, temos todas as configurações, a menos de possíveis rotações e reflexões. Na coluna ´all ´, temos todas elas (Crédito: Ref. [7])

 

Mas, o grande embate homem x máquina aconteceu, quando o (então) campeão mundial de xadrez Garry Kasparov enfrentou (em seis partidas) o supercomputador Deep Blue (especialmente construído pela IBM). No primeiro confronto, em 1996, Kasparov venceu por 4 a 2 e, em 1997, perdeu por 3,5 a 2,5. Muito embora esses jogos tenham sido realizados com as regras normais de campeonatos (com relógio de tempo e tudo mais), Kasparov alegou estar em desvantagem, pois ele não teve acesso aos jogos recentes do Deep Blue, enquanto que este pôde consultar todos os seus jogos anteriores [5].

Em 2006, na Alemanha, o russo Vladimir Kramnik (que sucedeu Kasparov como campeão mundial de xadrez) recebeu 500.000 euros para enfrentar o programa de computador Deep Fritz. Ele receberia outros 500.00 euros, caso vencesse. O resultado de 4 a 2 para a máquina, selou (praticamente encerrou) a competição homem x computador. Nós não evoluímos tão rapidamente quanto os hardwares e softwares dos computadores… game is over [5].

É hora de voltarmos ao problema das damas. O mesmo Nauck que resolveu o problema das 8-damas em 1850, propôs a extensão desse problema para o caso de n damas num tabuleiro n x n [6]. As perguntas que precisavam ser respondidas eram as seguintes:

1) O problema das n-damas tem solução para qualquer n?

2) Quantas soluções existem?

Muitos e grandes matemáticos se debruçaram sobre o problema, incluindo C. F. Gauss.

A resposta para a primeira pergunta é mais fácil. Para todo n maior ou igual a 4 sempre haverá uma solução do tipo degrau de escada (veja Figura 2).

A resposta para a segunda pergunta só é conhecida (até hoje) para n menor ou igual a 27. Em 2016, um tour de force de computação paralela [7] conseguiu enumerar, exatamente, todas as possíveis configurações até n = 27 (veja Figura 3).  O recorde anterior, com n = 26, havia sido obtido em 2010. Para n = 27, o número de configurações possíveis ultrapassa a marca incrível dos duzentos quatrilhões!

Um resultado fantástico. Mas, e se n for igual a mil ou um milhão? A resposta foi dada por um pós-doutorando no Center of Mathematical Sciences and Applications da Universidade de Harvard, Michael Simkin [8]. Ele trabalhou por mais de 5 anos no problema das n-damas e obteve uma fórmula assintótica para o número de configurações

(0,143 n) n

Se n for igual a um milhão, o resultado será um número com mais de cinco milhões de zeros!

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

 

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo

 

 

 

 

 

 

Compartilhe

 

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

[1] W. W. Rouse Ball (1960) “The Eight Queens Problem”, in Mathematical Recreations and Essays, Macmillan, New York, pp. 165–171.

[2] The eight queens puzzle in Python | Solarian Programmer

[3] The 10 Best Chess Players Of All Time – Chess.com

[4] International Chess Federation (fide.com)

[5] Human–computer chess matches – Wikipedia

[6] Eight queens puzzle – Wikipedia

[7]GitHub – preusser/q27: 27-Queens Puzzle: Massively Parellel Enumeration and Solution Counting

[8] [2107.13460] The number of $n$-queens configurations (arxiv.org)

Assessoria de Comunicação – IFSC/USP

20 de dezembro de 2021

Um mistério – qual é o tempo de vida do nêutron?

Figura 1: James Chadwick (1891-1974), físico britânico que descobriu o nêutron em 1932. Recebeu o prêmio Nobel de física em 1935 (Crédito: Wikipedia)

Por: Prof. Roberto N. Onody *

“Rutherford, isso é uma transmutação!”, gritou Frederick Soddy para Ernest Rutherford. Rutherford respondeu que era melhor não chamar o fenômeno de transmutação espontânea, pois eles poderiam ser tachados de serem alquimistas. O ano era 1901. Eles haviam descoberto o decaimento ou a transformação do tório em rádio (ambos são elementos químicos radioativos).

No final do século XIX e início do século XX, físicos tentavam compreender a natureza dos materiais radioativos. As radiações emitidas pelos núcleos radioativos foram chamadas de alfa, beta e gama. Hoje sabemos que: a radiação alfa corresponde à emissão, pelo núcleo atômico, de dois prótons e dois nêutrons; a radiação beta, à transformação de um nêutron em um próton (o qual permanece no núcleo atômico) com a liberação de um elétron e um antineutrino; a radiação gama, à emissão de uma onda eletromagnética de alta frequência, os raios-gama.

Foi bombardeando o berílio com partículas alfa que, em 1932, J. Chadwick (Figura 1) descobriu a existência de uma partícula eletricamente neutra e com massa um pouco maior do que a do próton – o nêutron. No seu núcleo, o berílio tem quatro prótons e cinco nêutrons. Ao ser bombardeado por partículas alfa, o berílio se transforma no carbono e libera um nêutron. É uma transmutação artificial.

9 Be  +  4 He(α)              12 C  +  1 n

Os nêutrons têm carga elétrica (total) nula. Eles podem ser produzidos de muitas maneiras: em reatores nucleares; na atmosfera, pela incidência de raios gama e, nos laboratórios, em aceleradores que fazem íons de deutério (um próton e um nêutron) colidirem com íons de trítio (um próton e dois nêutrons).

Os núcleos atômicos são compostos por nucleons (prótons e nêutrons). Os prótons têm carga positiva e se repelem eletricamente. Para manter coesos os núcleos atômicos (com mais de um próton), são necessários os nêutrons. Os nucleons interagem entre si através da força nuclear (atrativa), que age para manter a estabilidade do núcleo.

Os nêutrons no interior do núcleo, através do decaimento beta, podem se transformar em prótons (emitindo, adicionalmente, um elétron e um antineutrino) e prótons podem se transformar em nêutrons (emitindo um pósitron e um neutrino ou ainda, capturando um elétron e emitindo um neutrino).

Portanto, os nêutrons e prótons enquanto eles estão ligados entre si no núcleo, têm uma probabilidade de se transformarem um no outro. Essa probabilidade depende do balanço energético do núcleo (que deve ser calculado via mecânica quântica).

Já para nêutron e prótons livres, os resultados são bem diferentes. Os nêutrons livres são sempre instáveis, isto é, decaem com o tempo. Por outro lado, os prótons livres são estáveis. Isso porque, como a massa do próton é menor do que a do nêutron, não há como ele decair e conservar a energia ao mesmo tempo.

Através do decaimento beta, um nêutron livre se transforma em um próton, um elétron e um antineutrino

n0            p+  +  e  +  ν

Esse decaimento ocorre pelo fato de que os nucleons interagirem entre si através da força fraca. Ela é uma das 4 forças fundamentais da natureza. As outras 3 são as forças forte, eletromagnética e gravitacional. Para entendermos melhor o decaimento beta, precisamos discutir, brevemente, o Modelo Padrão das partículas elementares.

Figura 2: Em verde o quark positivo up, em vermelho o quark negativo down. Todos os quarks têm spin ½. Logo, um número ímpar de quarks forma férmions (como o próton e o nêutron) e um número par de quarks forma bósons (como os mésons π com cargas: 0, +e, -e) (Crédito: R. N. Onody)

O Modelo Padrão foi proposto na década de 1960 e deu um arcabouço teórico quântico para a unificação das três forças: fraca, eletromagnética e forte. A quarta força da natureza, a gravitacional, não está incluída. A interação gravitacional é atualmente mais bem descrita pela Teoria da Relatividade Geral, proposta por Albert Einstein em 1915. É um formalismo teórico com uma criatividade disruptiva, o apogeu da genialidade de Einstein. Embora fartamente corroborada pelos resultados experimentais, a Teoria da Relatividade Geral, porém, é clássica. Ninguém conseguiu (até hoje) quantizá-la.

O Modelo Padrão é uma teoria quântica de campos baseada em doze partículas elementares fermiônicas (os férmions obedecem à estatística de Fermi-Dirac e têm spin semi-inteiro): seis quarks, todos com cargas elétricas fracionárias (1/3 e 2/3) do próton e do elétron e seis léptons, dos quais três têm cargas elétricas iguais à do elétron e três não têm nenhuma carga. No Modelo Padrão existem também partículas bosônicas (os bósons obedecem à estatística de Bose-Einstein e têm spin inteiro) que são os mediadores e os responsáveis pelas forças que atuam entre os férmions.

Em ordem crescente de suas massas, os quarks são chamados: up, down, charm, strange, bottom e top. O próton e o nêutron são formados por três quarks: dois up e um down (próton) e dois down e um up (nêutron). (Figura 2).

Na temperatura média do universo atual, os quarks estão confinados (presos) no interior dos nucleons. Teoricamente, o desconfinamento deve ocorrer na temperatura de Hagedorn, cerca de 1,7 1012 Kelvin. Experimentos de colisão entre íons pesados realizados no LHC (Large Hadron Collider), parecem indicar o desconfinamento. Acredita-se que, nos primeiros 10 microssegundos do universo após o Big Bang, os quarks eram livres. Para a teoria quântica de campos, a maior temperatura possível é a temperatura de Planck, que vale 1,4 1032 Kelvin!

Agora que entendemos melhor o que são dois componentes do decaimento beta, o próton e o nêutron, vamos analisar os outros dois – o elétron e o antineutrino. No Modelo Padrão, além dos 6 quarks, existem também seis léptons. Três deles têm o mesmo valor da carga negativa do elétron. São eles (em ordem crescente de suas massas): elétron, múon e tau. Os outros três têm carga nula: o neutrino do elétron, o neutrino do múon e o neutrino do tau. Todos os 6 léptons e 6 quarks têm suas respectivas antipartículas e têm spin ½, ou seja, são férmions.

Figura 3: O principal detetor de nêutrons ultrafrios em Los Alamos, EUA (Crédito: Los Alamos National Laboratory)

Na teoria quântica de campos, todos os férmions interagem entre si via bósons (mediadores da interação). Para as forças fracas (responsáveis pelo decaimento beta), os mediadores são os bósons carregados W + e W  e o bóson neutro Z 0.  Para a força eletromagnética, o mediador é o fóton. No caso da força nuclear (entre nucleons) os mediadores são os mésons e, para a força forte entre os quarks, os mediadores são os glúons.

À luz do que aprendemos do Modelo Padrão, o decaimento beta agora pode ser visto de maneira mais profunda e em duas etapas.

Primeiro, um (dos dois) quark down do nêutron decai em um quark up (transformando assim, o nêutron no próton) e emite um bóson W . Este bóson vive somente cerca de 10 – 25 segundos!

d                 u  +  W   

Em seguida, o bóson W  decai em um elétron e um antineutrino do elétron

W                e   +    ν

Agora é hora de explicarmos o dilema: qual é o tempo de vida do nêutron?

Para se determinar, experimentalmente, o tempo médio de vida do nêutron (que chamaremos de τ) são utilizados dois métodos distintos denominados “beam” e “bottle”. O surpreendente aqui, é que os valores obtidos para τ são diferentes!

Essa discrepância foi inicialmente, atribuída à falta de precisão dos experimentos (pois as barras de erros se sobrepunham). Mas, a partir de 2005, a precisão experimental aumentou tanto, que a explicação dada anteriormente já não era mais aceitável. À comunidade cientifica sobrou o quebra-cabeças: o que acontece com o nêutron ou com experimento? Qual a explicação? Ninguém sabe.

O mais preciso experimento tipo “beam” 1, foi realizado no NIST (National Institute of Standards and Technology), EUA. Um feixe colimado de nêutrons colide com uma camada fina de fluoreto de lítio (LiF). Essa colisão ocorre numa região que é uma armadilha para o confinamento de prótons. A colisão libera nêutrons livres, partículas alfa e trítio. Detetores contam o número de trítios e de partículas alfa, o que, por sua vez, permite calcular o número inicial de nêutrons livres. Depois de um certo intervalo de tempo, mede-se o número de prótons livres (que não decaem) e que, por hipótese, é igual, ao número de nêutrons decaídos nesse tempo. Como o decaimento é exponencial no tempo, o tempo de vida do nêutron pode ser calculado τ N(Δt) = – N(0) Δt onde N(t) é o número de nêutrons no instante t e Δt o intervalo de tempo.

O valor encontrado para o tempo médio de vida do nêutron foi τ1    =   887,7    (± 2,0) segundos , ou seja, cerca de 14,8 minutos.

O outro método, o “bottle” (também conhecido como UCN, Ultracold Neutrons) aprisiona (por longos períodos) nêutrons ultrafrios através de fortes campos magnéticos não homogêneos e o campo gravitacional terrestre. Como no caso do método “beam”, os nêutrons presos nessa armadilha decaem com o tempo. A grande diferença é que aqui são contados os nêutrons sobreviventes e não o número de prótons gerados (leia discussão mais adiante).

Recentemente 2, no laboratório do Los Alamos Neutron Science Center, essa técnica foi utilizada com nêutrons ultrafrios, isto é, com energia menor do que 180 neV (1 neV = um nano eletronvolt, que corresponde a uma temperatura de cerca de 0,002 Kelvin). A contagem dos nêutrons sobreviventes (Figura 3) foi feita em tempos variando de 20 segundos a 1.800 segundos.

Repetindo o experimento em vários ensaios, os pesquisadores obtiveram um outro valor para o tempo médio de vida do nêutron τ2    =   877,75    (± 0,50) segundos , uma diferença de 10 segundos!

Discussão

Qual experimento está errado? Ou os dois estão certos?

Se um dos experimentos está incorreto, então o erro tem que ser sistemático e deve ser sutil, muito sutil, pois tem ludibriado os físicos há mais de 15 anos.

Se os dois estiverem corretos, as consequências serão bem mais radicais, apontando a existência de uma teoria de partículas elementares além do Modelo Padrão. Isso porque, como τ1 (do experimento “beam”, que mede prótons decaídos) é maior do que τ2 (do experimento “bottle”, que mede nêutrons sobreviventes), tudo se passa como se o nêutron livre pudesse decair em outra partícula (até aqui, indetectável) além do próton. Ou seja, τ1 é maior porque mede o tempo de decaimento do nêutron no próton e em outra (ou, talvez, outras) partícula desconhecida. Se essa explicação estiver correta, abrir-se-ão as portas para se entender a matéria escura.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

Para acessar todo o conteúdo do site “Notícias de Ciência e Tecnologia” dirija a câmera do celular para o QR Code abaixo

 

 

 

 

 

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1 A. T. Yue et al., Phys. Rev. Lett. 111, 222501 (2013)

https://doi.org/10.1103/PhysRevLett.111.222501

2 F.M. Gonzalez et al., Phys. Rev. Lett. 127, 162501 (2021)

https://doi.org/10.1103/PhysRevLett.127.162501

Assessoria de Comunicação – IFSC/USP

Fale conosco
Instituto de Física de São Carlos - IFSC Universidade de São Paulo - USP
Obrigado pela mensagem! Assim que possível entraremos em contato..