Notícias Ciência Tecnologia

Para a seção Notícias de Ciência e Tecnologia (sob coordenadoria do Prof. Onody)

2 de dezembro de 2021

Ora, direis, ouvir estrelas! (Parte-2)

 Figura 8 – Buraco negro supermassivo localizado no centro da galáxia Messier 87, feita pelo telescópio Event Horizon em 2019. Observação feita no comprimento de micro-ondas de 1,3 mm. A massa do buraco negro foi estimada em 6,5 bilhões de vezes maior do que a massa do Sol. Fonte: ref. 12

Por: Prof. Roberto N. Onody *

Para estrelas nascidas com massas maiores do que 25 vezes a massa do Sol, também haverá uma explosão de supernova, só que, desta vez, mais catastrófica ainda – dando origem a um buraco negro!

A estrela mais massiva encontrada (até agora) tem cerca de 265 vezes a massa solar, é a R136a1 e está numa galáxia satélite da Via – Láctea, a Grande Nuvem de Magalhães (há cerca de 163.000 anos-luz da Terra). A estrela com maior dimensão, é a hiper gigante UY-Scuti, cujo raio é 1.700 vezes maior que o do Sol (está localizada na Via-Láctea, há cerca de 9.500 anos-luz da Terra).

Em 1915, Albert Einstein propôs a sua disruptiva e revolucionária, Teoria da Relatividade Geral. Nela, se estabelece a relação existente entre a matéria e a curvatura do espaço-tempo. Em 1916, Karl Schwarzschild encontrou uma solução da equação de Einstein que previa a existência de um buraco negro, isto é, o surgimento, após a explosão da supernova, de uma singularidade, de uma fronteira chamada horizonte de eventos. Definida pelo raio de Schwarzschild (que é linearmente proporcional à massa do buraco negro), de onde nada, nem mesmo a luz, consegue escapar do seu interior!

A equação da Relatividade Geral tem, no seu primeiro membro, tudo que está relacionado à geometria do espaço-tempo e, no segundo membro, tudo relacionado à massa e energia. O físico J. Wheeler uma vez disse: “O espaço-tempo diz à matéria como se movimentar; a matéria diz ao espaço-tempo como se curvar”! 

Para solucionar a equação de Einstein é necessário pressupor uma geometria e uma estrutura causal do espaço-tempo (uma métrica) e uma densidade e fluxo de energia e momento distribuída pelo espaço-tempo (o tensor de momento-energia). Por esse motivo, as soluções obtidas dependem de como o cientista acredita que seja o universo. A solução mais geral da Relatividade Geral de um buraco negro estacionário com rotação e carga elétrica utiliza a métrica de Kerr-Newman.

Figura 6 – Na parte superior da figura, a dança da rotação dos 2 buracos negros caminhando para a colisão e a formação de um único buraco negro (veja vídeo3). Observe a escala do tempo – de 0,25 segundos até 0,45 segundos. Na parte intermediária, a frequência da onda gravitacional aumenta de 35 a 250 Hertz (ciclos por segundo) e a variação relativa do comprimento nos braços do interferômetro (10 -21). Na parte inferior, temos (em verde) a velocidade do buraco variando de 32% a 58% (no colapso) da velocidade da luz; em violeta, a distância (medida em unidades do raio de Schwarzschild RS) entre os 2 buracos negros como função do tempo. Para esses buracos negros de, aproximadamente, 30 massas solares, RS ~ 89 km. O evento foi catalogado como GW150914. (Fonte: ref. 2)

Para obter um universo estático, Einstein acrescentou, em 1917, a constante cosmológica na equação da Relatividade Geral. Depois de Hubble ter observado que o nosso universo estava em expansão, Einstein retirou a constante cosmológica (em 1931). Nos dias de hoje, a constante foi reintegrada, seja para tentar explicar a energia escura ou incorporar a energia de flutuação do vácuo, como prevista pela mecânica quântica.

Dentro dessa linha, está em discussão a possibilidade de evaporação do buraco negro por radiação Hawking. Como afirmou Paul Crowther numa entrevista: “Ao contrário dos seres humanos, um buraco negro nasce pesado e perde peso à medida que envelhece”!  (atenção – esta afirmação só vale para um buraco negro isolado). Porém, o ritmo previsto de perda de massa do buraco negro por radiação Hawking é muito pequeno e lento. Como quanto maior a temperatura maior é a radiação térmica e como a temperatura da radiação Hawking é inversamente proporcional à massa, a busca experimental pela radiação Hawking tem sido feita junto com a busca por micro buracos negros.

Do ponto de vista de radiação eletromagnética, um buraco negro pode ser considerado um corpo negro perfeito, pois absorve toda e qualquer luz incidente. Mas, é mais que isso, pois engole matéria e estrelas e engorda. O gás, pouco antes de cruzar o horizonte de eventos, está superaquecido e emite raios-x. É observando essa emissão que sabemos da presença do buraco negro.

As ondas gravitacionais são ondulações que deformam o espaço-tempo e são causadas pela aceleração de corpos celestes extremamente massivos como buracos negros e estrelas de nêutrons. Muito embora previstas (teoricamente) na Teoria da Relatividade Geral, a sua confirmação experimental só veio depois da construção de gigantescos e precisos laboratórios de interferometria. Aqui, eu me refiro ao LIGO (Laser Interferometer Gravitational-wave Observatory). São 2 observatórios sincronizados e separados por uma distância de 3.000 quilômetros (um em Livingston e outro em Hanford). Os interferômetros têm forma de um L com 4 km de comprimento cada braço. O sistema é capaz de medir uma variação, no comprimento desses braços (de laser), de uma parte em 1021. Isso é o equivalente, a ser capaz de medir comprimentos com uma precisão do diâmetro de um próton!

Em 2015 2, eles conseguiram um feito extraordinário – detectar ondas gravitacionais geradas pela colisão (seguida pela fusão) de 2 buracos negros com cerca de 30 massas solares. Essa colisão cataclísmica ocorreu a uma distância de 1,2 bilhões de anos-luz da Terra!

Quando dois buracos negros formam um sistema binário, eles giram em torno do centro de massa e se aproximam (gravitacionalmente) cada vez mais um do outro, de maneira irreversível. Os buracos estão acelerados e devem, portanto, gerar ondas gravitacionais. Quanto maior a frequência de rotação, maior será a frequência e a intensidade da onda gravitacional gerada, até a fusão final, quando então, se forma um único buraco negro (veja vídeo3).

Os resultados obtidos na ref.2 (que tem mais de 1000 coautores!) está mostrado na Figura 6. Em apenas dois décimos de segundo, a frequência medida da onda gravitacional variou de 35 a 250 Hz! Estas frequências se encontram na banda audível do ouvido humano. Claro, ondas gravitacionais, que se propagam à velocidade da luz (veja mais adiante) não são ondas sonoras. Mas, da mesma forma que ouvimos sons no nosso rádio pela conversão de onda eletromagnética (que também viaja à velocidade da luz), podemos ouvir 4 os sons das ondas gravitacionais produzidas pela colisão das que já foram, outrora, estrelas. Ora, direis, ouvir estrelas!

A comprovação e a medição das ondas gravitacionais deram a seus três principais idealizadores o Prêmio Nobel de Física de 2017. Hoje, a busca pela detecção de ondas gravitacionais, adquiriu um formato internacional com a participação dos interferômetros LIGO 5 (E.U.A.), Virgo6 (Itália) e KAGRA7 (Japão). É um esforço gigantesco de colaboração cientifica envolvendo vários milhares de cientistas do mundo todo.

Também foram detectadas ondas gravitacionais produzidas pela coalescência de um sistema binário buraco negro – estrela de nêutron, mas  (até agora) nenhum evento dessa natureza foi localizado na Via-Láctea. O resultado é um buraco negro maior 8. Nenhuma onda eletromagnética foi detectada no processo, nem tampouco, as esperadas ondas de maré que deformariam a estrela de nêutron antes da coalescência. Por algum motivo, ainda desconhecido, as colisões de pares de buracos negros e de pares de estrelas de nêutron, são muito mais comuns que a colisão de um buraco negro com uma estrela de nêutron. Com poucos eventos, os astrônomos estão torcendo para encontrar uma colisão de um buraco negro com uma estrela de nêutron com forte rotação, ou seja, um par buraco negro-pulsar.

Vejamos agora o que acontece na colisão de um par de estrelas de nêutrons. Em 2017 9, cientistas dos observatórios de LIGO e Virgo, observaram, pela primeira vez, ondas gravitacionais produzidas pela colisão de duas estrelas de nêutrons.  As estrelas de nêutrons tinham massas 0,86 e 2,26 vezes a massa solar e estavam há cerca de 130 milhões de anos-luz da Terra (na galáxia NGC4993).

Mas, menos de dois segundos depois da onda gravitacional ser detectada, o telescópio espacial Fermi observou, vindo do mesmo local no céu, um breve e brilhante flash de raios-gama – era a quilonova!

Figura 7 – Imagem de uma quilonova, feita em 2017, um dia depois da explosão, pelo telescópio espacial Swift no comprimento ultravioleta. (Fonte: NASA)

Menos brilhante que a supernova, mas milhares de vezes mais brilhante que uma nova, a quilonova é explosão resultante da colisão de duas estrelas de nêutrons. Acredita-se, que cerca de um terço de toda a comunidade mundial de astrônomos assestaram seus telescópios para o local, analisando esse evento em todos os comprimentos de ondas eletromagnéticas (Figura 7). Pela primeira vez, era possível estudar a espetacular colisão de estrelas de nêutrons, através de ondas gravitacionais e ondas eletromagnéticas! Nascia a astrofísica com múltiplos mensageiros.

Estima-se que ocorra uma quilonova a cada cem mil anos por galáxia. Evento raro, mas, essencial. Quando se analisa os elementos químicos produzidos em explosões de supernovas, percebe-se que a tabela periódica fica incompleta. As quilonovas são as fábricas que forjam os preciosos metais ouro, prata e platina. Pela análise espectral, feita após a explosão (nos fragmentos da explosão, veja vídeo10), foi descoberto que ela havia gerado centenas de planetas Terra inteiros feitos de sólido e puro ouro, prata etc.  Embora uma quilonova seja muito mais rara que uma supernova, ela é muito mais eficiente na fabricação desses elementos.

Por último, mas não menos importante, como a diferença entre o sinal da onda gravitacional e os raios-gama foi de apenas 1,7 segundo, (depois de ambos terem percorrido a distância de 130 milhões de anos-luz), o evento foi a comprovação experimental de que as ondas gravitacionais viajam, de fato, à velocidade da luz.

Há muitos anos sabe-se da existência de buracos negros supermassivos. Enquanto um buraco negro, de origem estelar, tem massa de cerca de 3 a 300 vezes a massa do Sol, um buraco negro supermassivo tem massa correspondente a milhões ou bilhões de vezes a massa solar. Esses buracos negros supermassivos estão localizados no centro das galáxias. O buraco negro supermassivo da nossa Via-Láctea tem massa estimada em 4 milhões de massas solares. O maior encontrado, até agora, é um monstro com massa equivalente a 66 bilhões de massas solares, denominado TON618.

O TON618 é um quasar. Descobertos na década de 1960, a palavra quasar significa “quasi-stellar radio source”, mas, de estrela mesmo um quasar não tem nada. Quasares são galáxias muito jovens que têm no seu centro buracos negros supermassivos e extremamente ativos. Já foram detectados milhões de quasares. O mais próximo (até agora) é o Markarian 231, que está a uma distância de 581 milhões de anos-luz da Terra. O mais distante (até agora) é o PSO J172 que está há pouco mais de 13 bilhões de anos-luz da Terra – vemos hoje, como ele era quando o universo era uma criança com 700 milhões de anos de idade.

Os buracos negros supermassivos nos quasares se alimentam vorazmente de tudo que os rodeia: poeira, gás e estrelas. Apenas uma minoria11 dos quasares emitem jatos poderosos (em direções opostas) de ondas de rádio, gás e de intenso raios-x ao longo do seu eixo de rotação. Alguns jatos chegam a medir milhões de anos-luz de comprimento!

Os astrônomos cedo descobriram uma lacuna ou quase ausência de buracos negros intermediários (com massa entre os de origem estelar e os supermassivos). Uma explicação possível está relacionada à própria formação de buracos negros supermassivos nos centros das galáxias. Quando uma galáxia é jovem e está em formação, a quantidade de gases, estrelas, supernovas é tamanha que buracos negros se alimentam e crescem aproveitando todo o material à sua volta (incluindo aí, o canibalismo). Essa é uma hipótese da formação e origem dos buracos negros supermassivos. Se o processo for suficientemente rápido, seria pouco provável observar buracos negros intermediários.

Não poderia deixar de mencionar aqui, a primeira imagem direta de um buraco negro supermassivo, feita em 2019, pela equipe12 internacional que operava o telescópio Event Horizon (Figura 8). Esse buraco se encontra no centro da galáxia Messier 87. Ela é uma galáxia elíptica supergigante, tem trilhões de estrelas, fica na direção da constelação de Virgem, a uma distância de aproximadamente, 53 milhões da anos-luz da Terra. O impacto dessa façanha foi enorme, com incrível repercussão mundial.

E, finalmente, algumas palavras sobre a hipótese dos buracos negros primordiais. Eles teriam se formado no primeiro segundo do universo, logo após o Big-Bang. Portanto, muito antes da existência de qualquer estrela e consequentemente, não teriam origem no colapso gravitacional estelar. Sua formação é atribuída a efeitos quânticos de flutuação da densidade do universo. De composição não bariônica, os buracos negros primordiais têm atraído físicos teóricos pela possibilidade de serem a tão procurada matéria escura. Até o momento, não houve nenhuma comprovação experimental da sua existência.

A Astronomia é uma ciência com forte apelo popular, uma paixão de todo ser humano. O interesse por ela está presente desde as civilizações mais antigas. Nesta última década, testemunhamos avanços inacreditáveis nas observações astronômicas. Seus resultados, instigam nossa imaginação tentando entender onde estamos – o que é o nosso universo?

Ora (direis) ouvir estrelas! Certo
Perdeste o senso!” E eu vos direi, no entanto,
Que, para ouvi-las, muita vez desperto
E abro as janelas, pálido de espanto…

E conversamos toda a noite, enquanto
A Via-Láctea, como um pálio aberto,
Cintila. E, ao vir do sol, saudoso e em pranto,
Inda as procuro pelo céu deserto.

Direis agora: “Tresloucado amigo!
Que conversas com elas? Que sentido
Tem o que dizem, quando estão contigo?”

E eu vos direi: “Amai para entendê-las!
Pois só quem ama pode ter ouvido
Capaz de ouvir e de entender estrelas.

Olavo Bilac, soneto que se encontra no livro “Poesias”, publicado em 1888.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

2 B. P. Abbot et al. Phys. Rev. Lett. 116, 061102 (2016)

https://doi.org/10.1103/PhysRevLett.116.061102

3 https://youtu.be/1DmCkeK_YU4

4 https://youtu.be/QyDcTbR-kEA

5 https://www.ligo.org/

6 https://www.virgo-gw.eu/

7 https://gwcenter.icrr.u-tokyo.ac.jp/en/

8 R. Abbott et alApJL 915 L5 2021

https://iopscience.iop.org/article/10.3847/2041-8213/ac082e\

9 B. P. Abbott et al. Phys. Rev. Lett. 119, 161101 – 2017

https://doi.org/10.1103/PhysRevLett.119.161101

10 https://youtu.be/-iaviqwMfJ0

11 https://chandra.harvard.edu/blog/node/772 (2020)

12 K. Akyiama et al. The Event Horizon Telescope Collaboration et al 2019 ApJL 875 L1

https://doi.org/10.3847/2041-8213/ab0ec7

Assessoria de Comunicação – IFSC/USP

14 de novembro de 2021

“Ora, direis, ouvir estrelas!” (parte-1)

Figura 1 – A anã vermelha Proxima Centauri, a estrela mais próxima do nosso Sol, atualmente (cerca de 4,2 anos-luz). Fonte: Telescópio Hubble (NASA)

Por: Prof. Roberto N. Onody *

Após a sua formação, no interior de uma nebulosa, o destino de uma estrela dependerá essencialmente de sua massa. Quanto menor for o valor da sua massa, tanto maior será sua expectativa de vida. Outro fator que regulará o destino dessa estrela, é o seu entorno estelar. A dinâmica dos astros em nosso universo (desde o Big Bang) é controlada pelas interações (gravitacionais e de matéria e energia escura) com explosões e muitas, muitas colisões.

Se a estrela tiver massa entre 1,3 % e 8 % da massa do nosso Sol, a estrela (ou subestrela, pois faz fusão de deutério e não de hidrogênio) é uma anã marrom (para mais detalhes, veja ref. 1).

No intervalo de 8 % a 60 % da massa do Sol, a estrela é uma anã vermelha (que já faz fusão de hidrogênio). A estrela mais próxima do Sol, a Proxima Centauri, é uma anã vermelha (Figura 1). Durante os últimos 32.000 anos, ela foi a estrela mais próxima do Sol, e continuará a sê-lo por mais 25.000 anos!

A maior parte das estrelas que compõem o universo são anãs vermelhas. Estima-se que, na nossa Via-Láctea, dois terços das estrelas sejam anãs vermelhas! Muitas anãs vermelhas são orbitadas por exoplanetas. Para uma anã vermelha, modelos teóricos preveem que, a zona habitável estaria numa órbita muito próxima da estrela. E isso é um problema, pois a atuação do efeito maré faria com que sempre a mesma face do exoplaneta estivesse voltada para estrela. Num hemisfério teríamos sempre alta temperatura e no outro baixa temperatura. Na superfície, de uma anã vermelha, as temperaturas variam entre 2.000 e 3.500 oC (no Sol, a temperatura da fotosfera é cerca de 6.000 oC).

Figura 2 – A nebulosa planetária do Esquimó (NGC2392), ganhou esse nome em 1787 quando foi visualizada por W. Herschel, pois lembra um capuz de pele de um esquimó. O material (hidrogênio, hélio, nitrogênio e oxigênio) é ejetado em alta velocidade, em todas as direções, formando uma espécie de bolha. Outrora, esse material formava as camadas externas de uma estrela gigante vermelha. A nebulosa Esquimó está há cerca de 2.870 anos-luz do Sol. Fonte: Telescópio Hubble (NASA)

Na faixa entre 6 e 10 vezes a massa solar, teremos as estrelas parecidas com o nosso Sol. No seu núcleo, elas transformam hidrogênio em hélio. A temperatura necessária para essa fusão é de 15 milhões de graus Celsius (na superfície da estrela, porém, ela é bem menor). Quando o hidrogênio se esgota no núcleo, este se contrai pela força da gravidade, a temperatura sobe e as camadas externas da estrela se expandem. A estrela se torna, então, uma gigante vermelha. É o que acontecerá com o nosso Sol, daqui há alguns bilhões de anos. Estima-se que a expansão do Sol irá engolfar os planetas Mercúrio, Vênus, Terra e, quem sabe, Marte.

Na temperatura de 170 milhões de graus Celsius, a estrela passa a fundir núcleos de hélio para formar o carbono. O processo continua, com o núcleo estelar produzindo elementos químicos cada vez mais pesados. A partir do ferro, a fusão nuclear ao invés de produzir energia, consome energia. Quando a fusão nuclear cessa, o núcleo então, colapsa gravitacionalmente, pois era a fusão nuclear que se contrapunha à contração gravitacional, gerando energia, aumentando a temperatura e a pressão. O colapso, porém, não é total, e será contido pela ‘força’ de Fermi (veja próximo parágrafo). Como as camadas internas se contraem, por conservação de momento, as camadas externas da estrela se expandem, são ejetadas e se descolam, formando a chamada nebulosa planetária (Figura 2). A má escolha desse nome se deve ao fato que, para telescópios mais antigos, elas se pareciam muito com o planeta Urano. O núcleo, muito denso e quente, é agora uma estrela chamada anã branca (Figura 3).

Mas, por que a anã branca se formou? O que conteve a contração gravitacional? A resposta é que, devido à enorme densidade do núcleo estelar, surge uma força de repulsão que é de natureza quântica, uma manifestação do princípio de exclusão de Pauli (válido para todos os férmions como prótons, nêutrons e elétrons). Ele afirma que dois férmions não podem ter o mesmo conjunto de números quânticos. Em outras palavras, a contração gravitacional preenche os níveis mais baixos de energia e, novos férmions, são obrigados a ocupar energias mais altas, como se houvera uma ‘força’ de repulsão. Ela resiste à atração gravitacional provocada por massas menores ou iguais a 1,4 vezes a massa do Sol. É o chamado limite de Chandrasekhar. Não podem existir anãs brancas com massa maior do que a desse limite.

Em geral, a composição química das anãs brancas envolve carbono e oxigênio, mas, dependendo da massa inicial, também pode conter neônio e magnésio. Em geral, uma anã branca tem um diâmetro um pouco maior que o da Terra e uma densidade da ordem de 1×109 kg/m3 (duzentas mil vezes maior que a densidade da Terra). Como não há mais fusão (de nenhuma espécie) no interior da anã branca, ela deverá se esfriar, se cristalizar e, em algumas dezenas de bilhões de anos, tornar-se uma anã preta. Como a idade estimada do universo é de 13,8 bilhões de anos, não deve haver nenhuma anã preta aí fora.

Figura 3 – O sistema binário Sirius é composto pela estrela Sirius A (a mais brilhante estrela no céu noturno) e a anã branca Sirius B (o pontinho indicado pela seta). Está há cerca de 8,2 anos-luz do Sol. Fonte: Telescópio Hubble (NASA)

Se uma anã branca pertence a um sistema binário (em geral, com outra estrela tipo Sol ou gigante vermelha) e a rotação entre as estrelas diminui para um período de cerca de 1 dia, a anã branca ficará tão próxima que roubará material da sua parceira, acretando hidrogênio na sua superfície.  À medida que essa camada superficial de hidrogênio fica mais espessa, sua temperatura sobe até atingir um valor crítico (da ordem de 15 milhões de graus Celsius), a fusão nuclear tem início de forma explosiva – é uma nova. Muitas dessas explosões de novas podem ser vistas a olho nu e podem brilhar por várias semanas ou meses. Ao juntar mais material na superfície da anã branca, o fenômeno pode se repetir. Aproximadamente, ocorrem 50 novas por ano em galáxias como a nossa Via Láctea. As novas têm brilho dez milhões de vezes menor do que o de uma supernova (veja mais adiante).

Se a massa inicial da estrela estiver entre 10 e 25 vezes a massa solar, ela evoluirá para uma estrela de nêutron. Até o colapso do núcleo, o desenvolvimento de uma estrela de nêutron é muito semelhante ao de uma anã branca. No processo de expansão, a estrela se transforma numa supergigante vermelha. Como o tamanho e a massa do núcleo são maiores, quando cessa a fusão, prótons e elétrons se aniquilam formando nêutrons, liberando neutrinos e muita radiação eletromagnética de alta frequência – os raios-gama. O colapso do núcleo ocorre em menos de um segundo! Uma cataclísmica onda de choque se forma nas camadas exteriores, liberando ao espaço elementos químicos pesados. Futuros planetas, que se formem nas redondezas, muito se beneficiarão desse material!

Essa explosão catastrófica é chamada de supernova. É tão poderosa, que a luminosidade gerada por ela pode superar a de uma galáxia inteira! Muitas supernovas podem e já foram vistas a olho nu. Essa extraordinária luminosidade pode durar semanas, meses ou anos. Os astrônomos investigam as supernovas em vários comprimentos de onda eletromagnética – rádio, infravermelho, visível, ultravioleta, raios-x e raios-gama (Figura 4). O colapso gravitacional total agora é contido por nêutrons degenerados (repulsão nêutron-nêutron). Aqui, novamente, entra em ação a ‘força’ de Pauli. Estimativas calculam que a maior massa possível de uma estrela de nêutron deve estar entre 1,5 e 3,0 vezes a massa solar.

Figura 4 – O material ejetado na supernova (chamados de remanescentes da explosão) fertilizará a composição química de futuros planetas. Na imagem, a nebulosa do Caranguejo após a explosão da supernova SN 1054 (ano que ela explodiu). Está a 6.500 anos-luz de distância, na direção do centro da Via-Láctea. Fonte: NASA/ESA

Quando o núcleo de uma supergigante vermelha colapsa, a conservação do momento angular e do fluxo magnético fazem com que a estrela de nêutron gire muito rapidamente e tenha um campo magnético extraordinariamente intenso (cerca de 1012 vezes o valor do campo magnético da Terra!). Ao nascer, uma estrela de nêutron isolada gira a pelo menos 60 voltas por segundo. Se nascer num sistema binário, a rotação pode chegar a 600 voltas por segundo. Ao longo do eixo norte-sul magnético, a estrela de nêutron emite partículas e muita radiação eletromagnética. Essa estrela de nêutron, que gira tão rapidamente, passou a ser conhecida como Pulsar! (Figura 5)

Em geral, o eixo de rotação de uma estrela de nêutron não coincide com o seu eixo magnético. Se acontecer que a nossa linha de visão aqui da Terra, se cruze com o jato de radiação (ao longo do eixo magnético) detectaremos sinais periódicos. Algo parecido com o que acontece quando um navio aproxima de um farol. Foi assim, que se encontrou a primeira estrela de nêutrons em 1967 (em comprimento de ondas de rádio). À época, chegou-se a especular que se tratava de uma tentativa de comunicação com a Terra de seres inteligentes extraterrestres.

O brilho das supernovas é utilizado para medir a distância da estrela de nêutron até a Terra.  Sabe-se que o tempo de decaimento do seu brilho está relacionado com a luminosidade da estrela. Uma vez conhecida a sua luminosidade, obtém-se a magnitude absoluta. Em seguida, determinando-se (aqui na Terra) a magnitude aparente da estrela, pode-se calcular a distância da estrela à Terra.

As estrelas de nêutrons são muito pequenas, do tamanho de uma cidade, com diâmetro em torno de 10 a 20 km! Mas, sua densidade é absurda, cerca 1017 kg/m3. São os objetos conhecidos mais densos do universo (excluindo-se os buracos negros). Para se escapar da atração gravitacional de uma estrela de nêutron, a velocidade de um corpo tem que ser maior do que 50% da velocidade da luz!

Na nossa Via-Láctea, já foram detectadas cerca de 1.300 estrelas de nêutrons. Mas, a quantidade de poeira e gás ao longo do disco galáctico, dificulta muito a sua observação.  Estima-se que a Via-Láctea contenha cem mil estrelas de nêutrons ao longo do seu disco. A estrela de nêutron detectada (até agora) mais próxima da Terra está há cerca de 420 anos-luz.

Figura 5 – O pulsar existente no interior da nebulosa do Caranguejo (veja Figura 4) detectado, em raios-x, pelo telescópio Chandra. Fonte: NASA

Ora (direis) ouvir estrelas! Certo
Perdeste o senso!” E eu vos direi, no entanto,
Que, para ouvi-las, muita vez desperto
E abro as janelas, pálido de espanto…

E conversamos toda a noite, enquanto
A Via-Láctea, como um pálio aberto,
Cintila. E, ao vir do sol, saudoso e em pranto,
Inda as procuro pelo céu deserto.

Direis agora: “Tresloucado amigo!
Que conversas com elas? Que sentido
Tem o que dizem, quando estão contigo?”

E eu vos direi: “Amai para entendê-las!
Pois só quem ama pode ter ouvido
Capaz de ouvir e de entender estrelas.

Olavo Bilac, soneto que se encontra no livro “Poesias”, publicado em 1888.

(Continua)

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1 Anã Marrom – um objeto subestelar, Roberto N. Onody

https://www2.ifsc.usp.br/portal-ifsc/ana-marrom/

Assessoria de Comunicação – IFSC/USP

20 de outubro de 2021

O número Pi com 62,8 trilhões de casas decimais

Por: Prof. Roberto N. Onody *

O número π foi calculado com uma precisão de 62,8 trilhões de casas decimais! 1.Esse recorde mundial foi batido no dia 14/08/2021 pela Universidade de Ciências Aplicadas de Graubünden (Grisons em inglês, um cantão da Suiça). Eles solicitaram ao Guinness Book a validação do recorde. Para se ter uma idéia da quantidade de dígitos que isso representa, se esse número fosse impresso, com o tamanho do tipo utilizado neste texto, seriam necessários 62,8 milhões de livros de 400 páginas cada um!

O recorde anterior pertencia a Timothy Mullican 2, que atingiu 50 trilhões de casas decimais, superando Emma Haruka Iwao, da Google, que alcançou 31.4 trilhões de dígitos 3. Os tempos de computação total de Graubünden, Mullican e Iwao foram de 140, 303 e 121 dias, respectivamente.

O hardware utilizado pela universidade suíça foi o seguinte: 2 processadores AMD EPYC 7542 com 32 núcleos cada um, 1 Terabyte de memória RAM, 38 discos duros (Hds) de 16 Terabytes (de 7.200 rpm) cada um, sendo que 34 deles utilizados para troca (swap) de dados com a memória RAM e 4 deles para armazenar o valor de π. Os pesquisadores não utilizaram discos sólidos (SSD), porque receavam que eles falhassem perante o número gigantesco de acessos ao disco.

Em resumo, para fazer o download de todos os dígitos de π, você precisará de um disco rígido de 64 Terabytes! Os autores informaram que os últimos (e novos) 10 dígitos descobertos de π são: 7817924262.

A potência consumida foi cerca de 1.700 Watts (o mesmo que de um secador de cabelo). O software utilizado pelos pesquisadores foi o y-cruncher, desenvolvido por Alexander Yee 4, e que pode ser rodado tanto no Linux quanto no Windows. Eles utilizaram o sistema operacional Ubuntu 20.04.

Em todos os esforços mais recentes para calcular dígitos de π 1, 2, 3 , o algoritmo utilizado baseia-se na fórmula de Chudnovsky

A fórmula de Chudnovsky. Ela pertence à família de séries hipergeométricas e tem uma convergência rápida

O número π é primeiro calculado na base hexadecimal e, depois, convertido para o sistema decimal.

O número π é a razão entre o perímetro de uma circunferência e seu diâmetro. Seu valor aproximado já era conhecido desde a antiguidade por muitos povos – egípcios, babilônios, chineses, gregos, … Em 1761, J. H. Lambert provou que π é um número irracional, isto é, ele não pode ser expresso como uma fração a/b, com a e b números inteiros (b ≠ 0). Em 1882, F. Lindemann provou que π é também transcendental, isto é, ele não é raiz de nenhuma equação algébrica, com coeficientes racionais.

A importância e o fascínio que esta constante matemática exerce sobre os cientistas é inegável. Em 2020, astrônomos descobriram um exoplaneta do tamanho da Terra, e o “batizaram” de π-Terra (π -Earth) 6 , pois ele leva 3,14 dias (terrestres) para orbitar sua estrela. Nos EUA, já há algumas décadas, se comemora o dia π (π–day). Devido à maneira esdrúxula que eles têm de colocar o mês antes do dia, o dia 14 de março fica 3-14, o dia π (que é também a data de aniversário de A. Einstein). Em 3-14-15, os norte-americanos comemoraram o dia π do século.

Um cálculo muito interessante de ser feito, é estimar, na prática, o número de dígitos realmente necessários para o valor de π 7. O diâmetro estimado do Universo conhecido é de 8,8 1026 m. Qual a precisão necessária no valor de π, para que se possa medir o diâmetro de 1 próton (estimado em 1,6 10 – 15m)? O resultado (1,6 10 – 15/8,8 1026) é da ordem de 10 – 42. Ou seja, o π com 42 casas decimais é suficiente.

Π = 3.141592653589793238462643383279502884197169

Portanto, muito embora ninguém vá necessitar conhecer trilhões de casas decimais do número π, a competição acadêmica em curso, é extremamente útil para testar nossa habilidade de reunir os melhores hardwares e softwares e, assim obter a performance máxima, num problema que demanda enorme recursos computacionais.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1 Pi-Challenge – world record attempt by UAS Grisons – University of Applied Sciences of the Grisons (fhgr.ch)

2 Calculating Pi: My attempt at breaking the Pi World Record | Bits and Bytes (timothymullican.com)

3  Pi in the sky: Calculating a record-breaking 31.4 trillion digits of Archimedes’ constant on Google Cloud | Google Cloud Blog

4 A. Yee, y-cruncher – A Multi-Threaded Pi Program (numberworld.org)

5 Chudnovsky, David; Chudnovsky, Gregory (1988), Approximantion and complex multiplication according to Ramanujan, Ramanujan revisited: Proceedings of the Centenary Conference

6 Astronomers discover an Earth-sized ‘pi planet’ with a 3.14-day orbit (phys.org)

7 Pi Day | Mathematics Program | St. Bonaventure University (sbu.edu)

Assessoria de Comunicação – IFSC/USP

28 de setembro de 2021

Teste de Turing e Inteligência Artificial

Século 21 – a era da Inteligência Artificial (Crédito: Worldpedia.info)

Por: Prof. Roberto N. Onody *

Alan Mathison Turing (1912 – 1954) foi um matemático britânico brilhante (Figura 1) que ficou conhecido como “Pai da Computação” 1. Concebeu, teoricamente, o dispositivo denominado Máquina de Turing que é um modelo abstrato de um computador. Criptoanalista, ajudou a decifrar a máquina Enigma, amplamente utilizada pelo exército e marinha nazistas, para enviar mensagens secretas durante a Segunda Guerra Mundial.  Enigma é uma máquina eletromecânica patenteada em 1918 e que teve várias versões ao longo do tempo 2 (Figura 2). Sua decodificação, pelos Aliados, permitiu encurtar a guerra na Europa e poupar milhares de vidas.

Turing contribuiu, de maneira muito importante, para a chamada lógica matemática. David Hilbert (1862-1943), um notável matemático alemão, analisando a estrutura da matemática (composta por axiomas e afirmações) concluiu que ela era: completa (toda afirmação verdadeira pode ser provada), consistente (sem contradições) e decidível (isto é, existe um algoritmo que pode determinar ou decidir se uma afirmação é consequência de seus axiomas). Na sua palestra de aposentadoria da Sociedade de Cientistas e Físicos Alemães (em 1930), em resposta à máxima latina Ignoramus et ignoramibus (não sabemos e não saberemos), ele afirmou Wir mussen wissen, wir werden wissen (nós precisamos saber, nós saberemos). Esta frase está em seu epitáfio no cemitério de Göttingen. Nesse mesmo ano, o brilhante matemático austríaco Kurt Gödel (1906-1978), publicou os seus 2 teoremas de inconsistência, que derrubaram as 2 primeiras afirmações de Hilbert. A máquina de Turing, quando operando um algoritmo que nunca para, é um exemplo de indecidibilidade 3.

Figura 1 – A. Turing, matemático, cientista computacional e criptoanalista.  Era um grande corredor, fez a maratona em 2:46 h. Foi condenado em 1952 por atos homossexuais e obrigado a tomar estrogênio. Suicidou-se em 1954. Recebeu o perdão póstumo da Rainha Elizabeth II em 2013 – Crédito: Domínio público

Quando os primeiros computadores começaram a funcionar, muitos já se perguntavam: Eles podem pensar? Em caso positivo, um dia eles se equiparariam aos seres humanos? Pensando neste assunto, Turing publicou um artigo em 1950 4. Na primeira parte desse artigo ele propõe o Jogo da Imitação 5. Nesse jogo, 3 indivíduos – um homem, uma mulher e um juiz (homem ou mulher), em salas isoladas, podem se comunicar somente através de textos datilografados. O homem e a mulher devem ludibriar o juiz, fazendo-se passar por mulher e homem, respectivamente. Em seguida, Turing substitui um deles por um computador. Esta última forma, ficou conhecida como Teste de Turing.

Neste teste, uma pessoa, um computador e um interrogador humano (juiz) são mantidos em salas separadas e, novamente, só podem se comunicar por texto impresso. A máquina e o ser humano manterão uma conversação entre si. O juiz deverá analisar o conteúdo e tentar distinguir qual é a máquina e qual é o ser humano. A pergunta que Turing se fazia era: poderia a máquina imitar o pensamento humano e confundir o juiz?

Há muito tempo, clássicos dos filmes de ficção científica, exploram essa possibilidade. Por exemplo 6, nos filmes 2001 – Uma Odisséia no Espaço (com o computador HAL 9000), Blade Runner, e outros.

Em 1966, Joseph Weizenbaum criou um programa chamado ELIZA que ‘passou’ (há múltiplas e sérias contestações) no teste de Turing. Um programa passa no teste de Turing se, após uma série de 5 minutos de conversação (no teclado), o juiz é enganado pelo menos em 30% das vezes.

Vários programas parecidos (chamados de ‘chatbots’) foram propostos. Em 1991, o inventor Hugh Loebner instituiu um torneio (Prêmio Loebner) para programas ou chatbots dirigidos para o teste de Turing. Nessa competição (que é anual), participam dez juízes, os programas inscritos e 4 pessoas. Até 2014, nenhum chatbot havia passado no teste de Turing. Porém, nesse ano, um chatbot atingiu o índice de 30%, fazendo-se passar por menino ucraniano de 13 anos de idade.

Figura 2 – Máquina Turing com 3 rotores (a partir de 1938, elas passaram a contar com 5 rotores). Uma das versões da máquina Turing foi decifrada pelos matemáticos poloneses M. Rejewski, J. Różycki e H. Zygalski em 1933. Restaram 284 máquinas Turing usadas pelos nazistas na II Guerra Mundial (Crédito: ref  2.)

Com a evolução na qualidade dos chatbots, a competição se tornou mais aberta e os juízes passaram a ser milhares de usuários da internet. Entre 2016 e 2019 (em 2020 não houve o torneio, devido à pandemia) o chatbot tetracampeão foi o Mitsuku 7 (mais conhecido como Kuki). O programa já manteve conversação com mais de 25 milhões de pessoas em todo o mundo. Foi desenvolvido pelo programador britânico Steve Worswick.

Hoje em dia, os chatbots, na forma de aplicativos, estão em toda parte (como no WhatsApp de empresas, por exemplo). Progrediram bastante, incorporando som e imagem, e se transformando em sistemas de inteligência artificial de bancos e com outras multifuncionalidades, como no Assistente do Google, na Siri da Apple e na Alexa da Amazon. É muito importante enfatizar que, como bem observou o próprio Worswick 6, os chatbots voltados para testes de Turing, andam na contramão dos aplicativos citados acima. Por exemplo, se perguntarmos à Siri qual a população da Noruega, ela responderá “5.385.300”, já o Kuki deverá retornar algo como “menos de 10 milhões”, para não deixar transparecer sua natureza computacional.

O prêmio Loebner também ganhou uma forma multimodal em que máquina deve processar fala, figuras, música e vídeos como se fora um ser humano.

É interessante observar que até já estamos acostumados com os Testes de Turing invertidos – os CAPTCHAs, onde temos que provar que não somos robôs!

Hoje em dia, máquinas de aprendizado conseguem processar uma grande base de dados e escrever textos quase humanos. Até 2020, a maior máquina de aprendizado era a Turing NLG, da Microsoft, com cerca de 17 bilhões de parâmetros. Em maio de 2020, foi lançado o GPT-3 (Generative Pre-trained Transformer-3) com incríveis 175 bilhões de parâmetros de aprendizado. Foi criado pela OpenAI 8, um laboratório de Inteligência Artificial sediado em São Francisco.

A OpenAI também treinou uma rede neural para criar imagens a partir de descrições textuais. Foi batizada de DALL-E, uma referência ao pintor Salvador Dali e ao filme da Pixar, WAAL E (Figura 3).

Figura 3 – Imagens criadas pela Inteligência Artificial DALL -E a partir de descrição textual – objetos reais: a) secção transversal de uma noz; b) coração humano; c) conjunto de taças – objetos surreais: d) esfera com textura de orquídeas; e) quimera tartaruga-girafa; f) poltrona-abacate (Crédito: ref. 8)

O século 21 testemunhou um crescimento assombroso da internet e, em particular, das redes sociais. Em que pesem os enormes benefícios resultantes das redes sociais, desde a rapidez da comunicação, informação e a estreita interação familiar e entre amigos, a existência das chamadas ‘Fake News’ opera, porém, no sentido oposto: desinforma, ludibria e espalha a ignorância de maneira implacável e perversa. Visando usar Inteligência Artificial para combater essa praga, criou-se o projeto PANACEA 9(excelente a escolha do nome) objetivando localizar informações falsas sejam elas de natureza política, climáticas (aquecimento global) ou sobre vacinação.

Necessitamos e utilizamos, cada vez mais, a Inteligência Artificial. Ela está presente na Medicina, em nossos celulares, nos aviões, automóveis, enfim, em todo lugar. O processo de dedução, supostamente humano, já está entre as máquinas. O programa de Inteligência Artificial MuZero, desenvolvido pela DeepMind 10 (Google), aprendeu a jogar xadrez sem que lhe tenha sido ensinado as regras do jogo!

No Brasil 11, visando regulamentar o uso da tecnologia baseada em Inteligência Artificial, há 4 projetos na Câmara dos Deputados e 3 no Senado Federal. O mais avançado, o do deputado federal Eduardo Bismarck (PDT-CE), deve ir, em breve, à votação no plenário da Câmara. Pela proposta, os programas de Inteligência Artificial devem respeitar a privacidade (obedecendo à Lei Geral de Proteção de Dados), a segurança, a dignidade humana, a transparência, não podendo haver discriminação. Estabelece a figura do agente de Inteligência Artificial (que poderá ser tanto o desenvolvedor quanto o operador do software) que será o responsável legal pelas ações tomadas pelo algoritmo.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1 https://pt.wikipedia.org/wiki/Alan_Turing

2 https://pt.wikipedia.org/wiki/Enigma_(m%C3%A1quina)

3 https://www.youtube.com/watch?v=HeQX2HjkcNo

4 A. Turing, Mind vol. 49, 433 (1950)

https://doi.org/10.1093/mind/LIX.236.433

5 O Jogo da Imitação, filme produzido pela Black Bear Pictures, lançado em 2014, com Benedict Cumberbatch no papel de Alan Turing. O filme foca mais no papel desempenhado por Turing para desencriptar a máquina Enigma.

6 https://physicsworld.com/a/the-turing-test-2-0/

7 https://chat.kuki.ai/createaccount

8 https://openai.com/

9 https://panacea2020.github.io/about.html

10 https://www.deepmind.com/

11 A. Shalders, O Estado de São Paulo, edição de 26 de setembro de 2021.

Rui Sintra – Assessoria de Comunicação – IFSC/USP

21 de setembro de 2021

Anã Marrom – Um objeto subestelar

Figura 1 – As massas características de exoplanetas, anãs marrons e estrelas vão até 13, entre 13 e 80 e acima de 80 vezes a massa do planeta Júpiter, respectivamente (Crédito: NASA)

Por: Prof. Roberto N. Onody *

Pela ação da gravidade, nebulosas gigantescas de gases (na sua maioria, hidrogênio e hélio) e poeira dão origem a centenas e, às vezes, milhares de estrelas. Nesse berçário, a reação de fusão do núcleo do deutério (1 próton e 1 nêutron) com 1 próton para formar o núcleo do hélio3, é um estágio comum para as estrelas jovens – as protoestrelas. A temperatura de ignição dessa reação, gira em torno de um milhão de graus Celsius.

No Universo há pouca quantidade de deutério. Se a massa da protoestrela for muito grande, a contração gravitacional vai prevalecer sobre a expansão causada pela fusão do deutério, aumentando sua densidade e sua temperatura, até que esta atinja cerca de dez milhões de graus Celsius. Neste ponto, se inicia uma outra reação de fusão: núcleos de hidrogênio se fundem formando núcleos de hélio. A pressão de radiação, oriunda dessa reação, evita o seu colapso gravitacional. Nasce uma estrela.

Entretanto, se a massa da protoestrela for pequena o bastante e houver deutério suficiente, a contração gravitacional pode se equilibrar com a expansão provocada pela fusão de deutério. Nasce uma anã marrom.

Figura 2 – Temperaturas na superfície e idades estimadas: Sol (4,7 bilhões de anos), anã vermelha Gliese 229 A (3 bilhões de anos), anã marrom Teide 1 (jovem, 120 milhões de anos), anã marrom Gliese 229 B (velha, 3 bilhões de anos), anã marrom WISE 1828 (fria, 2 a 4 bilhões de anos) e Júpiter (4,6 bilhões de anos) (Crédito: MPIA/ V. Joergens)

Tipicamente, a massa de uma anã marrom gira em torno de 13 a 80 vezes a massa do planeta Júpiter (Figura 1). Anãs marrons mais massivas podem dar início à fusão de lítio (o núcleo do lítio mais abundante, tem 3 prótons e 4 nêutrons). Nesta reação, o núcleo de lítio se funde a 1 próton formando o Berílio8 que decai em 2 núcleos de helio4. A temperatura de ignição dessa reação é da ordem de 2,5 milhões de graus Celsius 1.

À medida que uma anã marrom consome o deutério, ela se contrai, aumentando a densidade e a pressão. Quanto mais velha a anã marrom, menor é o seu raio. O processo de contração gravitacional continua até que se atinja as temperaturas, pressões e densidades críticas (Tc ~ 3.000 K; Pc ~ 100.000.000 atm; 10 g/cm3 < ρc < 1000 g/cm3). Nesse ponto, há o efeito quântico da pressão de gás de férmions degenerados. Os férmions (elétrons, prótons e nêutrons) embora fortemente comprimidos, não podem ir para níveis mais baixos de energia, devido ao Princípio de Exclusão de Pauli. Isso evita o colapso gravitacional da anã marrom.

Na superfície de uma anã marrom, a temperatura varia, em geral, de 100 a 3.700 graus Kelvin (Figura 2), num processo de resfriamento que pode levar algumas centenas de milhões de anos ou mais. As anãs marrons mais quentes têm cor laranja ou vermelho, enquanto as mais frias têm cor magenta (para o olho humano). Para uma lista de anãs marrons (última atualização em 30/08/2021) veja referência 2.

A existência de anãs marrons foi teoricamente prevista pelo astrônomo norte-americano Shiv Kumar em 1962. Mas, foi somente em 1995 que houve a comprovação experimental definitiva (Figura 3). Curiosamente, essa anã marrom (batizada de Gliese 229B) foi encontrada junto a uma anã vermelha (Gliese 229A), uma estrela pequena que já tem massa suficiente para iniciar a reação de fusão do hidrogênio. Como uma anã vermelha funde hidrogênio em hélio muito lentamente, a sua expectativa de vida é muito alta – de centenas de bilhões a trilhões de anos! (mais do que a idade estimada do universo que é de 13,7 bilhões de anos). Para comparar, o nosso Sol tem 4,5 bilhões de anos de idade e expectativa de mais 5 bilhões de anos de vida. Tanto o Sol quanto as anãs vermelhas devem terminar suas vidas como anãs brancas.

Figura 3 – O sistema binário Gliese 229, composto de uma anã vermelha e uma anã marrom, está a uma distância de 19 anos-luz da Terra. A anã marrom, Gliese 229B, tem massa entre 20 a 50 vezes a massa do planeta Júpiter (Crédito: NASA/JPL)

A anã marrom mais próxima da Terra está no sistema Luhman 16 3, a uma distância de cerca de 6,5 anos-luz (1 ano-luz é, aproximadamente, 63 mil vezes a distância Terra-Sol). Na verdade, Luhman 16 é um sistema binário composto por 2 anãs marrons. É o terceiro sistema mais próximo da Terra. O sistema estelar mais próximo da Terra é triplo – Alpha Centauri, com 2 estrelas semelhantes ao nosso Sol e uma anã vermelha. Está a uma distância de 4,37 anos-luz. Em seguida, vem outra anã vermelha – a Barnard, que se encontra a 6 anos-luz da Terra.

As anãs marrons são difíceis de serem detectadas. Tanto é assim, que mesmo a mais próxima (no sistema binário Luhman 16) só teve sua existência confirmada em 2013!

Vários fatores colaboram para essa dificuldade. As anãs marrons têm diâmetros muito pequenos, comparável aos de planetas gigantes tipo Júpiter. As temperaturas na sua superfície são bastante baixas, de modo que elas brilham muito pouco no comprimento da luz visível. A sua radiação é mais intensa no comprimento da luz infravermelha. Portanto, para que a descoberta de novas anãs marrons deslanchasse, foi antes necessário, o desenvolvimento e aprimoramento de novos dispositivos detectores no infravermelho. Isso de fato aconteceu, e veio na esteira da busca por exoplanetas. Hoje, já são conhecidos milhares de exoplanetas e anãs marrons.

O primeiro exoplaneta orbitando uma anã marrom foi detectado em 2004, através do telescópio VLT (Very Large Telescope) que fica no deserto do Atacama, Chile 4. Batizado de 2M1207b, ele está a aproximadamente 170 anos-luz da Terra. Sua massa foi estimada entre 3 a 10 vezes a massa de Júpiter e sua distância à anã marrom é cerca de 40 vezes a da Terra-Sol (aproximadamente, a distância Plutão-Sol).

Em 2003, a NASA lançou o seu primeiro observatório com instrumentos específicos para análise da luz infravermelha – o telescópio espacial Spitzer. Entre seus múltiplos resultados, se encontra a descoberta da anã marrom com menor período de rotação – a 2MASS J03480772-6022270 (aproximadamente, 1 rotação completa por hora).

Em 2009, a NASA lançou o satélite espacial WISE (Wide-field Infrared Survey Explorer) que detectou centenas de novas anãs marrons. Entre elas, dezenas de anãs marrons muito frias, incluindo a mais fria observada até hoje – a WISE 0855-0714, cuja temperatura da superfície está entre – 48 e – 13 oC.

Na busca por novos exoplanetas, a NASA programou 2 missões: a primeira com o telescópio espacial Kepler, que durou de 2009 a 2018 e a segunda, com o lançamento do satélite TESS 5 (Transiting Exoplanet Survey Satellite) em 2018. Ambas se baseiam na observação de exoplanetas quando eles estão em trânsito, isto é, passando em frente, bloqueando parcial e temporariamente, a luz estelar. Este método permite estimar o diâmetro, a massa, o período de rotação e até obter alguma informação sobre a composição atmosférica do exoplaneta.

Em 2014, astrônomos analisando cerca de 64 anãs marrons, notaram que muito poucas tinham massas entre 35 e 55 vezes a massa de Júpiter. Eles denominaram essa região de ‘deserto de anãs marrons’. Até hoje, já foram detectadas cerca de 3.000 anãs marrons, a mais distante a, aproximadamente, 23 anos-luz.  Estima-se que a nossa Via-Láctea contenha de 50 a 100 bilhões de anãs marrons.  A NASA prevê para dezembro de 2021, o lançamento do telescópio espacial James Webb 6, que deverá substituir o honorável Hubble (que forneceu milhares de imagens fantásticas e informações sobre o mundo em que vivemos). Então, as anãs marrons, essas estrelas que não deram certo, terão muitos dos seus segredos revelados.

*Físico, Professor Sênior do IFSC – USP

e-mail: onody@ifsc.usp.br

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1Brown dwarf – Wikipedia

2 List of brown dwarfs – Wikipedia

3 K. Luhman, Astrophysical Journal Letters767 (1): L1 (2013)

https://doi.org/10.1088%2F2041-8205%2F767%2F1%2FL1

4 G. Chauvin et al., Astronomy and Astrophysics425 (October 2004), pp. L29–L32

https://doi.org/10.1051%2F0004-6361%3A200400056

5 About TESS | NASA

6 James Webb Space Telescope – Webb/NASA

Rui Sintra – Assessoria de Comunicação – IFSC/USP

3 de setembro de 2021

A Conjectura de Collatz: um problema insolúvel e “perigoso”

Figura 1 – O matemático alemão Lothar Collatz (1910 – 1990), autor da conjectura (Crédito: MFO e Konrad Jacobs)

Por: Prof. Roberto N. Onody *

Em 1937, dois anos depois de defender seu doutorado, o alemão Lothar Collatz (Figura 1), formulou uma hipótese matemática que segue, até hoje, não demonstrada. Pela sua simplicidade, a conjectura tem atraído matemáticos profissionais e amadores, que tentam provar a sua veracidade. Todos consideram o problema “perigoso”. Perigoso porque é apaixonante e envolvente. Muitos cientistas passaram anos, décadas, tentando resolvê-lo, inutilmente. Durante a guerra a fria, se dizia que o problema foi inventado pelos soviéticos para atrasar a ciência nos EUA.

A dinâmica de Collatz é muito simples, são apenas 2 regras. Escolha um número natural qualquer N (1, 2, 3, …)

-Se N for par, divida por 2 —> N/2

-Se N for ímpar, multiplique por 3 e adicione 1 —> 3N + 1

Se aplicarmos essas regras, por exemplo, para o número N = 17, ele evoluirá da seguinte maneira:

17 à 52 à 26 à 13 à 40 à 20 à 10 à 5 à 16 à 8 à 4 à 2 à 1

Ao chegar ao número 1, a dinâmica entra num ciclo 3 (1, 4, 2, para sempre)

A Conjectura de Collatz afirma que: “Todo e qualquer número natural, terminará sua dinâmica no ciclo 3”.

Portanto, provar a Conjectura de Collatz significa demonstrar que, iniciando o processo com qualquer número natural, não importando o seu tamanho, ele acabará no ciclo 3.

Claro, a primeira coisa que se pensa é em usar a força bruta computacional. Em 2020, a conjectura foi testada para todos os números naturais de 1 até 268 ~ 3 1020. Todos convergiram para o ciclo 3 1.

Obviamente, nenhum matemático aceita esse resultado numérico como prova da conjectura. Ele só prova que, até esse número, ela está correta. Porém, podem existir números muito maiores, que levem a dinâmica ao infinito. Ou ainda, que conduza a um conjunto de números gigantescos que formem um outro e novo ciclo. Com o número 268 nas mãos, matemáticos provaram que, se existir um ciclo acima dele, este ciclo tem que ser gigantesco e composto por, pelo menos, 186 bilhões de números!

Figura 2 – Evolução da dinâmica de Collatz para N = 63 (Crédito: R. N. Onody)

Muito embora, os matemáticos saibam ser possível apresentar provas computacionais e numéricas na solução de algumas conjecturas matemáticas (veja ref.2 ), esse não parece ser o caso aqui. Contra a força bruta, eles têm o episódio da Conjectura de Pólya. Todo número natural maior do que 1, pode ser decomposto em um número par ou ímpar de produto de números primos. Dessa forma, 16 é par (4, 16 = 2.2.2.2), 8 é ímpar (3, 8 = 2.2.2), 17 é ímpar (1) e assim por diante. Podemos então, contar até um certo número natural N, quantos se decompõem em números pares e ímpares. Por exemplo, até N = 20, 12 são ímpares e 7 são pares. Em 1919, o matemático húngaro George Pólya, propôs a conjectura de que o conjunto de números naturais com decomposição par é sempre maior ou igual ao dos ímpares. Foi somente em 1958, que C. B. Haselgrove provou a existência de um contraexemplo para N = 1,845 10361 ! 3

Claro, bastaria um contraexemplo para quebrar a Conjectura de Collatz pois, a sua dinâmica é muito sensível à semente (inicialização). Por exemplo, para N = 63, a dinâmica chega até o número 9.232 e leva 107 passos até o ciclo (Figura 2); já para a semente N = 64, este é também o valor máximo, chegando ao ciclo em 6 passos (Figura 3) 4. Há explosões na dinâmica de Collatz, que nos fazem acreditar ser possível encontrar um contraexemplo. A Semente 9.663 atinge o máximo de 27.114.424 antes de recuar para o ciclo.

Se considerarmos a dinâmica de Collatz para os números inteiros negativos, obteremos pelo menos 3 ciclos: (-1, -2); (-5, -14, -7, -20, -10);  e (-17, -50, -25, -74, -37, -110, -55, -164, -82, -41, -122, -61, -182, -91, -272, -136, -68, -34), com número de elementos 2, 5 e 18, respectivamente. Curiosamente, esses mesmos ciclos (com sinais positivos) aparecem se alterarmos a regra 3N + 1 para 3N – 1, mas ainda permanecendo no âmbito dos números naturais positivos.

Figura 3 – Evolução da dinâmica de Collatz para N = 64 (Crédito: R. N. Onody)

Muito embora não exista hoje uma prova da conjectura de Collatz, há resultados parciais bem interessantes. Um dos mais brilhantes matemáticos da atualidade, Terence Tao 5, demonstrou, em 2019, o seguinte teorema: “Quase todos os valores iniciais N (sementes), quando iterados pela dinâmica de Collatz, têm valor menor do que f(N), para qualquer função f(N) que vá a infinito quando N tende a infinito, não importando quão lentamente f(N) cresce ”. Por qualquer função de crescimento lento, você pode pensar coisas como log(log(log(log(N)))). Para os matemáticos, quase todos significa 99,99… % (adicione quantos noves quiser). Muito convincente, é uma quase prova, mas não é uma prova.

Sobre a conjectura de Collatz, o matemático húngaro Paul Erdös declarou em 1983: “A matemática ainda não está madura para resolver esse problema”.

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1 Collatz conjecture – Wikipedia

2 A Solução da Conjectura de Keller – verdadeira, ou falsa? – Portal IFSC (usp.br)

3 Porém, com o advento dos computadores, M. Tanaka encontrou (em 1980) o menor número que viola a Conjectura de Pólya, N = 906.150.257

4 Caso tenha interesse, escrevi a Conjectura de Collatz em Python e também uma versão executável para Windows (sem vírus ). Você pode solicitar por e-mail.

5 The Notorious Collatz conjecture (wordpress.com)

Rui Sintra – Assessoria de Comunicação – IFSC/USP

30 de julho de 2021

Doença de Alzheimer… 115 anos depois

Placas da proteína beta-amilóide presentes no cérebro de portadores da doença de Alzheimer (Crédito: Thomas Deerinck, NCMIR/SPL)

Por: Prof. Roberto N. Onody *

Há exatamente 115 anos, o Dr. Alois Alzheimer, médico alemão, teve uma paciente de 51 anos que apresentava sintomas de perda de memória, dificuldades na fala e comportamento imprevisível. Ao falecer, em 1906, a autópsia revelou a presença de emaranhados de fibras no seu cérebro.

A doença de Alzheimer é progressiva, degenerativa e, até agora, não tem cura. Estima-se que 50 milhões de pessoas padecem desta doença em todo o mundo 1. No Brasil, este número é de, aproximadamente, um milhão e quatrocentas mil pessoas 2. Com o aumento da expectativa de vida, o número de portadores do mal de Alzheimer tem crescido em todo o mundo. Acima de 85 anos, 33 % dos idosos sofrem da doença. A maioria é de mulheres.

A doença de Alzheimer é a forma mais comum de demência. O termo demência designa, genericamente, pessoas que devido a alterações no cérebro têm perda de memória, fala e locomoção. Há um profundo e severo declínio das habilidades cognitivas que afetam o comportamento, as emoções e os relacionamentos. Outras formas de demência são a vascular, frontotemporal, Parkinson e Huntington. De maneira incorreta, usa-se muitas vezes o termo senilidade como sinônimo de demência. Deixa a impressão de que a demência vem junto com o envelhecimento, o que não é verdade.

Os principais sintomas são: perda de memória recente, datas e eventos (já na mudança típica que acompanha um envelhecimento sadio – há esquecimento de nomes e compromissos, mas, recordando-os mais adiante); dificuldades com números, pagamento de contas, dirigir para locais antes conhecidos ou as regras de um jogo favorito (já na mudança típica que vêm com a idade – erros ocasionais nas contas domésticas e necessidade esporádica de auxílio na utilização, por exemplo, do micro-ondas);  dificuldade de fala, escrita, de acompanhar ou continuar uma conversa (já no idoso saudável – esquecer a palavra apropriada numa conversação) ; colocar objetos em lugares não usuais e não se lembrar de tê-los posto ali (também acontece com idosos saudáveis, mas com menos frequência) e, finalmente, uma mudança de humor e personalidade (é normal porém, com a idade, o desenvolvimento de hábitos, manias e certa irritabilidade com a quebra de rotina) 3. Já foi dito que esquecer onde deixou as chaves é esquecimento, mas não lembrar para que elas servem é Alzheimer.

Na fase terminal, o doente está acamado ou numa cadeira de rodas, tem incontinência urinária e fecal, dificuldade de engolir, de compreender o que se passa ao seu redor e de reconhecer as pessoas. Necessita de um cuidador 24 horas. Infecções e pneumonia podem acelerar o óbito.

Para se diagnosticar o Alzheimer, várias ferramentas e testes devem ser utilizados. Na consulta médica, uma das primeiras perguntas será sobre a existência de familiares que tem ou tiveram algum tipo de demência. Em seguida, vem os testes de avaliação geral da saúde do paciente: pressão sanguínea, temperatura, pulso e a auscultação do coração e do pulmão. O paciente deve informar a dieta, a nutrição e a lista de medicamentos consumidos. Sintomas parecidos com os do Alzheimer podem ser causados pela depressão, insônia, problemas na tiróide, efeitos colaterais de certos medicamentos, drogas e consumo excessivo de álcool. O médico deverá testar os reflexos, coordenação, tônus muscular, força, movimento dos olhos e fala.

Existem 2 testes cognitivos (clínicos) importantes que ajudam muito o diagnóstico. O MMSE (Mini-Mental Status Exam), em que o profissional de saúde faz uma série de perguntas envolvendo habilidades mentais necessárias no nosso dia a dia. A pontuação máxima é 30. Se o indivíduo obtém entre 24-20, 20-13 ou menos de 12 pontos, o Alzheimer é considerado leve, moderado e severo, respectivamente. Uma pessoa com Alzheimer pontua de 2 a 4 pontos menos a cada ano que se passa. O segundo teste, o Mini-Cog, é o mais simples. Solicita-se que a pessoa memorize e repita, alguns minutos depois, 3 nomes de objetos comuns. Em seguida, pede-se a ela que desenhe um relógio com os 12 números na posição correta e coloque os ponteiros na hora escolhida pelo examinador.

Ao lado dos testes clínicos, é interessante realizar testes baseados em programas computacionais. A FDA (Food and Drug Administration) dos EUA autorizou os programas Cognigram, Contab Mobile, Cognivue, Cognision e ANAM (Automated Neuropsychological Assessment Metrics).

Imagens estruturais do cérebro, através de Ressonância Magnética Nuclear, Tomografia Computadorizada e PET-CT (Tomografia por Emissão de Pósitrons) permitem descobrir acumulação excessiva da proteína beta-amilóide no cérebro. Junto com a proteína tau, ela forma a dupla vilã responsável pela doença de Alzheimer.

A proteína beta-amilóide é produzida em excesso e esse excesso vai se acumular no neurópilo, área em que se encontram os dendritos e células da glia, impedindo o tráfego correto de nutrientes (como a glicose) para os neurônios. A aglomeração de beta-amilóides junto com células mortas, acabam formando as chamadas placas senis, que sempre estão presentes na autópsia de pessoas com Alzheimer.  A formação da proteína tau ocorre nos microtúbulos que ligam o axônio do neurônio ao dendrito. Sua acumulação excessiva e emaranhada impede essa ligação. A quantidade de proteína tau, pode ser razoavelmente estimada pela análise do líquido cefalorraquidiano, mas este é um procedimento médico extremamente invasivo.

(Newsweek – Science)

Por este motivo, pesquisadores têm se debruçado sobre a possibilidade de diagnosticar o Alzheimer através de testes sanguíneos. A neurocientista Nancy Ip e sua equipe da Universidade de Hong Kong, desenvolveram testes para identificação do Alzheimer a partir da presença de 19 proteínas presentes no sangue. A beta-amilóide se agarra a outras proteínas e se degrada rapidamente. Utilizando espectrômetro de massa, está disponível nos EUA (desde outubro de 2020) o diagnóstico C2N, que mede o decaimento do nível de beta-amilóide no sangue, indicando sua acumulação no cérebro 4 .

Como acontece com todas as doenças, um diagnóstico precoce é muito importante, não para a cura (que não existe ainda) mas, para desacelerar o avanço da doença e, com medicamentos, que atenuam os efeitos mais pernósticos da doença. É raro o próprio paciente reconhecer sua condição. Pelo fato de o esquecimento fazer parte de um envelhecimento normal (saudável), a família também demora muito a reconhecer os sintomas e procurar ajuda médica.

Até aqui, os medicamentos utilizados para tratamento do Alzheimer são meros paliativos, apenas aliviam os sintomas buscando dar ao paciente uma melhor qualidade de vida. Na fase leve e moderada da doença, são indicados a Galantamina, a Donezepila e a Rivastigmina, que atuam no neurotransmissor acetilcolina. Na fase grave, recomenda-se a Memantina, um medicamento que atua no neurotransmissor glutamato.

Durante cerca de 18 anos, nenhum novo remédio contra o Alzheimer foi lançado pela indústria farmacêutica. Mas, em junho de 2021, a companhia de biotecnologia Biogen de Cambridge, Massachusetts, teve o medicamento Aducanumab aprovado, de forma acelerada, pela FDA (Food and Drug Administration) dos EUA 5.

Como dissemos antes, os medicamentos utilizados, até agora, para o Alzheimer visam apenas atenuar os seus efeitos e sintomas. Já O Aducanumab propõe, de fato, uma terapia para a doença, ao diminuir a produção de beta-amilóide. Aducanumab injeta anticorpos de forma intravenosa. Os estudos clínicos da fase III foram tumultuados e controversos. Somente após uma reanálise dos dados, foi que a Biogen obteve a aprovação da FDA.  A Biogen terá até 9 anos para provar (em novos testes clínicos) a eficiência da droga. Terá também que resolver o maior efeito colateral da Aducanumab, que é o inchamento do cérebro.

Segundo o ICER (Institute for Clinical and Economic Review) de Boston, o custo da droga deve ficar entre 2.500 e 8.300 dólares.  Como existem pelo menos outras 3 empresas (Lilly, Roche e Eisai) testando, na fase III, anticorpos anti-amilóide, o preço deve diminuir. A aprovação da Aducanumab já foi submetida à Anvisa (Agência Nacional de Vigilância Sanitária).

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1Alzheimer’s & Dementia | Alzheimer’s Association

https://www.alz.org/alzheimer_s_dementia

2 ABRAz: Associação Brasileira de Alzheimer – Idosos

https://idosos.com.br/abraz-associacao-brasileira-alzheimer/

3 Alzheimer: perda de memória e outros sintomas (uol.com.br)

https://www.uol.com.br/vivabem/noticias/redacao/2018/10/09/alzheimer-entenda-como-doenca-prejudica-o-cerebro-e-quais-seus-sintomas.htm

4 Alzheimer’s drug approval spotlights blood tests | Science (sciencemag.org)

1.Servick, Science Vol. 373 , 373 (23 jul 2021)

https://doi.org/10.1126/science.373.6553.373

5 Landmark Alzheimer’s drug approval confounds research community (nature.com)  

1.A. Mullard, Nature594, 309-310 (2021)

https://doi.org/10.1038/d41586-021-01546-2

Assessoria de Comunicação – IFSC/USP

13 de julho de 2021

Esfriando a Antimatéria

Figura 1 – Ilustração artística. O material mais caro do mundo – um grama de antihidrogênio custa 62,5 trilhões de dólares (Crédito: meteoramida)

Por: Prof. Roberto N. Onody *

A existência da antimatéria (Figura 1) foi prevista teoricamente por P. Dirac em 1928.  A equação de Dirac descreve a teoria quântica relativística do elétron e une a Relatividade Especial com a Mecânica Quântica. Na sua formulação, ela já traz incorporada o conceito de spin e prevê a existência de uma partícula que tem a mesma massa do elétron, mas com carga oposta – o pósitron ou antielétron.

Por volta de 1912, o físico austríaco V. Hess realizou experimentos para descobrir a causa da radiação ionizante na baixa atmosfera terrestre. Pensava-se, então, que o responsável fosse o Sol. Aproveitando um dia de eclipse solar, Hess ascendeu num balão a cerca de 5.000 metros de altura e constatou que a ionização permanecia praticamente a mesma antes, durante ou depois do eclipse. Concluiu que o responsável pela radiação ionizante vinha do espaço exterior e os chamou de raios cósmicos. Em 1932, C. Anderson, um físico do Instituto de Tecnologia da California, estudando os raios cósmicos em uma câmera de nuvem, descobriu uma partícula que tinha a mesma massa que o elétron mas, com carga oposta – o pósitron previsto por Dirac. Hess e Anderson receberam juntos o prêmio Nobel de Física de 1936.

Figura 2 – O Desacelerador de Antiprótons (Crédito: CERN – Conseil Européen pour la Recherche Nucléaire)

Quando um elétron e um pósitron se encontram, eles se aniquilam em 2 raios-gama (para pósitron e elétron com spins antiparalelos) ou 3 raios-gama (para spins paralelos). O processo de aniquilação com emissão de 2 raios-gama é muito mais provável do que o com 3 raios-gama. O raio gama emitido é uma radiação eletromagnética cem mil vezes mais energética do que a luz ultravioleta.

No interior de certos materiais, o pósitron e o elétron podem formar uma espécie de átomo – o positrônio, que decai em cerca de 10 – 9 s. No exame de Tomografia por Emissão de Pósitrons (PET scan), injeta-se no paciente um material radioativo (em geral, fluorodeoxiglicose). Uma vez dentro do corpo, os órgãos e tecidos processam o material como se este fizesse parte normal do nosso metabolismo. Ao decair radioativamente, ele emite pósitrons que se aniquilam, produzindo raios-gama. Estes, por sua vez, são detectados e transformados em imagens por um computador. É a melhor tecnologia existente para distinguir um tumor benigno de um tumor maligno.

Em 1934 1, num esforço para detectar, experimentalmente, o antipróton, E. Lawrence projetou e patenteou o cíclotron. O aparelho podia acelerar partículas carregadas até energias da ordem de 106 eletronvolts.  O antipróton não foi encontrado, mas bombardeando alvos com partículas extremamente velozes, os átomos se desintegravam podendo formar novos elementos químicos (radioativos). Em 1954, Lawrence supervisionou a construção do bevatron, que acelerava prótons com energias acima de 109 eletronvolts.  O bevatron detectou o antipróton e o antinêutron em 1955 e 1956, respectivamente. A obtenção dessas antipartículas, juntamente com o antielétron (pósitron), deram início à busca dos antiátomos, mais precisamente, do antihidrogênio.

O hidrogênio é o elemento químico mais simples e abundante do universo, composto apenas, por um próton e um elétron. Em 1995, pesquisadores no CERN fizeram antiprótons colidirem com átomos de xenônio durante 3 semanas. Produziram apenas 9 átomos de antihidrogênio (formado por um antipróton e um pósitron). Eles se aniquilaram com a matéria ordinária em 40 bilionésimos de um segundo. Para se estudar o antihidrogênio, tinha que primeiro se aumentar a sua produção. Para isso, o CERN deu início à construção do Desacelerador de Antiprótons (Figura 2).

No estudo da antimatéria, para se conseguir bons resultados experimentais, é necessário primeiro esfriá-la. O vai e vem térmico de antiátomos faz com que, pelo efeito Doppler, a absorção e emissão de radiação fiquem mais largas, diminuindo a precisão da medida. Armadilhas magnéticas e aprisionamento de antiprótons no interior de átomos de hélio têm sido usados para confinar o antihidrogênio.

Figura 3 – O experimento ASACUSA (Atomic Spectroscopy And Collisions Using Slow Antiprotons) no CERN (Crédito: CERN)

O projeto ASACUSA (Figura 3) é um experimento em andamento no CERN, com parceria japonesa-europeia, para medir a massa do antipróton. Ao se manter juntos, átomos de hélio resfriados a 1,5 K e antiprótons, cerca de 3% dos átomos de hélio substituem um dos seus elétrons por um antipróton. Ajustando-se a frequência correta de um laser, pode-se excitar o hélio antiprotônico. Os resultados experimentais de 2011, provaram que próton e antipróton têm a mesma massa numa margem de erro de uma parte em um bilhão. Em 2015, essa precisão aumentou ainda mais, para sete partes em cem bilhões.

Outra maneira de se comparar a matéria com a antimatéria é pela análise do espectro de absorção. Cada elemento tem sua própria, característica e distinta, linhas de absorção. Será que o hidrogênio e o antihidrogênio têm espectro diferente? Para responder a essa pergunta, primeiro era necessário criar um número razoável de antihidrogênios e que eles permanecessem assim, por um bom tempo, sem serem aniquilados ao entrar em contacto com a matéria ordinária.

Em 2011, o experimento ALPHA (Figura 4) desenvolvido pelo CERN, conseguiu criar e armadilhar cerca de 300 antihidrogênios durante 1000 segundos!

Mais recentemente, em março de 2021 2, em artigo que foi capa da revista Nature, C. J. Baker et al. esfriaram átomos de antihidrogênios, presos numa armadilha magnética, utilizando um laser pulsado. Todo o experimento foi realizado no ALPHA 2, uma segunda geração do equipamento usado em 2011.

Figura 4 – O experimento ALPHA (Antihydrogen Laser PHysics Apparatus) (Crédito: CERN)

A energia cinética da nuvem de antihidrogênios é diminuída usando-se o fato de que a absorção de fótons depende da velocidade dos antiátomos. Antiátomos que têm direção e sentidos apostos à dos fótons incidentes são seletivamente excitados, sintonizando-se a frequência do fóton incidente um pouquinho abaixo da frequência de ressonância do átomo em repouso (efeito Doppler). Desenhando um perfil magnético apropriado, foi possível transformar esse esfriamento unidimensional em tridimensional. A redução da energia cinética ultrapassou uma ordem de magnitude.

Na armadilha magnética, cem mil antiprótons, vindos do desacelerador de antiprótons (Figura 2) foram misturados com três milhões de pósitrons vindos de um acumulador, produzindo cerca de mil antihidrogênios. O comprimento de onda do laser pulsado utilizado foi de 121,6 nanômetros (radiação Lyman-α), com os pulsos durando 15.10 – 9 s e repetidos a cada um décimo de segundo. Uma vez esfriados os antiátomos, os pesquisadores analisaram a transição 1S – 2S do antihidrogênio e constataram que o espectro, dentro da precisão experimental, em nada diferia do hidrogênio ordinário. Devido ao esfriamento a laser, a largura da linha diminuiu por um fator quatro.

O Modelo Padrão é o modelo teórico que melhor descreve (até agora) o mundo das partículas elementares. Tem tido muito sucesso e resistido a muitas comprovações experimentais. No Modelo padrão, para cada partícula existente há uma antipartícula correspondente com a mesma massa, spin e carga (em módulo, se houver). O Modelo Padrão (assim como, a Relatividade Geral e a Teoria Quântica de Campos) pressupõe simetria CPT, isto é, invariância das leis da Física por conjugação de Carga, Paridade e reversão Temporal. A violação da simetria CP (Carga e Paridade) foi encontrada no decaimento de mésons K (kaons) eletricamente neutros, por Cronin e Fitch em 1964. A invariância CPT implica que uma violação CP é sempre acompanhada de uma quebra da simetria por reversão temporal (T). No experimento, kaons se transformam em antikaons e vice-versa, mas não com a mesma probabilidade. Esse resultado, constitui um dos principais argumentos para explicar a primazia da matéria sobre antimatéria no universo em que vivemos.

Os experimentos aqui relatados, demonstram o esforço acadêmico para encontrar mínimas e sutis diferenças entre matéria e antimatéria. Representam um bom teste para possíveis violações de importantes simetrias fundamentais da natureza.

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1 Antimatter | CERN (home.cern)

https://home.cern/science/physics/antimatter

2 C. J. Baker et al., Nature, 592, 35-42 (2021)

https://doi.org/10.1038/s41586-021-03289-6

Assessoria de Comunicação – IFSC/USP

28 de junho de 2021

Faça-se a luz!!!… Combatendo a cegueira

Crédito: Pinterest, https://pin.it/5O9u0s4

Por: Prof. Roberto N. Onody *

Estima-se que cerca de 39 milhões de pessoas no mundo todo sejam completamente cegas 1 . A China e a Índia correspondem a 45% de todos os casos, muito embora, representem apenas 36% da população mundial.  A incidência é um pouco maior nas mulheres (55%).

Felizmente, desde 1990, houve uma diminuição de 24% das crianças nascidas cegas. Contribuíram para isso, um maior controle do sarampo e da deficiência de vitamina A.

Nos casos de perdas parciais de visão, os principais causadores são: a retinopatia diabética e a catarata, para as mulheres e a opacidade córnea e o glaucoma, para os homens. Felizmente, novas técnicas estão sendo desenvolvidas, trazendo esperança para aqueles que têm perda parcial ou total de visão.

Testes clínicos foram realizados pela empresa GenSight Biologics (com sede em Paris) em uma pessoa com retinite pigmentosa. Trata-se de uma doença degenerativa, hereditária e que mata as células fotorreceptoras do olho.  Liderados pelo pesquisador José-Alain Sahel 2 (da Universidade de Pittsburgh) eles utilizaram uma técnica chamada optogenética. O paciente tinha 58 anos e era cego há 40 anos.

Por meio de uma injeção intraocular, eles inocularam um vírus codificador da proteína ChrimsonR, sensível à luz. Esta proteína tem um pico de absorção em 590 nanômetros (cor âmbar), o que causa menor constrição da pupila. Durante 4 meses, o voluntário utilizou óculos especialmente desenvolvidos para estimular a produção dessa proteína. Após um treinamento (e usando os óculos), o voluntário foi capaz de reconhecer um prato, uma caneca, um telefone, um móvel na sala e até uma porta no corredor. Muito embora, a técnica tenha sido aplicada em apenas uma pessoa, o importante, segundo o neurobiologista John Flannery da Universidade da California, “é que o método parece ser seguro e permanente” 3 .

Na mesma linha de edição gênica, busca-se tratamento para a doença amaurose congênita de Leber ou síndrome de Leber. Ela afeta crianças desde o seu nascimento, é hereditária e não tem cura. Os principais sintomas da síndrome são: dificuldade para agarrar objetos próximos, movimentos anormais dos olhos e hipersensibilidade à luz. Uma mutação no gene CEP290 é a responsável pela doença. No projeto Brilliance, Mark Pennesi, da Universidade de Oregon e expert em doenças hereditárias da retina, utiliza a técnica CRISPR-Cas9 para silenciar a mutação 4. Esta técnica, que levou ao Prêmio Nobel de Química de 2020, codifica as ferramentas de edição gênica no genoma de um vírus. No ensaio clínico, o material foi injetado diretamente nos olhos, próximo das células fotorreceptoras de luz da retina.

Em janeiro de 2021, a doutora Irit Bahar, do Departamento de Oftalmologia, do Rabin Medical Center em Israel, realizou, com sucesso, um implante de córnea artificial. Após a cirurgia, o paciente, um senhor de 78 anos, conseguiu reconhecer familiares e ler textos 5. Há somente um doador de córnea para cada 70 pessoas necessitadas. A córnea doada, tem o prazo de cerca de 1 semana para ser implantada. Além disso, para que um médico aprenda a realizar transplantes de córneas, são necessários 2 anos de treinamento 6 . Por essas razões, a criação de uma córnea sintética – a CorNeat KPro (produzida pela startup israelense CorNeat Vision) é um sopro de esperança.

Para pessoas com cegueira adquirida, em que os danos se encontram ou nos olhos ou no nervo ótico, há a proposta de uma prótese no córtex visual. A ideia é pular as etapas de visualização – olhos e nervo ótico e alcançar diretamente o córtex visual. Ela utiliza uma câmera que envia sinais para dezenas de eletrodos implantados na superfície do córtex visual.

Os eletrodos, estimulados eletricamente, produzem fosfenos. Os fosfenos correspondem ao fenômeno de ver luz sem que ela tenha entrado, de fato, pelos olhos. Podem ser produzidos mecanicamente quando, por exemplo, esfregamos os olhos numa sala escura. Os fosfenos também podem ser estimulados elétrica ou magneticamente e por drogas psicodélicas.

Durante muitos anos, a ideia dessa prótese no córtex visual não prosperou. Quando os eletrodos eram estimulados, por exemplo, com a forma da letra Z, os pacientes viam os fosfenos, só que sem forma definida, como uma nuvem.

Em 2020, M. S. Beauchamp et al. 7 fizeram experimentos em que os eletrodos eram disparados, dinamicamente, como se desenhassem a imagem na superfície do córtex. O efeito é semelhante a distribuir eletrodos na palma da sua mão e dispará-los, simultaneamente, na forma de uma letra Z – você não reconhecerá a letra. Mas, se forem disparados consecutivamente, seguindo a forma da letra Z, você reconhecerá, tatilmente, a letra. No experimento de M. S. Beauchamp et al., participaram tanto pacientes cegos como não cegos. Eles chegaram a reconhecer cerca de 86 formas por minuto.

Com o apoio da ciência e da tecnologia, o combate à cegueira prossegue, levando esperança a milhões de pessoas. Faça-se a luz!

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1  Visual Impairment & Blindness Global Data & Statistics | LESH   (lasereyesurgeryhub.co.uk)

https://www.lasereyesurgeryhub.co.uk/data/visual-impairment-blindness-data-statistics/

2 Sahel, JA. et al. Nature Medicine (2021)

https://doi.org/10.1038/s41591-021-01351-4

3 S. Reardon, https://www.scientificamerican.com/article/injection-of-light-sensitive-proteins-restores-blind-mans-vision/

4 H. Ledford, Nature 579, 185 (2020)

https://doi.org/10.1038/d41586-020-00655-8

5 P. G. Castardo, https://sciam.com.br/implante-de-cornea-artificial-faz-paciente-cego-voltar-a-enxergar/

6 https://www.medgadget.com/2021/01/corneat-synthetic-cornea-implanted-in-first-patient.html

7 M. S. Beauchamp et al., Cell, volume 181, 774 (2020)

https://doi.org/10.1016/j.cell.2020.04.033

Assessoria de Comunicação – IFSC/USP

8 de junho de 2021

Comprimindo o exoesqueleto do besouro diabólico

O besouro diabólico (Phloeodes diabolicus) – Crédito: Jesus Rivera/Kisailus Biomimetics and Nanostructured Materials Lab/University of California

Tecidos de várias espécies de animais e plantas desenvolveram estratégias eficientes para sintetizar e construir estruturas e compostos com propriedades mecânicas excepcionais.

Um exemplo impressionante é o exoesqueleto da asa dianteira do besouro diabólico (adjetivo inspirado por ele ter a cor e a forma do tinhoso, veja Figura). Essa asa, chamada de élitro, recobre e protege a parte posterior do seu corpo.  É extremamente dura. Um alfinete de aço não consegue penetrá-la 1 e nem um carro, passando por cima do besouro, consegue esmagá-lo 2.

O besouro diabólico vive no deserto e se alimenta do fungo que cresce na casca do carvalho. Há mais de 350.000 espécies de besouros terrestres, aquáticos e voadores. Muito embora o Phloeodes diabolicus tenha evoluído a partir de ancestrais voadores, hoje em dia eles não possuem mais essa capacidade.

Para se proteger de predadores, desenvolveram um élitro super-resistente, uma verdadeira armadura que recobre todo o seu corpo. Para se ter uma idéia, a densidade do exoesqueleto do besouro voador Trypoxylus dichotomus é de 0,51 g/cm3, cerca de metade da densidade de 0,97 g/cm3 do besouro terrestre Phloeodes diabolicus. Confiante na resistência dessa sua carapaça, o besouro diabólico, quando atacado, se finge de morto (tanatose).

Utilizando espectroscopia, microscopia e testes mecânicos in situ1, identificou-se, no exoesqueleto do besouro diabólico, uma estrutura em multiescala, com geometria elipsoidal e microestrutura laminada. Essa estrutura biológica torna o élitro do besouro extremamente robusto e resistente, com uma tensão crítica de 150 Newtons! Este valor é cerca de 4 vezes a força máxima que um homem adulto consegue fazer ao comprimir o dedo polegar contra o indicador.

Os dois élitros do besouro diabólico têm uma sutura medial permanente que consiste em uma série de lâminas entrelaçadas, que o tornam resistente ao esmagamento, mas que o impedem de voar. Essa sutura é uma junta mecânica muito robusta, geometricamente semelhante àquelas utilizadas em turbinas e em estruturas aeroespaciais (como as juntas Hi-Lok, que unem compostos de alumínio e carbono).

Os autores compararam as propriedades dessas juntas Hi-Lok com as do besouro diabólico. Os resultados demonstraram que a junta do besouro é melhor pois suporta pressões maiores. Além disso, a tensão é distribuída de maneira uniforme, o que evita uma eventual e repentina ruptura. É a natureza servindo de guia e inspirando a engenharia de materiais.

Referências:

1 J. Rivera et al.  Nature, volume 586, pag. 543 (2020)

https://doi.org/10.1038/s41586-020-2813-8

2 E. Pennisi

https://doi.org/10.1126/science.abf3519

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: Sr. Rui Sintra da Assessoria de Comunicação)

Assessoria de Comunicação -IFSC/USP

25 de maio de 2021

Vidro – impressão 3D e miniaturização

Por: Prof. Roberto N. Onody *

Sabe-se que o vidro já era conhecido no Egito e na Mesopotâmia cerca de 3.500 anos A.C. É, portanto, um dos materiais mais antigos usados pela humanidade. Seu componente químico preponderante é o dióxido de silício, ou sílica, que se funde à temperatura aproximada de 2.000 oC (para silicatos, a temperatura de fusão é menor, cerca de 1.500 oC). Ao longo do tempo, várias técnicas foram desenvolvidas que permitem dar diferentes formas ao vidro – da forma utilitária à forma artística.

No mundo, são produzidos, anualmente, mais do que 120 milhões de toneladas métricas de vidro. Fabricando desde garrafas e fibras óticas, até as telas touchscreens de smartphones. Muito embora o vidro tenha ótimas propriedades óticas, térmicas e mecânicas, sua grande desvantagem econômica, está na necessidade de altas temperaturas para sua confecção. Daí a preferência de utilização de polímeros termoplásticos na produção, por exemplo, de microlentes e de modernos instrumentos biomédicos.

Uma outra vantagem dos produtos manufaturados com polímeros, é a possibilidade de sua produção em larga escala industrial, utilizando a técnica da moldagem por injeção, que é rápida e econômica. Para polímeros termoplásticos, essa técnica requer temperaturas moderadas de cerca de 200 a 250 oC.

Em 2017, um grupo de pesquisadores da Universidade de Friburgo 1 adaptou uma impressora 3D para imprimir vidro, em vez de metais ou plásticos. Utilizando um polímero misturado a nanopartículas de sílica, eles imprimiram a mistura em várias formas e com tamanhos variando de 100 a 200 micrômetros (Figura 1). Depois de curar o polímero com luz ultravioleta, eles aqueceram o sistema a cerca de 800 oC, eliminando o polímero e fundindo a sílica para a obtenção do vidro.

Figura-1: a) Micro estereolitografia do portão de um castelo (barra de escala = 270 µm). b) Micro litografia de um chip microfluídico (barra de escala na inserção = 200 µm). c) Microestrutura de difração ótica. Embaixo – padrão de projeção quando ela é iluminada com luz laser verde (barra de escala = 100 µm). d) Microlentes fabricadas usando litografia cinza (barra de escala na inserção = 100 µm). 1 µm = 1 micrômetro = 10 – 6 m (Crédito: Kotz F. et al.1)

As peças de vidro assim obtidas, tinham um valor muito baixo do coeficiente de expansão térmica (da ordem de 5,2 10 -7/oC, para temperaturas entre 20 e 600 oC). Em outras palavras, tinham alta resistência a choques térmicos. Além disso, nenhuma delas apresentou qualquer alteração das suas propriedades óticas, quando atacadas quimicamente por ácidos, álcool, etc.

Muito embora, a miniaturização, a complexidade e a qualidade das peças tenham despertado a atenção da indústria, a necessidade de fazer individualmente cada peça, tornava a técnica pouco atrativa.

Seguindo essa mesma linha de usar impressoras 3D para fabricar vidro, Nguyen et al. 2 adaptaram uma técnica chamada DIW (Direct Ink Writing). Ela consiste em acrescentar, camada sobre camada, a tinta que é extrudada por um bico sobre a superfície de Teflon (Figura 2). A tinta é uma mistura de nanopartículas de sílica com o líquido tetraglime (tetraetileno glicol dimetil éter). Muito sensível é a escolha da proporção dessa mistura, pois ela deve permitir que a tinta mantenha a sua forma, após a deposição, e que ela seque, sem trincar.

 

Figura-2: Processo de impressão 3D do vidro: a) A tinta sílica-tetraglime é extrudada com a resolução desejada (barra de escala = 500 µm). b) A tinta é impressa, com a geometria escolhida, sobre uma malha de Teflon (barra de escala = 5 mm). c) A tinta é secada, deixando sobre o Teflon, uma forma compacta e porosa de sílica e substâncias orgânicas. d) Tratamento térmico de 600oC elimina os resíduos orgânicos e de 1.500oC sinteriza um vidro transparente e de alta qualidade (Crédito: Nguyen T et al.2)

Em 2018, Kotz et al. 3 investigaram a utilização de Glassomer, um nano composto de sílica que é solido à temperatura ambiente. Esse material pode ser utilizado em moldes de polímeros (que já existem em escala industrial) e com técnicas de manufaturas subtrativas (Figura 3).

 

Figura-3: Manufatura subtrativa utilizando Glassomer: a) Esculpindo a forma desejada, manualmente. b) Separação térmica a 600 oC, deixando apenas sílica que é, então, fundida a 1.300 oC (barra de escala = 1,3 cm) (Crédito: Kotz F. et al.3)

Muito embora as técnicas descritas acima permitam produzir vidros miniaturizados de alta qualidade e com várias geometrias, a sua manufatura é individual e lenta. A indústria anseia produzir vidro em grande escala e com baixo custo. No mundo dos plásticos, esses objetivos são atingidos utilizando-se a técnica de moldagem por injeção.

Figura-4: A e B – Mais de 200 peças (~brancas) feitas por moldagem por injeção. Elas foram produzidas a uma velocidade de 1 peça a cada 5 segundos. Após sinterizadas, elas se tornam vidros transparentes. C, D e E – exemplos de estruturas macroscópicas complexas construídas pelo processo de moldagem por injeção (barras de escala – 10 mm) (Crédito: Mader M. et al. 4)

Em abril de 2021, Mader M. et al.4 , utilizaram nanopartículas de sílica misturadas com polietileno glicol (PEG) e polivinil butiral (PVB). A proporção dos componentes faz com que a mistura tenha a consistência de uma pasta de dente. Esta pasta é então, injetada em moldes com a geometria desejada. Toda essa parte é feita à temperatura ambiente (Figura 4).

Em seguida, usa-se água para retirar o PEG. Isso deve ser feito cautelosamente, para não trincar o material. Para queimar e eliminar o PVB, eleva-se a temperatura para 600 oC e finalmente, para fundir a sílica, eleva-se a temperatura para 1.300 oC. O resultado é um vidro transparente e de alta qualidade. Segundo os autores, esse processo traz uma economia de 60% na produção de vidros.

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1 Kotz F. et al. Nature volume 544, 337–339(2017)

https://doi.org/10.1038/nature22061 

2 Nguyen T et al. Adv. Mater. 29, 1701181 (2017)

https://doi.org/10.1002/adma.201701181

3 Kotz F. et al., Adv. Mater. 30, 1707100 (2018) 

https://doi.org/10.1002/adma.201707100

4 Mader M. et al.  Science, Vol. 372, Issue 6538, 182-186 (2021)

https://doi.org/10.1126/science.abf1537

Assessoria de Comunicação – IFSC/USP

10 de maio de 2021

Bactérias, Celulose e Água Limpa

Figura-1: A membrana de celulose (superhidrofílica) produzida pela bactéria Gluconacetobacter hansenii é ótima para separar o óleo da água (Crédito: Zahra Ashrafi)

Por: Prof. Roberto N. Onody *

Deixe um prato sem lavar, por um certo tempo, e você notará a formação de um produto viscoso – um biofilme feito por bactérias. Tipos diferentes de bactérias produzem biofilmes diferentes.

A Gluconacetobacter hansenii é uma bactéria que oxida o açúcar ou o etanol e produz ácido acético. Essas bactérias são verdadeiras fabricas de celulose (C6H10O5)n, o mesmo material encontrado nos tecidos vegetais e que dá firmeza às plantas, só que muito mais puros. A rede de microfibras de celulose (veja Figura 1), fabricada pela Gluconacetobacter hansenii, adora água e forma uma membrana superhidrofílica. Essa membrana é o lar dessas bactérias, elas vivem ali.

Pesquisadores da Universidade do Estado da Carolina do Norte publicaram recentemente, na revista Langmuir 1, um estudo mostrando a extraordinária capacidade dessa membrana de separar e filtrar o óleo da água. Depois de removerem as bactérias e os resíduos de não celulose, o que sobra é uma membrana de celulose muito pura e robusta (Figura 2). Para que essa membrana se torne um excelente filtro é necessário que ela esteja embebida em água. Em outras palavras, a água deve molhar a membrana. Recapitulemos, brevemente, a teoria de quando um líquido molha (ou não) uma superfície.

Figura-2: À esquerda, imagem da membrana (seca) feita por microscópio de força atômica, mostrando a variação de sua espessura (em nanômetros) e o entrelaçamento das nanofibras de celulose. À direita, imagem em 3D, apresentando a microestrutura dos poros (Crédito: Z. Ashrafi et al. 1)

O estudo de molhamento de uma superfície, envolve as 3 fases – líquida (L), sólida (S) e gasosa (G). As moléculas que se encontram na fronteira, entre uma fase A e B, interagem entre si com um conjunto de forças bem diferentes daquelas envolvendo as moléculas que se encontram no interior da fase A ou da fase B (as forças de coesão). Essas forças são chamadas de tensões superficiais: γSL, γSG e γLG. Para uma superfície sólida rígida, lisa, plana e quimicamente homogênea (veja Figura 3), T. Young deduziu, em 1805, a relação de Young γSG = γSL + γLG cos(θC) que se obtém da 2ª. Lei de Newton para o equilíbrio das componentes horizontais das forças. Na vertical, o equilíbrio se faz pelas forças de adesão e θC é o ângulo de contacto. Se a superfície não é quimicamente homogênea, haverá uma distribuição (histerese) de ângulos de contacto, entre um valor máximo e mínimo.

Se o líquido for água (óleo) e molhar o substrato então, a superfície é chamada hidrofílica (oleofílica) e hidrofóbica (oleofóbica), caso contrário. Se θC > 150o, diz-se que ela é superhidrofóbica (superoleofóbica). É o que acontece, por exemplo, com a água nas pétalas da flor de Lotus ou num tecido impermeabilizado.

Superfícies reais não são lisas, mas sim, rugosas. Há dois modelos que descrevem o molhamento de superfícies rugosas.

Figura-3: As tensões superficiais entre as fases sólida, líquida e gasosa e o ângulo de contacto θC (Crédito: ref. 2) 

No modelo de Wenzel (Figura 4), o líquido penetra a superfície rugosa no ponto de contacto. Devido à rugosidade, a área da interface líquido-sólido, aumenta por um fator r. O líquido molha toda a área da interface. O novo ângulo de contacto θ* passa a ser descrito pela equação de Wenzel cos(θ*) = r cos(θC)

No modelo de Cassie (Figura 5), o líquido molha somente uma fração f da interface. Há bolsões de ar armadilhados. A equação de Cassie se escreve cos(θ*) = r f cos(θC) + f – 1

Se f = 1, recuperamos a equação de Wenzel. Voltemos agora, ao artigo de Z. Ashrafi et al. 1.

A separação do óleo da água é de suma importância no socorro ambiental, seja pelo derramamento de óleo ou tratamento do esgoto industrial. Há algumas décadas, a pesquisa cientifica se concentrou em membranas com superfícies superhidrofóbica-superoleofílica (chamadas de removedoras de óleo), muitas delas, contendo perigosos componentes a base de fluoretos. Mas, há dois problemas com essas membranas.

O primeiro é que, à medida que o óleo se acumula sobre a membrana, ela perde seu caráter superoleofílico, diminuindo o fluxo de separação. O óleo tem que ser removido e reciclado, o que diminui o tempo de vida do material. O segundo é que a água é mais densa do que o óleo e uma separação, guiada pela gravidade, não é possível.

Figura-4: O modelo de Wenzel é apropriado para sistemas em que o líquido e a superfície rugosa têm fortes forças de adesão (Crédito: ref. 2) 

Pensou-se, então, em fazer uma inversão dessas propriedades e se utilizar membranas com superfícies, simultaneamente, superhidrofílica e superoleofóbica (também chamadas de removedoras de água). Porém, se uma superfície tem energia suficientemente baixa para repelir o óleo, ela também repelirá a água, pois esta tem fortes forças de coesão, devido à presença de uma rede de pontes de hidrogênio. A tensão superficial da água é maior do que a dos óleos. Portanto, encontrar superfícies superoleofóbicas é um desafio.

A solução veio através de inspiração biológica. A escama dos peixes é superoleofóbica, com ângulo de contacto (do óleo com a escama) em torno de 156o. A explicação está no fato de as escamas possuírem micro e nano estruturas nas escamas com camadas de hidrogel cheias de água3 (o muco). Como a celulose produzida pela Gluconacetobacter hansenii tem estrutura semelhante, se infiltrarmos essa membrana com água, antes de iniciarmos a filtragem, a superfície atrairá moléculas de água e repelirá gotas de óleo (Figura 6). Se fizermos passar pela membrana de celulose embebida em água, uma corrente de mistura água e óleo (com pressão externa ou usando a própria ação da gravidade) o óleo ficará retido.

Figura-5: O modelo de Cassie é mais apropriado para sistemas em que o líquido e a superfície rugosa têm fracas forças de adesão (Crédito: ref. 2)

Os autores da pesquisa1 estudaram membranas biosintéticas de celulose. As nanofibras emaranhadas possuíam um diâmetro médio de 35 nanômetros, formando um substrato, em que a rugosidade da superfície tinha um raio quadrático médio de cerca de 57 nanômetros. Essas membranas eram então aquecidas num forno para secar e, depois de resfriadas, eram pesadas, mergulhadas em água e novamente pesadas. A capacidade média de absorção de água foi de 98,3 %, para membranas com uma espessura média de 1 mm. O valor médio estimado do ângulo de contacto do óleo com a membrana foi de 174,5o, revelando ser ela superoleofóbica. O óleo utilizado foi o n-dodecano C12 H26, cuja tensão superficial, à temperatura ambiente, vale 25 dinas/cm (contra 72 dinas/cm da água).

Finalmente, vamos analisar os resultados dos experimentos. Uma mistura de água e óleo atravessa as biomembranas (com ou sem pressão externa) e mede-se a eficiência da filtragem ε, definida por ε (%) = 100 (1 – Cf /Ci), onde, Cf é a concentração de óleo (em mg) final, depois da filtragem e Ci é a concentração de óleo (em mg) inicial, antes da filtragem. O resultado foi muito bom. Eles obtiveram ε = 99,9% à pressão de 2,3 atm e ε=99,0% à pressão de 1 atm.

Vejamos as razões para tão bom desempenho. A celulose que compõe a membrana é naturalmente hidrofílica, pois contém muitos grupos de hidroxila, que permitem a formação de pontes de hidrogênio com as moléculas da água. A água embebida na membrana, tem forte força de coesão com as moléculas da água contida na mistura óleo-água. Forma-se, sobre a membrana, uma película de água que repele o óleo, mas deixa fluir a água. Segundo os pesquisadores, esse sistema pode ser bem descrito pelo modelo de Cassie.

Figura-6 No alto, um substrato com baixa energia superficial repele tanto as gotas de óleo quanto as de água. Embaixo, o mesmo substrato embebido em água permite a passagem de água, mas repele o óleo (Crédito: Z. Ashrafi et al. 1)

No Brasil, a cepa bacteriana Gluconacetobacter hansenii também tem sido bastante estudada nos seus mais diferentes aspectos: produção e caracterização da celulose 4, tratamento de lesões da pele 5, aplicações em cosméticos 6 e sequenciamento do genoma 7.

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1 Z. Ashrafi, Z. Hu, L. Lucia e W. Krause, Langmuir 2021, 37, 2552−2562

https://doi.org/10.1021/acs.langmuir.0c02717

2 https://en.wikipedia.org/wiki/Wetting

3 Z. Ashrafi, Z. Hu, L. Lucia e W. Krause, ACS Appl. Mater. Interfaces 2019, 11, 21275−21293

4 Revista Matéria, V. 25, no. 4, ISSN 1517-7076 artigos e12844, 2020

5 https://periodicos.ufjf.br/index.php/enfermagem/article/view/3809

6 J. D.P. de Amorim et al., DOI:10.34117/bjdv5n10-099

7https://por.kyhistotechs.com/genome-sequence-plasmid-transformation-model-high-yield-bacterial-cellulose-producer-gluconacetobacter-78520097

Assessoria de Comunicação – IFSC/USP

28 de abril de 2021

No IFSC/USP – Fascínio do Universo – a série

 

Fascínio do Universo – a série. Episódio 1 – O Telescópio Gigante Magalhães (GMT). Sua construção envolve vários países. No Brasil, a parceria envolve a FAPESP, o IAG-USP e o escritório GMTBrasil. Uma realização de TV UNIVAP

 

Por: Prof. Roberto N. Onody *

Primeiramente, gostaria de dar minhas boas-vindas aos calouros ingressantes nos cursos de bacharelado de Física, Biomolecular, Computacional e Licenciatura em Ciências Exatas. A USP aperfeiçoará vocês e vocês aperfeiçoarão o mundo.

Desde o ano passado, mantenho aqui, no portal do IFSC, uma página com Notícias de Ciência e Tecnologia. A lista de artigos já publicados você encontra no final deste artigo.

Na semana passada, o canal USP passou a exibir a série: Fascínio do Universo (veja no YouTube 1). O primeiro episódio fala sobre o Telescópio Gigante Magalhães (GMT), que está sendo construído no deserto do Atacama, no Chile, a cerca de 2.500 m de altitude. Será um dos maiores telescópios terrestres do mundo e terá nitidez 10 vezes maior do que a do telescópio espacial Hubble. Possui 7 espelhos, cada um com 8,4m de diâmetro, que levam cerca de 4 anos para ficarem prontos (1 ano para esfriar e 3 anos de polimento).

Sua construção envolve um pool de países: EUA, Austrália, Coréia do Sul, Chile e Brasil. Ao custo de mais de 1 bilhão de dólares, ela é financeiramente apoiada pela FAPESP, que entrou com 40 milhões de dólares. A parceria cientifica é com o IAG-USP e o escritório GMTBrasil.

O segundo episódio, A Origem dos Átomos, estréia dia 21/04/2021.

Gostaria de deixar aqui o meu apoio à nota emitida pela Sociedade Brasileira de Física 2 em defesa da Capes e às considerações do CRUESP 3, sobre o alinhamento político das mudanças na estrutura da Capes.

Os Artigos publicados na página Notícias de Ciência e Tecnologia 4 seguem abaixo

1-A melhor fotografia astronômica de 2020

2-A Rede de Internet Quântica

3-A Síndrome de Wolfram – um laboratório para a terapia genética

4-A Solução da Conjectura de Keller

5-Abelhas podem fazer as plantas florescerem antes

6-Bio-impressão 3D para o estudo do aneurisma cerebral

7-Buracos negros supermassivos

8-Congestionamento em Marte

9-Conjecturas Matemáticas e a Máquina de Ramanujan

10-Criando um condensado de Bose-Einstein na Estação Espacial Internacional

11-Do Pêndulo ao Relógio Nuclear

12-E Betelgeuse não explodiu

13-Flutuação de cabeça para baixo num líquido levitando

14-Grafeno – um novo processo de produção

15-Localização de objetos usando um Radar Quântico

16-Nova interface da Google

17-O Computador Quântico

18-O quarto Neutrino

19-O Universo em raios-x

20-Removendo células neuronais mortas

21-Starlink: conflito entre tecnologia e ciência básica

22-Tetraquarks

23-Uma nova liga que é superelástica num grande intervalo de temperatura

24-Uma potente droga contra a Malária e a Toxoplasmose

25-Zeptosegundo – a menor unidade de tempo medida até agora

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

 

Referências:

1 O Telescópio GMT | Série Fascínio do Universo Ep. 1 – YouTube

2 Nota em defesa da CAPES (sbfisica.org.br)

3 Cruesp divulga manifesto dos reitores sobre mudanças na estrutura da Capes – Jornal da USP

4 Notícias de Ciência e Tecnologia – Portal IFSC (usp.br)

Assessoria de Comunicação – IFSC/USP

8 de abril de 2021

Já se pesquisa a criação da “Rede de Internet Quântica”

Crédito: Pakpoom Makpan/iStock/Getty Image

Por: Prof. Roberto N. Onody *

Antes de ler este artigo, recomendo uma rápida leitura do texto sobre o computador quântico publicado em 11/12/2020 1.

Enquanto um computador clássico opera utilizando bits, variáveis que podem assumir somente os valores zero ou um, o computador quântico funciona utilizando os chamados qubits, que opera numa superposição desses estados, isto é, numa combinação linear ponderada de zeros e uns. No momento, os computadores quânticos que vem sendo estudados são aqueles que utilizam ou a polarização dos fótons, ou os circuitos supercondutores (que operam em baixas temperaturas). A velocidade de processamento de um computador quântico é exponencialmente maior do que aquela do computador clássico.

Muito embora, a construção de computadores quânticos esteja dando apenas seus primeiros passos, já se pesquisa quais seriam os requisitos necessários para a criação de uma rede de computadores quânticos interligados, isto é, uma rede de Internet quântica!

Para termos uma ideia de quão importante o assunto vem se tornando, em dezembro de 2018, o congresso norte americano aprovou um documento para implementar um programa nacional de iniciativa quântica2. Seu objetivo – estabelecer metas e prioridades para, em dez anos, acelerar o desenvolvimento da ciência de informação quântica e aplicações tecnológicas. Em março de 2020, a administração Trump fez uma proposta orçamentária de 1,5 bilhões de dólares (para o ano fiscal de 2021) para as áreas de inteligência artificial e ciência de informação quântica 3.

Redes terrestres, usualmente utilizam cabos de fibra ótica para transporte do sinal. Porém, ao longo da fibra ótica, fótons se perdem e há, consequentemente, um enfraquecimento do sinal. Na internet clássica, o problema se resolve através do uso de nós retransmissores.  Neles, o sinal é amplificado e reemitido. Mas, no caso da internet quântica, a leitura feita por um retransmissor simplesmente destrói o estado de superposição e emaranhamento.

Numa comunicação quântica, pares de fótons emaranhados são enviados pela fibra ótica. o sinal segue encriptado ao longo de toda a fibra ótica até um repetidor que desencripta, encripta novamente e reenvia. Em 2017, foi feita a primeira comunicação quântica terrestre de longa distância entre Pequim e Shangai, uma distância de aproximadamente 2.000 km 4. Ela não foi genuinamente quântica porque utilizou 32 repetidores clássicos, que são exatamente os pontos vulneráveis para possíveis ataques de hackers. Como os repetidores quânticos, que estão em desenvolvimento atualmente, ainda estão engatinhando e sem uma implementação prática, os cientistas estão buscando uma solução não terrestre, via satélite.

Agora, em 2020, Juan Yin et al. 5 conseguiram enviar chaves quânticas (usando emaranhamento de fótons) a partir do satélite chinês de comunicação quântica Micius para duas bases terrestres em Delingha e Nanshan (distância de 1.120 km) na China, sem a utilização de nenhum repetidor.

Algoritmos de encriptação e desencriptação são praticamente de domínio público, o que faz a segurança de uma comunicação é a chave que encripta e desencripta a mensagem. Sabemos que uma chave clássica, mesmo que demore um tempo muito grande, pode ser quebrada. A interceptação é feita através de medidas que um bisbilhoteiro qualquer, mal-intencionado ou não, pode fazer monitorando, por um certo tempo, um canal clássico. Daí a necessidade de se usar uma chave quântica 6.

Esta é gerada no satélite Micius através de fótons emaranhados que, por serem independentes da fonte, são completamente seguros não deixando brechas para possíveis ataques. Esses pares de fótons emaranhados são, então, conduzidos para dois transmissores independentes (que estão dentro do próprio satélite Micius) e enviados aos telescópios das 2 estações terrestres. É preciso ressalvar aqui, que a velocidade de transmissão é realmente muito baixa, cerca de 0,12 bits por segundo. Mas, é um começo.

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1 Tendo como base os qubits – eis o Computador Quântico – Portal IFSC (usp.br)

2 H.R.6227 – 115th Congress (2017-2018): National Quantum Initiative Act | Congress.gov | Library of Congress

3 FY21 Budget Request: DOE Office of Science | American Institute of Physics (aip.org)

4 Is China the Leader in Quantum Communications? | Inside Science

5 Juan Yin et al, Nature 582, 501-505 (2020).

6 Erika K. Carlson, Physics 13, 104 (2020) 

Assessoria de Comunicação – IFSC/USP

23 de março de 2021

Conjecturas Matemáticas e a Máquina de Ramanujan

Figura-3: Srinivasa Ramanujan, um brilhante, talentoso e intuitivo  matemático indiano que deixou dezenas de conjecturas matemáticas (Crédito: Wikipedia.org)

Por: Prof. Roberto N. Onody *

A razão áurea φ é conhecida desde Pitágoras e Euclides. As suas propriedades e características são amplamente apreciadas por artistas matemáticos, biólogos, arquitetos, músicos e até místicos (Figura 1). A razão áurea pode ser representada por uma fração contínua infinita e periódica (veja Figura 2). Como a razão áurea φ só tem números 1 em toda a sua fração contínua, ela é a mais difícil de ser aproximada por um número racional. Diz-se que φ é o mais irracional de todos os números irracionais.

É muito difícil apontar a origem das frações contínuas. A expressão fração contínua foi cunhada pelo matemático J. Wallis (1616-1703) e os primeiros resultados analíticos estão em seu livro Opera Mathematica (1695). Em 1761, J. H. Lambert utilizou a representação da função tg(x), em frações contínuas, para provar a irracionalidade do número π. Entretanto, foi L. Euler (1707-1783) quem demonstrou os principais fundamentos das frações contínuas:

-Todo número racionalpode ser escrito como uma fração contínua finita

-Todo número irracionalpode ser escrito como uma fração contínua infinita. Se ela for infinita, mas periódica, o número é uma raiz de uma equação quadrática com coeficientes racionais.

As frações contínuas são muito úteis para representar ou aproximar as constantes matemáticas1.  As constantes matemáticas mais comuns como Pi (π=3,14…), Napier (e=2,71…) e Catalan (G=0,91…) são conhecidas com precisão quase arbitrária (número de dígitos). Já os valores das constantes físicas, como a carga do elétron, massa do próton, a constante da gravitação etc. são todas limitadas pelos próprios experimentos e pela resolução dos equipamentos.

Figura-1: Num segmento de reta, considerando a>b>0, temos a proporção áurea definida por a/b = (a+b)/a. A razão áurea, φ = a/b, satisfaz a equação φ =1+1/φ, ou seja, φ = 1,618 (Crédito: R. N. Onody)

Outra característica importante das constantes matemáticas é que, na sua maioria, elas são números irracionais e, consequentemente, podem ser expressas como frações contínuas infinitas. Dois matemáticos geniais, C. F. Gauss (1777-1855) e S. A. Ramanujan (1887-1920), são muito conhecidos por encontrarem novas fórmulas e resultados de maneira profundamente intuitiva.

Gauss não tinha pressa de publicar seus resultados. Em 1796, com 19 anos, começou a escrever o seu diário científico, que só veio a público em 1898. Nele constavam mais de 140 fórmulas, muitas sem suas respectivas demonstrações. Gauss dizia que novas ideias trovejavam em sua cabeça e que as anotava por pura compulsão de sua natureza.

Figura-2: Substituindo φ iterativamente, chegamos à sua representação em função contínua infinita e periódica (Crédito: R. N. Onody)

Ramanujan (Figura 3), um incrível matemático indiano, também mantinha um caderno de anotações2. O caderno ficou perdido até 1976. Ao ser descoberto, revelou um total de 3.900 fórmulas e identidades matemáticas. Muitas dessas conjecturas, só foram comprovadas bem depois, utilizando conceitos e ideias inexistentes à época de Ramanujan. Sem formação acadêmica, enviou alguns resultados para o Prof. G. H. Hardy, da Universidade de Cambridge, que, reconhecendo o enorme talento de Ramanujan, conseguiu trazê-lo para a Inglaterra. Intuitivo, reconhecendo padrões matemáticos em todo lugar, tornou lendário um taxi britânico de número 1729. Ao entrarem no veículo, Hardy comentou que o número do taxi nada tinha de interessante, ao que Ramanujan retrucou “Tem sim. Ele é o menor número natural que é a soma de 2 cubos e de 2 maneiras diferentes”, pois 1729 = 13+123 = 93+103.

Um grupo de cientistas da Technion3 (Israel Institute of Technology, Haifa) publicou recentemente, na revista Nature, um algoritmo que sistematiza e propõe conjecturas de fórmulas matemáticas. Vale dizer, eles desejam dar um caráter computacional à criatividade e à intuição de Ramanujan.  Para isso, eles construíram uma inteligência artificial à qual deram o nome de Máquina de Ramanujan.

Figura-4: Frações Contínuas Polinomiais FCP(n), onde an= a(n) e bn= b(n) são polinômios em n, com coeficientes inteiros (Crédito: R. N. Onody)

A máquina de Ramanujam utiliza um algoritmo que foi, por eles batizado, de MITM (Meet-In-The-Middle) e realiza computação tanto numérica quanto algébrica. Suponha que desejamos expressar uma constante matemática c (por exemplo, c = π) em frações contínuas. Lembremos que o valor de c é, em geral, conhecido com uma precisão quase infinita. O algoritmo MITM pode ser resumido em 3 etapas.

Passo 1: escrevemos uma função racional

R(c) = S(c)/T(c)

onde S(c) e T(c) são polinômios em c, com coeficientes inteiros (arbitrariamente grandes). Escolhe-se uma precisão inicial para c (digamos, 10 casas decimais). Constrói-se um número gigantesco de funções racionais {R(c)}, varrendo-se o valor de seus coeficientes inteiros e o grau do polinômio. Cada elemento do conjunto {R(c)} tem o seu valor numérico calculado e armazenado numa tabela de dispersão (hash table).

Passo 2: usando computação paralela, trabalha-se agora com as Frações Contínuas Polinomiais FCP(n) (Figura 4). Aqui, an = a(n) e bn = b(n) são funções polinomiais (de n) com coeficientes inteiros (arbitrariamente grandes). Se n é um número finito, as FCP(n) sempre podem ser escritas como uma função racional, cujo numerador parcial pn e denominador parcial qn são obtidos recursivamente

pn+1 = an+1 pn + bn+1 pn-1   ;  com p-1 = 1 e p0 = a0

qn+1 = an+1 qn + bn+1 qn-1   ;  com q-1 = 0 e q0 = 1

Figura-5: A constante de Napier em Frações Contínuas Polinomiais. Pode ser calculada com a precisão desejada, truncando-se, para um certo n = N, as recorrências dos numeradores e denominadores parciais pn e qn (Crédito: R. N. Onody)

Varrendo-se os coeficientes inteiros e o grau dos polinômios a(n) e b(n), constrói-se um conjunto {FCP(N)}, onde N é o número de iterações necessárias para que, cada elemento, seja calculado com precisão de 10 casas decimais.

Passo 3: Comparando-se os valores numéricos dos conjuntos {R(c)} e {FCP(N)}, aqueles que coincidirem (até 10 casas decimais) são escolhidos para recomeçar todo o processo. O valor da constante matemática c é substituído por um novo valor c’, com precisão maior (por exemplo, de 20 dígitos). Retorna-se ao Passo 1. Dessa maneira, soluções falso positivas em c serão eliminadas em c’.

Os autores prosseguiram o algoritmo MITM até a precisão de 2.000 dígitos! Eles obtiveram dezenas de novas expressões para uma variedade de constantes matemáticas e, muitas delas, com convergência mais rápida. Para deixar tudo um pouco mais claro, ilustramos na Figura 5, o caso da constante de Napier e (a expressão, conjecturada pela máquina de Ramanujan, já foi demonstrada teoricamente).

Figura-6: Algumas constantes matemáticas que os autores da pesquisa gostariam de ver analisadas pela máquina de Ramanujan
(Crédito: 3 G. Raayoni et al)

Outra constante matemática, sobre a qual eles se debruçaram, foi a constante de Catalan G. Até hoje, não se sabe se G é um número irracional ou não. Os pesquisadores encontraram várias representações de G em frações contínuas generalizadas. Por exemplo, uma expressão, ainda sem demonstração teórica, é a seguinte

2/(2G-1) = FCP [an = 3+n(7+3n), bn = – (6+2n)(n+1)3 ], n=0,1,2,..

Claro, todo o processo MITM requer muito esforço computacional. À semelhança do que acontece com a busca internacional dos números primos de Mersenne4, todo o projeto (códigos e resultados atualizados) foi disponibilizado ao público no site http://www.ramanujanmachine.com/.

Na Figura 6, apresentamos algumas constantes matemáticas que, os autores do artigo, gostariam de ver investigadas pela máquina de Ramanujan.

Mais do que em qualquer outra ciência, a matemática possui conjecturas famosas em grande profusão. Propostas por matemáticos geniais e intuitivos, as conjecturas têm um papel muito importante em toda a história e o desenvolvimento da matemática. Quer elas já tenham sido demonstradas ou não (ou, eventualmente descartadas, caso inverídicas), as conjecturas matemáticas têm enorme potencial de atrair, fascinar e motivar pessoas, aglutinando e gerando novos conhecimentos.

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1 S. Finch, Mathematical Constants (Cambridge Univ. Press, 2003).

2 B. C. Berndt, Ramanujan’s Notebooks (Springer Science & Business Media, 2012).

3 G. Raayoni et al. Nature, 590, 67-73 (2021)

https://www.nature.com/articles/s41586-021-03229-4

4 https://www.mersenne.org/

Assessoria de Comunicação – IFSC/USP

 

9 de março de 2021

Do Pêndulo ao Relógio Nuclear

Ilustração artística do Relógio Nuclear (Crédito: P. G. Thirolf et al., Ann. Phys. 531, 1800381 (2019)

Por: Prof. Roberto N. Onody *

Medir o tempo sempre foi uma necessidade humana. Até o Renascimento, as medidas de tempo se baseavam nas fases lunares ou na rotação da Terra para definir o dia e nas diferentes posições do Sol no céu, em cada estação, para definir o ano. Depois disso, vieram os relógios de pêndulos e os relógios mecânicos. Mas, medir intervalos de tempo com maior precisão era crucial.

O primeiro relógio de cristal quartzo foi construído por Marrison  e Horton nos laboratórios da Bell Telephone, em 1927. O quartzo é um material piezoelétrico, isto é, ele se deforma mecanicamente pela passagem de corrente elétrica e vice-versa. A frequência de vibração ressonante do cristal de quartzo varia, tipicamente, de 30 a 100 KHz, acima, portanto, do limite superior da audição humana que é de cerca de 20 KHz. Hoje em dia, os mais modernos relógios de quartzo, atrasam ou adiantam aproximadamente 1 segundo em 150 anos. Os relógios de quartzo foram utilizados para medir o tempo padrão da década de 1930 até 1960, quando foram, então, substituídos pelos relógios atômicos.

Ao contrário do cristal de quartzo, cujas propriedades dependem da sua clivagem e características químicas, os átomos de qualquer elemento da Tabela Periódica são os mesmos em qualquer parte, aqui na Terra ou no espaço. Os elétrons absorvem radiação eletromagnética, com frequência muito bem definida, para saltar (ou decair) de um nível de energia a outro. A interação do núcleo atômico com a nuvem de elétrons que o rodeia, leva ao surgimento de uma estrutura hiperfina, na qual um nível de energia, antes degenerado (que significa, ter mais de um estado atômico com a mesma energia), se abre em dois ou mais novos níveis de energia. É, na transição do elétron entre esses níveis, que se baseiam os relógios atômicos.

O primeiro relógio atômico1,2 foi construído em 1949 no NIST (National Institute of Standards and Technology) e a substância utilizada era a amônia (NH3). Era um relógio bastante impreciso. No ano de 1955, o NPL (National Physical Laboratory, Reino Unido) construiu o primeiro relógio atômico de césio 133.

(Figura 1) – Esquema de funcionamento de um relógio atômico, tipo fonte, de césio 133 (Crédito: NIST (National Institute of Standards and Technology))

O relógio atômico de Césio 133 é o padrão que hoje define, o valor de um segundo. Na definição do Sistema Internacional de Unidades, um segundo é a duração de 9.192.631.770 períodos da radiação eletromagnética proveniente da transição eletrônica entre os dois níveis hiperfinos de energia, do estado fundamental do átomo de césio 133, na temperatura de zero absoluto (na prática, o mais próximo que se puder aproximar de 0 Kelvin). Essa radiação corresponde a um comprimento de micro-onda de 3,2 cm e uma energia de 3,79 10-5 eV.

O Césio 133 é o único isótopo estável, não radioativo (seu número atômico é 55). O seu estado fundamental (isto é, o estado com energia mais baixa) se abre, pela interação hiperfina, em dois níveis de energia, rotulados F=3 (energia mais baixa) e F=4 (energia mais alta). Como a probabilidade de decaimento do estado F=4 para F=3 é muito baixa, os átomos excitados para F=4 podem lá permanecer por um longo tempo.

Um pequeno esboço do funcionamento de relógio atômico de césio tipo fonte 3 é o seguinte (Figura 1): átomos de césio entram numa câmara a vácuo e têm seu movimento freado por lasers que fazem a temperatura do gás se aproximar do zero absoluto e dão ao gás um formato esférico; um laser vertical impulsiona a nuvem de átomos de césio para cima (daí o nome, fonte), fazendo-a penetrar numa cavidade de micro-ondas (que opera numa certa frequência); os lasers são desligados; a gravidade puxa a nuvem de césio para baixo fazendo-a passar, novamente, pela cavidade; nesse trajeto, parte dos átomos têm seu estado atômico alterado; ao saírem da cavidade, os átomos são iluminados por um outro laser; somente aqueles átomos que foram alterados no interior da cavidade emitem fótons (fluorescência) que são, então,  medidos por um detetor; o procedimento se reinicia, só que agora com a cavidade operando em nova frequência; o processo todo termina quando se obtém um máximo de fluorescência. A frequência ressonante em que isso acontece é a que define o segundo.

Um relógio atômico de césio tipo fonte pode chegar a uma precisão 3. 10-16 s, ou seja, atrasar 1 segundo em 100 milhões de anos. Há outros tipos de relógios atômicos de césio, mas são menos precisos. Por exemplo, a bordo dos 24 satélites que compõem o GPS (Global Positioning System), esses relógios têm precisão de 2.10-12 s, isto é, eles atrasam 1 segundo em 63.000 anos. Recentemente, em 2019, a NASA lançou ao espaço um satélite munido de um relógio atômico (Deep Space Atomic Clock) que utiliza íons de mercúrio e é 50 vezes mais preciso do que os do GPS.

O Instituto de Física de São Carlos (IFSC) e a Escola de Engenharia de São Carlos (EESC), da Universidade de São Paulo, já há muitos anos, constroem e mantêm relógios atômicos genuinamente brasileiros 4. O Laboratório de Tempo e Frequência, dessas instituições, faz parte do conjunto de laboratórios coordenados pelo Escritório Internacional de Pesos e Medidas (com sede na França) e que define o tempo atômico internacional (Figura 2).

Até aqui, vimos relógios atômicos que operam nas frequências de micro-ondas. Os físicos J. L. Hall e T. W. Hänsch receberam o Prêmio Nobel de Física de 2005 pelo desenvolvimento teórico do chamado relógio atômico ótico. Ótico aqui significa que a frequência de ressonância do relógio está no visível, isto é, de 400 a 790 THz (THz = 1 terahertz = 1012 Hz). Uma frequência de 500 THz é, aproximadamente, 50 mil vezes maior do que aquela operada pelo relógio atômico de micro-ondas (césio).

(Figura 2) – Um dos relógios atômicos do Laboratório de Tempo e Frequência da USP-São Carlos (Crédito: IFSC/EESC-USP)

Para implementar o relógio atômico ótico, novas e importantes tecnologias tiveram que ser desenvolvidas. por exemplo, pentes de frequência de femtosegundo (que corresponde a 10-15 s) e redes óticas.

Os pentes de frequência3,5 são fontes de laser cujo espectro consiste em uma sequência, discreta e igualmente espaçada, de linhas de frequências. As frequências do visível são muito altas para que um dispositivo eletrônico consiga contar o número de ciclos de oscilação. Daí a necessidade dos pentes de frequência da ordem de femtosegundos, que os transforma em sinais de micro-ondas.

As redes óticas são construídas utilizando-se feixes de laser que se interceptam e interferem, formando uma onda estacionária com picos e vales aprisionando os átomos3,6 (como os ovos numa cartela). É chamada de rede ótica, porque os átomos se distribuem como numa rede periódica cristalina. São átomos ou íons ultrafrios, o que diminui, substancialmente, a largura de linha (causada pelo efeito Doppler da agitação térmica) da transição.

Por volta de 2013, a precisão dos relógios atômicos óticos superou a do césio 7. Na Figura 3 temos: no eixo da ordenada, a incerteza fracionária, que mede a probabilidade de desvio da frequência do relógio em relação à frequência de ressonância e, na abcissa, o tempo (em anos).

Utilizando alguns milhares de átomos do isótopo Estrôncio 87 (número atômico 38), na forma de um gás degenerado de Fermi (um gás quântico de partículas fermiônicas), presos em redes óticas 3D e que ficaram coerentes por 15 segundos, G.E. Marti et al.8 conseguiram um relógio atômico ótico com incerteza fracionária de 2,5 10-19. Isso significa que ele atrasa 1 segundo em 127 bilhões de anos, quase dez vezes a idade estimada do universo. Com tanta precisão, em breve, o Sistema Internacional de Unidades poderá redefinir 1 segundo a partir de relógios atômicos óticos.

Observando a evolução dos relógios, temos as seguintes frequências de operação: 1 Hz para os pêndulos, 105 Hz para os relógios de cristal de quartzo, 1010 Hz para os relógios atômicos de césio (micro-ondas), 1015 Hz para os relógios atômicos óticos (visível). Um relógio é tanto melhor e mais preciso, quanto mais alta for a sua frequência de operação e menor a sua largura de linha (mais baixa a temperatura).

(Figura 3) – Evolução temporal dos relógios atômicos (Crédito: L. Sharma et al.7)

Para aumentar ainda mais a frequência (energia) dos relógios, precisamos recorrer às transições nucleares. Uma instrumentação que permita gerar e medir transições nucleares com muita precisão, é absolutamente fundamental para se construir um relógio nuclear (Figura 4).

Um núcleo atômico, formado por prótons e nêutrons, pode ser levado do seu estado fundamental para um estado excitado, que é chamado de isômero. O problema é que, na imensa maioria dos casos, a diferença de energia entre o estado fundamental e o primeiro estado excitado é da ordem de 103 eV a 106 eV. Em outras palavras, o decaimento gera uma radiação eletromagnética com frequências entre 1017Hz e 1020Hz (raios-x e raios-gama). E não dispomos, hoje, de espectroscopia laser operando nessas energias.

Mas, foi encontrada uma exceção. Em 1976, L.A. Kroger e C. W. Reich, estudando a estrutura nuclear do isótopo tório 229 (número atômico 90), previram a existência de um estado excitado, pela ausência de emissão de um raio-gama. Em 2003, E. Peik e C. Tamm mostraram que a transição ocorria na região do ultravioleta, sendo acessível, portanto, aos lasers atuais.

O tório 229 é um metal fracamente radioativo. Ele tem uma meia-vida de 7.920 anos e decai, via partículas alfa (formada por 2 prótons e 2 nêutrons), no elemento rádio. O núcleo excitado isomérico do tório 229 é metaestável. Entretanto, para se excitar esse estado através de um laser de banda estreita, há que se conhecer, com muita precisão, o valor da frequência de transição. E, durante muitos anos, a determinação dessa frequência permaneceu elusiva9.  

Em 2020, T. Sikorsky et al.10, utilizaram o decaimento alfa do urânio 233. O urânio decai em vários estados do tório, incluindo o primeiro estado excitado metaestável. A energia de transição foi medida através de um equipamento dedicado, o micro calorímetro magnético criogênico. O valor obtido foi 8,10 (+ – 0,17) eV (o que equivale a uma frequência de 1,96 1015 Hz). Os autores observaram que a barra de erro é de natureza apenas estatística, não sistemática, podendo ser melhorada com mais experimentos.

Tal precisão do relógio nuclear permitiria investigar, por exemplo, se há ou não, variação temporal da constante alfa de estrutura fina (que mede a intensidade da interação eletromagnética). Essa variação temporal poderia ser causada pela presença da matéria escura e obrigaria a uma revisão do Modelo Padrão das partículas elementares.

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1 https://www.nasa.gov/feature/jpl/what-is-an-atomic-clock

2 https://en.wikipedia.org/wiki/Atomic_clock

3 http://www.physics.udel.edu/~msafrono/626/Lecture%2016.pdf

4 https://www2.ifsc.usp.br/portal-ifsc/relogio-atomico-na-usp-de-sao-carlos/

5 https://www.rp-photonics.com/optical_clocks.html

6 https://www.nist.gov/topics/physics/what-are-optical-lattices

7 L. Sharma et al.  MAPAN (2020).

https://doi.org/10.1007/s12647-020-00397-y

8 G.E. Marti et al. PHYSICAL REVIEW LETTERS 120, 103201 (2018)

https://doi.org/ 10.1103/PhysRevLett.120.103201

9 L. von der Wesen, https://physics.aps.org/articles/v13/152

10 T. Sikorsky et al. PHYSICAL REVIEW LETTERS 125, 142503 (2020)

https://doi.org/ 10.1103/PhysRevLett.125.142503

Assessoria de Comunicação – IFSC/USP

25 de fevereiro de 2021

A Síndrome de Wolfram – um laboratório para a terapia genética

Proteínas mal enoveladas (laranja) no Retículo Endoplasmático -responsáveis pelo mal de Wolfram (Crédito: V. ALTOUNIAN/SCIENCE)

Por: Prof. Roberto N. Onody *

A síndrome de Wolfram é uma doença hereditária fatal e muito rara. Estima-se que cerca de 15.000 a 30.000 pessoas, em todo o mundo, sejam portadoras desse mal 1.

Durante a Grande Depressão na década de 30, quatro crianças diagnosticadas com diabetes e que estavam ficando cegas, foram examinadas pelo Dr. Donald Wolfram em Rochester, Minnesota. Ele e seu colega oftalmologista, descartaram a hipótese de uma dieta pobre e de má nutrição (à época, o diagnóstico prevalecente) dessas crianças, como causadoras dos sintomas. Em 1938, eles concluíram que os sintomas eram “uma manifestação hereditária ou lesão cerebral adquirida”.

A síndrome de Wolfram é uma doença de corpo inteiro. Seu primeiro sintoma, é o diabetes mellitus ou diabetes do tipo 1, um distúrbio metabólico causado pelo excesso de glicose no sangue (em geral, pela baixa produção de insulina no pâncreas). O diabetes já se manifesta nos primeiros anos de vida. A maior parte dos pacientes também desenvolvem o Diabetes insipidus, quando a glândula pituitária não produz hormônios suficientes para o balanceamento do fluido corporal, levando os rins a produzirem níveis elevados de urina. A doença ataca também o cerebelo, levando à perda de coordenação e controle do movimento. À medida que a doença progride, o paciente passa a ter perda de visão, surdez, dificuldade de respirar, de caminhar e de engolir. A maior parte dos portadores da síndrome Wolfram morrem antes completar 40 anos de idade.

Por ser uma doença rara, é muito difícil angariar fundos para financiar o seu estudo. Porém, em anos recentes, isso vem se alterando. Descobriu-se que o principal responsável pela síndrome é o mal funcionamento do reticulo endoplasmático ou ergastoplasma (Figura 1). O reticulo endoplasmático (RE) é uma organela da célula que participa da formação final de proteínas, enovelando-as. Cerca de 1/3 das proteínas ganham sua forma correta ali.

No ser humano, de 20 a 25 mil genes codificam perto de 2 milhões de proteínas. O gene WFS-1 é o responsável pela proteína wolframina. Uma mutação recessiva nesse gene, faz com que a wolframina se enovele incorretamente no RE. O acúmulo de wolframinas mal enoveladas, leva ao chamado estresse do RE. Mas, o estresse do RE é, sabidamente, uma condição também existente em várias outras doenças como o diabetes tipo 2, mal de Parkinson, mal de Alzheimer e a esclerose lateral amiotrófica. Por conseguinte, investigar a síndrome de Wolfram também auxiliará no estudo e na compreensão daquelas outras doenças.

A síndrome de Wolfram é uma doença monogênica progressiva. Por ser monogênica é muito mais ‘simples’ estudá-la. Segundo Fumihiko Urano, da Escola de Medicina da Universidade de Washington, “A síndrome de Wolfram é o protótipo de uma desordem no retículo endoplasmático”. É um laboratório para se investigar o estresse do RE. Quando as células não conseguem aliviar esse estresse, elas se autodestroem. Daí o porquê de tantos neurônios e células beta (que sintetizam a insulina) mortas.

Segundo a fisiologista Barbara Ehrlich, da Escola de Medicina de Yale, a wolframina defeituosa pode afetar as células de uma outra maneira. O RE, continuamente, absorve e libera íons de cálcio. Na presença da wolframina malformada, o fluxo de cálcio se desregula levando, por exemplo, à contração das células do músculo do coração. Nessa mesma linha, uma equipe da Agência Francesa de Pesquisa Biomédica (INSERM) descobriu que, nas células dos portadores da síndrome de Wolfram, a mitocôndria recebia menos cálcio do RE, produzindo, então, menos energia e desencadeando, eventualmente, a morte das células do nervo ótico.

Testes clínicos com o relaxante muscular Dantrolene começaram em 2016. Em muitos pacientes, as células beta melhoraram seu desempenho aumentando a produção de insulina, mas não houve nenhum benefício para a visão. Um outro experimento, realizado em 2018 no Reino Unido, testou, em laboratório, o medicamento Valproato de Sódio (usado, originalmente, para tratamento de epilepsia e desordem bipolar). Houve uma diminuição substancial da morte das células com malformação da wolframina. Em artigo publicado este ano, K. Seppa et al. 2, realizaram experimentos em ratos portadores da síndrome de Wolfram. Eles constataram que o tratamento com as drogas Liraglutida (utilizada para diabetes) e 7,8 Dihydroxyflavone impedia a progressão da perda de visão e do declínio cognitivo. Em alguns casos, os ratos apresentaram um aumento na acuidade visual e regeneração de neurônios.

Num ataque mais direto às causas do que aos efeitos da doença, estão em desenvolvimento duas linhas de pesquisas baseados em terapia genética.

Na primeira técnica, células de portadores da síndrome são levadas ao laboratório, onde são injetadas cópias de genes saudáveis (que produzem a wolframina corretamente enovelada). Em seguida, analisa-se se há restauração do funcionamento normal das células e redução da morte celular.

A segunda técnica, utiliza o editor de genoma CRISPR. CRISPR (que significa Clustered Regularly Interspaced Short Palindromic Repeats) é um avanço espetacular de engenharia genética que permite, localizar, remover e substituir genes em organismos vivos! As cientistas Doudna e Charpentier, receberam o Prêmio Nobel de Química de 2020, por esse desenvolvimento. A equipe de K. G. Maxwell 3, utilizando o editor CRISPR, removeu os genes defeituosos das células tronco de um paciente portador da síndrome de Wolfram, substituindo-os pela versão saudável. Essas células tronco foram, então, diferenciadas para se tornarem células beta e transplantadas em ratos com diabetes. Os animais retornaram a um nível saudável de açúcar no sangue, sem diabetes.

Esse experimento e seus resultados animadores, fazem da síndrome de Wolfram, um laboratório ideal para aplicar e se acompanhar o desenvolvimento de uma terapia genética. A morte das células, causada pelo mal enovelamento de proteínas, é bastante comum em doenças neurodegenerativas. Por exemplo, no mal Alzheimer, várias proteínas malformadas se acumulam tanto dentro quanto fora dos neurônios comprometidos. O tratamento por terapia genética é bem mais difícil, pois as proteínas envolvidas estão ligadas a múltiplos genes.

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências

1 The race to treat a rare, fatal syndrome may help others with common disorders like diabetes | Science | AAAS (sciencemag.org)

Mitch Leslie, doi:10.1126/science.abh0281

2 Liraglutide, 7,8-DHF and their co-treatment prevents loss of vision and cognitive decline in a Wolfram syndrome rat model | Scientific Reports (nature.com)

K.Seppa et al. Scientific Reports volume 11, 2275 (2021)

3 Gene-edited human stem cell–derived β cells from a patient with monogenic diabetes reverse preexisting diabetes in mice | Science Translational Medicine (sciencemag.org)

10-G. Maxwell et al., DOI: 10.1126/scitranslmed.aax9106

Assessoria de Comunicação – IFSC/USP

 

 

 

 

 

 

 

 

 

 

*Físico, Professor Sênior do IFSC – USP

Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação

 

Referências:

 

15 de fevereiro de 2021

Missões espaciais fazem congestionamento em Marte

Figura 1 – A sonda Hope com seus painéis solares estendidos. (Crédito: Mohammed bin Rashid Space Centre (MBRSC))

Por: Prof. Roberto N. Onody *

Três missões espaciais com destino a Marte fazem o planeta vermelho ser, hoje, o mais cobiçado alvo da pesquisa espacial. Todas as três espaçonaves (que pertencem a três países diferentes) foram lançadas no mês de julho de 2020, aproveitando as condições favoráveis, mais precisamente, a oposição (menor distância) de Marte em relação à Terra que ocorreu em outubro de 2020.

A primeira sonda que chegou em Marte foi a Al Amal ou Hope (Esperança), foi construída pelos Emirados Árabes Unidos em parceria com a NASA e várias Universidades norte-americanas (Figura 1). Ela foi lançada pelo foguete Mitsubishi H-IIA no centro espacial japonês de Tanegashima. O projeto é comandado pela agência espacial dos Emirados Árabes Unidos (criada há apenas 7 anos) e tem um custo estimado de 200 milhões de dólares.

Hope1 entrou em órbita marciana no dia 09 de fevereiro de 2021. Segundo Sarah Al Amiri, gerente do projeto, a parte mais difícil da missão foi a inserção da sonda Hope na sua órbita (que é bastante elíptica e tem período de 55 horas) em torno de Marte. Este procedimento consumiu cerca de 50% do combustível da espaçonave, ao reduzir sua velocidade de 121.000 km/h para 18.000 km/h. Embora a missão tenha se completado dentro do calendário e do orçamento previstos, a pandemia do Covid-19 representou também um desafio, pois grupos de engenheiros eram enviados ao Japão, de duas em duas semanas, para que se cumprisse a quarentena obrigatória de 14 dias. O objetivo da missão é estudar o clima do planeta. Para isso, a Hope tem a bordo, equipamentos que operam nos comprimentos de luz visível, infravermelho e ultravioleta.

A segunda espaçonave que chegou em Marte foi a Tianwen-1 (que significa “perguntas celestiais”) lançada pela China a partir da ilha Hainan 2. O foguete lançador utilizado foi o “Longa Marcha 5”.

A Tianwen-1 entrou em órbita de Marte no dia 10 de fevereiro de 2021, exatamente um dia depois da Hope.  Em 2011, a China em parceria com a Rússia, construiu uma sonda para pousar no satélite Fobos, mas a missão fracassou. Depois disso, a China investiu forte em ciência e tecnologia espacial, trazendo amostras do solo lunar através da missão Chang’e 5 (2020), agora orbitando Marte (2021) e preparando a sua Estação Espacial Chinesa Tiangong-3 com lançamento previsto para 2023 (um módulo já está pronto).

A Tianwen-1 (Figura 2) pesa 5 toneladas e carrega um módulo de aterrissagem, um orbitador e um rover. Ainda não foi escolhido o nome do rover. Na página da gigante de Internet Baidu há uma lista de 10 nomes (até o dia 28 de fevereiro) para ser votado.

Figura 2 – A sonda Tianwen-1, fotografada por uma pequena câmera que foi ejetada da espaçonave quando estava a 24 milhões de quilômetros da Terra. (Crédito: China National Space Administration)

O local escolhido para pousar o rover é a Utopia Planitia, uma enorme planície com rochas vulcânicas onde, há mais de 30 anos, desceu a nave Viking 2 da NASA. O rover, que deve pousar no solo marciano somente no mês de maio, deve funcionar por cerca de 90 dias em solo marciano. Leva instrumentos para análise do solo, topografia, um magnetômetro, um radar que penetra o solo e que trará importantes informações sobre as camadas geológicas e, eventualmente, a presença de água. O orbitador carrega câmeras de alta resolução e instrumentos para análise do clima.

A terceira sonda, a Perseverance3 (Perseverança) foi lançada pela NASA a partir do Cabo Canaveral por um foguete Atlas V. Ela teve alguns problemas iniciais de telemetria que foram superados. Está programada para pousar (de paraquedas, exatamente como seu antecessor, o Curiosity) em 18 de fevereiro. Será transmitida ao vivo (com atraso de alguns minutos) pelo YouTube4.

Este rover (Figura 3) pesa uma tonelada, transporta 19 câmeras e 2 microfones. Possui um braço mecânico de dois metros e baterias carregadas por plutônio. Ele é bem mais forte e mais rápido do que o rover Curiosity (pousou em Marte em 2012), podendo percorrer distâncias de 200 metros por dia.

Figura 3 – Concepção artística da sonda Perseverance perfurando solo marciano (Crédito: NASA)

O objetivo principal da missão é descobrir se Marte já teve ou se tem vida. O rover vai coletar amostras de rochas em tubos que deverão ser recolhidos e trazidos de volta à Terra numa próxima expedição espacial. O rover Perseverance pretende pousar na cratera de Jezero, que os cientistas acreditam tenha sido anteriormente um delta de um rio ou lago.

Deverá também, tentar fazer decolar o helicóptero Ingenuity (peso 1,8 kg) na atmosfera de Marte, cuja densidade é 1% da atmosfera terrestre. O helicóptero deverá escoltar o rover Perseverance analisando, com antecedência, o terreno por onde ele passará. Os dois microfones a bordo, devem permitir não só a revelar os ventos e os sons de Marte, mas também fazer com que sejam ouvidos eventuais problemas nos motores ou nas rodas do rover.

O rover Perseverance será o terceiro veículo em solo marciano, pois lá também estão (ainda ativos) o Curiosity e o InSight. Em órbita também estão, além do Hope e o Tianwen-1, mais seis orbitadores das missões: Mars Odyssey (da NASA, desde 2001), Mars Express (da European Space Agency, desde 2003), Mars Reconnaissance Orbiter (da NASA, desde 2006), Mars Orbiter Mission (da Indian Space Reseach Organization, desde 2014), Maven (da NASA, desde 2014) e a ExoMars Trace Gas Orbiter (da European Space Agency em conjunto com a Roscosmos, desde 2016). Haja trânsito!

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: ao Sr. Rui Sintra da Assessoria de Comunicação)

Referências:

1 Elation as first Arab Mars mission reaches orbit (nature.com)

https://doi.org/10.1038/d41586-021-00347-x

2 China’s Tianwen-1 enters Mars orbit | Science | AAAS (sciencemag.org) https://doi.org/10.1126/science.abh0268

3 Mars Perseverance Rover | NASA

4 (98) JPLraw – YouTube ou (12) NASA Jet Propulsion Laboratory – YouTube

Deverá pousar 5ª.f, dia 18/02/2021, às 16:15 h, horário de Brasília

Assessoria de Comunicação – IFSC/USP

17 de dezembro de 2020

Zeptosegundo – a menor unidade de tempo medida até agora

Em A – Cor roxa: padrão de interferência entre dois elétrons rápidos (velocidade de 1,6 107 m/s), com energias de 735 eV, produzidos por um único fóton circularmente polarizado, com energia de 800 eV e distância média internuclear de 7,4 10 -11m. Cor azul: padrão de interferência de luz (raios-x) com comprimento de onda 4,5 10 -11m (que é exatamente o comprimento de onda de Broglie associado aos elétrons rápidos) para dupla fenda com separação de 7,4 10 -11m entre os furos. Crédito: Grundmann et al 2

Por: Prof. Roberto N. Onody*

Um zeptosegundo corresponde a unidade de tempo 10 – 21 segundos, isto é, 0,000 000 000 000 000 000 001 segundos. Para se ter idéia de quão pequeno é esse intervalo de tempo, a luz violeta, no limite do visível, tem período de 1,3 10 -15 segundos, cerca de um milhão de vezes maior do que o zeptosegundo!

Todo o espectro da luz visível está na faixa de um femtosegundo = 10 -15 segundos. O femtosegundo é o intervalo de tempo em que as ligações químicas se formam ou se quebram. Estudar reações químicas através da luz envolvida criou uma área chamada de femtoquímica. Foi uma pesquisa utilizando femtoquímica que deu ao egípcio (depois naturalizado norte-americano) Ahmed Zewail o Prêmio Nobel de Química de 1999.

Em 2016, usando laser pulsado em átomo de Hélio, Ossiander et al.1 mediram tempos da ordem de 850 zeptosegundos.

O novo recorde veio agora em 2020. A ideia do experimento, realizado por Grundmann et al 2, é medir o tempo que a luz leva para percorrer a distância de uma molécula de Hidrogênio (H2). Eles bombardearam moléculas de Hidrogênio com raios-x gerados no sincrotron DESY (Deutsches Elektronen-Syncroton) localizado em Hamburgo.

Eles sintonizaram a energia do feixe de raios-x de modo que um único fóton arrancasse os dois elétrons da molécula de Hidrogênio. O fóton arrancava um elétron do primeiro átomo de Hidrogênio e, em seguida, o elétron do segundo átomo de Hidrogênio. Algo semelhante ao que acontece quando arremessamos uma pedra na superfície de um lago e ela quica duas vezes.

Esses dois elétrons, fotoemitidos em tempos diferentes, criam um padrão de interferência que foi analisado com o microscópio COLTRIMS (Cold Target Recoil Ion Momentum Spectroscopy). Esse experimento é completamente análogo à interferência da luz após passar por uma fenda dupla (veja Figura).

O valor encontrado para a luz atravessar a molécula de Hidrogênio foi de 247 zeptosegundos!

Um zeptosegundo é realmente um tempo muito pequeno, porém, ele é gigantesco quando comparado com o tempo de Planck, que vale cerca de 5,4 10 – 44 segundos.

Muitos autores acreditam que eventos que ocorram em tempos menores do que o tempo de Planck não precisariam seguir as Leis da Física e que a formação das partículas virtuais, na eletrodinâmica quântica, se daria em tempos menores do que o tempo de Planck.

Referências :

1 https://www.nature.com/articles/nphys3941?proof=trueMay

2 S. Grundmann, D. Trabert, K. Fehre, N. Strenger, A. Pier, L. Kaiser, M. Kircher, M. Weller, S. Eckart, L. Ph. H. Schmidt, F. Trinter, T. Jahnke, M.S. Schöffler and R. Dörner, Science 370 (6514), 339-341

DOI: 10.1126/science.abb9318

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: Sr. Rui Sintra da Assessoria de Comunicação)

Assessoria de Comunicação – IFSC/USP

11 de dezembro de 2020

Tendo como base os qubits – eis o Computador Quântico

Figura-1 – O chip do dispositivo Sycamore, com 53 qubits, feito pela Google – o computador quântico supercondutor. (Crédito:Erik Lucero)

Por: Prof. Roberto N. Onody*

Computadores clássicos baseiam-se em informações contidas em bits. O bit é uma variável que pode assumir apenas dois valores: 0 ou 1. Quando, no circuito, um capacitor está sem carga associamos o valor zero e quando está totalmente carregado associamos o valor um. O estado da memória de um computador nada mais é do que o conjunto dos valores de seus bits. Para alterarmos o estado da memória de um computador, precisamos de um código computacional, da mesma maneira que, para entendermos a evolução temporal de um sistema natural qualquer, precisamos das leis da Física.

Esse circuito de bits, composto por transistores e capacitores, formam a DRAM (Dynamical Random Access Memory). Se nós tivermos n bits, o número total de estados será 2n. Os estados 0 ou 1 correspondem, respectivamente, a ausência ou a presença de uma carga adicional no capacitor de, digamos, 300.000 elétrons. Por que tantos elétrons, por que não operar apenas com um único elétron? Os elétrons são partículas muito leves e estão em constante movimento. Se a carga presente no capacitor fosse de apenas um único elétron e, caso esse elétron vazasse do capacitor (migrando para um outro local), isto mudaria o estado do capacitor para zero e seria uma falha que, em computação, chamamos de erro. Porém, se de um total de 300.000 elétrons, apenas alguns poucos migrarem para outro local, isto não representará, de fato, em um grande problema. Mesmo assim, os circuitos eletrônicos checam constantemente o nível de carga e repõem a quantidade necessária para evitar erros.

Computadores quânticos se baseiam em qubits. Há várias maneiras de produzir qubits, por exemplo, através de circuitos supercondutores 1 ou da polarização dos fótons 2. Um resultado fundamental da Mecânica Quântica é que um sistema pode estar numa superposição de estados. Cada estado tem uma certa probabilidade de ocorrer. Para entendermos a superposição de estados quânticos, vamos comparar uma operação lógica num algoritmo clássico de 3 bits com outro de natureza quântica (veja Tabela 1).

No caso Clássico, vamos supor que o sistema está, inicialmente, no estado 010. Nos instantes seguintes, o algoritmo conduz o sistema para os estados 011, 101, 000, 010 e assim por diante. Um estado de cada vez. Já, no caso Quântico, vamos supor que inicialmente o estado inicial seja uma superposição de 010 e 011. No instante seguinte (veja Tabela 2), o sistema vai para uma combinação dos estados 001, 100 e 111, em seguida para uma mistura de todos os 8 estados.  Vemos que o computador quântico é mais rico e complexo do que o clássico, o que permite que ele seja mais rápido e eficiente na solução de determinados problemas.

Como vimos acima, pequenas flutuações no número de elétrons não afetam de maneira importante o computador clássico que é robusto (muitos bits) e tem autorregulagem (redundância). Mas essa checagem feita pelo sistema é uma interferência que destrói o estado quântico. Para diminuir essa flutuação do número de elétrons (ruído) devemos abaixar a temperatura do sistema. Foi o que fez a Google ao lançar mão dos supercondutores 1.

Para demonstrar a ‘supremacia’ (palavra utilizada originalmente pela Google, e, por ter uma conotação étnica, hoje em dia está sendo substituída pelo termo ‘vantagem’) do computador quântico em relação ao clássico, eles construíram um dispositivo (que chamaram de Sycamore) com 53 qubits feitos com circuitos supercondutores (veja Figura 1 no início da matéria). O material utilizado foi o Alumínio, que se torna supercondutor a 1 grau Kelvin.  Os elétrons se juntam numa única unidade e o qubit formado é, basicamente, um oscilador de elétrons. O sistema oscila entre o estado de mais baixa energia, que chamaremos de estado zero do qubit, e o primeiro estado excitado, que chamaremos de estado um do qubit. A frequência de ressonância desse oscilador é de 6 Ghz (micro-ondas), ou seja, a diferença de energia do estado um para o estado zero é muito pequena, cerca de 2,5 10 -5 eV. Isso equivale a uma temperatura de 0,3 Kelvin. A Google comparou o desempenho de Sycamore com o do supercomputador Summit no Teenessee. Concluiu que Summit levaria 10.000 anos para um cálculo que Sycamore levaria apenas 3 minutos e 20 segundos! Essa conclusão foi, porém, contestada logo em seguida.

Figura-2 O supercomputador chinês TaihuLight, atualmente o mais rápido do mundo, é 10 -14 vezes mais lento que o dispositivo montado pela equipe de Zhong et al 2.  – o computador quântico fotônico (Crédito:Hansen Zhong)

Recentemente, Zhong et al. 2 estudaram a construção de um computador quântico fotônico (veja Figura 2). Em 2011, dois cientistas computacionais, Aaronson e Arkhipov, estudaram a chamada amostragem bosônica, que consiste em determinar a probabilidade de encontrar um bóson em uma dada posição, num sistema de muitos bósons em que se leva em conta as interferências de suas funções de onda. Eles obtiveram uma expressão com um número gigantesco de incógnitas e concluíram ser impossível resolvê-la através do uso de computadores clássicos.

Através de pulsos de laser, Zhong et al. 2 polarizaram fótons que depois foram deixados interferir uns com os outros, gerando assim, a amostra de fótons. Os qubits eram os próprios fótons. Tudo isso foi realizado a temperatura ambiente. A equipe chinesa utilizou então, fotodetectores capazes de registrar cada um dos fótons e medir sua distribuição. O problema da amostragem de bósons (aqui, fótons) estava resolvido.

Segundo os pesquisadores, o supercomputador chinês Sunway TaihuLight, atualmente o mais rápido do mundo, levaria 2,5 bilhões de anos para completar os cálculos, metade da idade da Terra. O experimento todo desenvolvido pela equipe chinesa levou apenas 200 segundos! Um resultado impressionante e muito animador!

Referências:

1 Arute, F. et al. Nature 574, 505–510 (2019)

2 Zhong,H.S. et al. Science,

   https://doi.org/10.1126/science.abe8770 (2020).

*Físico, Professor Sênior do IFSC – USP

(Agradecimento: Sr. Rui Sintra da Assessoria de Comunicação)

Assessoria de Comunicação – IFSC/USP

Fale conosco
Instituto de Física de São Carlos - IFSC Universidade de São Paulo - USP
Obrigado pela mensagem! Assim que possível entraremos em contato..