Princípio de Mach e o Universo Rotativo de Gödel

1.jpg

21 Out 2014

Por William Brown, pesquisador da Resonance Science Foundation.

 

A questão da natureza dos frames absolutos e relativos de espaço, tempo e movimento, forma a base do trabalho de Newton em "Os princípios matemáticos" da filosofia natural, como a discussão de abertura do livro. Essa questão também é relevante para as teorias de movimento de Einstein que ocorrem na velocidade da luz ou próximas à ela, daí a denominação relativa na teoria da relatividade. Como vimos, Newton descreveu um frame fundamentalmente absoluto de espaço e tempo no qual o movimento de um objeto era absoluto ou independente de sua orientação em relação a outros objetos.

 

Newton ilustrou esse conceito com um exemplo de um balde cheio de água e suspenso por uma corda presa no teto. Se o cabo fosse girado até ser suficientemente torcido e depois solto, o rápido movimento de rotação do balde daria à água uma força centrífuga que o faria se afastar do centro do eixo de rotação, dando uma curva côncava à superfície. Newton afirmou que esse movimento da água seria completamente independente de qualquer outro corpo além do balde, da corda e da água - era um sistema fechado. Ernst Mach, físico e filósofo do século XIX, apontou que não era um sistema fechado, pois a força gravitacional da Terra na água e no balde eram certamente fatores importantes e, portanto, o movimento da água nunca poderia ser considerado independentemente dos outros objetos ao seu redor.

 

De fato, Mach afirmou que o movimento da água só poderia ser definido em relação a todos os outros objetos no Universo. Desde então, ficou conhecido como argumento de Bucket e princípio de Mach. O princípio de Mach [declarado pela primeira vez por George Berkeley quase 200 anos antes de Mach] é a afirmação de que as forças de reação inercial experimentadas por objetos maciços, quando são aceleradas por forças externas, são geradas pela ação da principal matéria mais distante do cosmos. Como a única força conhecida com acoplamento universal à massa é a gravidade, é natural supor que, se o princípio estiver correto, a interação gravitacional é a fonte das forças inerciais da reação. Na verdade, isso é verdade na teoria da relatividade geral para a classe de modelos cosmológicos que se pensa abarcar nossa realidade. O princípio de Mach foi de fato uma grande influência no trabalho de Einstein e até dos físicos modernos, pois se aplicarmos o princípio de Mach ao efeito da matéria no espaço e no tempo, será visto que a matéria curva o espaço-tempo (bem como a água no balde devido à força de rotação, fato que elucida a equivalência das forças gravitacionais com a aceleração) e, portanto, espaço e tempo não são independentes da matéria que a ocupa.

 

No entanto, o trabalho do físico e matemático Kurt Gödel em 1949, no qual ele introduziu uma nova solução para as equações de Einstein, mostrou que o princípio de Mach não foi completamente incorporado à teoria da relatividade geral. Kurt Gödel introduziu um modelo no qual o Universo estava girando (e continha curvas semelhantes ao tempo que se repetem, permitindo essencialmente viajar de volta no tempo). Um universo em rotação define uma direção de movimento preferida e, portanto, o movimento de objetos dentro do Universo não é inteiramente relativo apenas a outros objetos, pois agora existe um tipo de frame de referência absoluto (embora eles ainda sejam relativos ao movimento do observador).

Mesmo com um universo em rotação, parece que a concepção de Newton de um espaço absoluto deve ser perdoada, pois as últimas medições de experimentos como o "Gravity Probe B" demonstraram a validade de uma teoria conhecida como efeito "Lense-Thirring" (também conhecido como arrastar frames ou gravitomagnetismo). A sonda de gravidade B demonstrou que, à medida que a Terra gira, ela 'torce' ou arrasta a vizinhança local do espaço-tempo junto com ela, e, como tal, os movimentos de objetos nas proximidades da Terra serão influenciados pelo giro da Terra. Um exemplo surpreendente disso é nas proximidades de um buraco negro. Os buracos negros devem ter uma taxa incrível de rotação, que produz o que é conhecido como ergosfera ao redor do buraco negro. Dentro da ergosfera, o efeito Lense-Thirring causa um torque tão alto que o espaço-tempo é arrastado na direção do giro do buraco negro a uma velocidade maior que a velocidade local da luz em relação ao resto do Universo. Isso significa que, para que um objeto dentro da ergosfera apareça em repouso para um observador externo, ele teria que viajar na direção oposta do frame arrastando a uma velocidade maior que a velocidade da luz.

https://www.resonancescience.org/blog/machs-principle-and-godel-s-rotating-universe

A geometria da gravidade quântica

2.jpg

29 Out 2014

Por Adam Apollo

Minha jornada para a vanguarda da física moderna e da gravidade quântica começou quando eu era adolescente.

Eu descobrira que o corpo humano tinha um campo energético. Embora os aspectos primários e a funcionalidade desse campo tenham sido explorados em detalhes por uma variedade de tradições culturais e espirituais em todo o mundo, percebi que ele estava totalmente ausente do atual quadro científico e ausente do meu ensino médio.

Em vez de lançar dúvidas sobre minhas experiências, essa ausência levou minha investigação mais a fundo. Comecei a perceber que muitos dos mistérios das ciências, da biologia à geologia, da astronomia à química, tinham padrões fundamentais semelhantes e também apareciam nos estudos metafísicos do "Éter" ao longo dos tempos.

Como um detetive que pressentia um segredo esperando ser revelado, decidi mergulhar em um estudo da física moderna para ver se havia algum estudo que pudesse explicar esses padrões.

Comecei com um estudo do mundo macrocósmico através da Relatividade Especial e Geral, obtendo uma compreensão mais profunda da natureza relativa do espaço-tempo e de nossa observação dentro dele. Einstein apontou que a Gravidade é simplesmente a curvatura do espaço-tempo e que a aceleração é indistinguível da Gravidade (muitas vezes explicada em taquigrafia como “Força G” por pilotos).

Einstein também explicou que seria necessário energia infinita para acelerar a velocidade da luz, pois essa aceleração distorce o tecido do espaço-tempo (cria curvatura). Quanto mais você acelera, mais gravidade ele cria curvando o espaço-tempo e mais energia é necessária para empurrar ainda mais o envelope.

Mergulhei no estudo do microcosmo e do estranho mundo da Mecânica Quântica. QM estabeleceu algumas crenças fundamentais sobre a realidade, principalmente através da Interpretação de Copenhague do famoso experimento de "fenda dupla". Os cientistas da época ficaram perplexos com os resultados do experimento. Como você pode disparar partículas individuais em duas divisões e testemunhar ondas com padrões de interferência saindo do outro lado? Sua avaliação: a energia deve atuar tanto como partícula quanto como onda. Eles então tentaram elaborar alguns cálculos para isso e descobriram que, se você tentar definir a posição da energia, obtém um resultado que descreve com precisão uma partícula. Se você tentar descobrir o momento angular ou informações sobre o movimento da energia, obterá informações semelhantes a uma onda. O problema? Você não pode fazer as duas coisas simultaneamente. Quanto mais preciso você tenta descobrir a posição, mais difuso fica o momento e vice-versa.

Eles chamaram isso de "Princípio da Incerteza" e é uma das principais pedras angulares de toda a Mecânica Quântica. Dali para frente, a Mecânica Quântica trabalhou para descobrir todo tipo de partículas e desenvolveu equações altamente complexas para prever a probabilidade de energia em certos estados. No entanto, descobri rapidamente que esse caminho de pesquisa divergia tão drasticamente dos estudos macrocósmicos da Relatividade que parecia haver muito pouca esperança na verdadeira reconciliação.

Para encontrar uma ponte, comecei a explorar estudos em gravidade quântica. Como explicar a curvatura do espaço-tempo e os efeitos da gravidade em larga escala através das interações de minúsculas partículas?

Surge uma imagem unificada

Eu li o livro de Lee Smolin, "Three Roads to Quantum Gravity". Nele, descobri que havia realmente muito progresso na ponte entre esses mundos macrocósmico e microcósmico. Lee e seus colegas começaram a descrever o próprio espaço-tempo como um sistema independente de segundo plano, o que significa que o espaço-tempo aparentemente vazio poderia ser um tecido semelhante a uma rede, preenchido com grades interconectadas de energia. Isso significaria que as partículas e ondas que experimentamos são apenas padrões emergentes desse tecido fundamental. Imediatamente, eu sabia que ele estava no caminho certo, pois os padrões no fluxo de energia e na estrutura fundamentais do espaço-tempo são exatamente o que eu estava considerando como uma solução para descrever como campos muito diferentes na ciência teriam os mesmos padrões geométricos que surgiam dentro deles.

Nesse momento, também li bastante a teoria das cordas. Embora eu tenha encontrado uma sinergia muito importante na ideia de que o aspecto mais fundamental do universo é a vibração de cordas incompreensivelmente pequenas, eu também fui desligado por certos aspectos da teoria. As ideias de que essas cordas são loops (rotações) que flutuam livremente no vácuo e vibram através de modos infinitos, ou empilham e circulam por 10 dimensões, ou se enredam em formas que não podem ser entendidas ou modeladas com precisão em 3D, tudo parecia uma perda de tempo para mim. Encontrei muitos outros físicos que pensavam da mesma forma, mas encontrei alguma beleza inerente na matemática da teoria das cordas. Eu encontrei a beleza em seu estudo da ressonância vibracional.

Comecei a ver uma imagem unificada emergindo. E se os mesmos padrões fundamentais que eu testemunhei na natureza através da biologia, geologia e cosmologia fossem os padrões básicos da tecido do espaço-tempo? Galáxias espirais, furacões e conchas de Nautilus são mapeadas precisamente para uma espiral gerada pela razão Phi, mas em escalas muito diferentes. E se esse padrão e outros, como a “flor da vida” ou as leis do equilíbrio em círculos, estivessem realmente começando no nível do tecido do espaço em si, e então tivessem um impacto fractal através de escalas até o vermos no florescimento de uma flor ou os vórtices giratórios do vento.

Eu já havia mapeado os padrões geométricos fundamentais que encontrava em todos os campos da ciência, bem como em quase todas as tradições espirituais do planeta. Os padrões primários que encontrei podem ser simplificados em três geometrias básicas e seus constituintes: o pentagrama (estrela de 5 pontas), o hexagrama (estrela de 6 pontas) e os triângulos equiláteros que o formam e o heptagrama (7 pontas) -Estrela).

O pentagrama contém a razão Phi, que descreve padrões meteorológicos no clima, como tornados e furacões, padrões de crescimento em plantas, arcos espirais galácticos e até a razão comprimento de onda por largura do nosso DNA.

Os hexagramas são formados a partir do empacotamento mais simples possível de círculos e esferas, e são formados por triângulos equilaterais em equilíbrio entre si. Isso basicamente descreve o estado de energia mais equilibrado possível no universo e, portanto, pode ser entendido como o "estado fundamental" de qualquer rede de energia altamente eficiente. Aparece da estrutura das moléculas de carbono (essencial para toda a vida) aos favos de mel, folhas, flores, até os pólos de Saturno.

Heptagramas são mais frequentemente vistos no simbolismo integrativo em toda a sociedade e cultura humanas. Talvez arquetipicamente enraizada nos sete planetas visíveis a olho nu da Terra, as expressões de sete são encontradas em todo o cristianismo, hinduísmo, islamismo, judaísmo, mitologia nórdica, mitologia grega, alquimia, cabala, magia do Egito, astrologia e muitos mais. Na natureza, é comumente encontrado em folhas, flores e penas. Também é encontrado em escalas musicais, percepção de cores, círculos nas plantações e até emblemas da polícia.

Acontece que quando você considera essas geometrias em termos de uma rede de energia fundamental no tecido do espaço, como a geometria quântica do vácuo, elas descrevem as operações mais básicas de um sistema altamente energizado em equilíbrio quase perfeito.

Primeiro, vamos olhar para a estrutura fundamental da estrutura do espaço-tempo. Se considerarmos as estruturas de informação mais básicas possíveis na escala de Planck, uma linha de comprimento de Planck é a representação mais fundamental da distância (1D), e um triângulo feito de três dessas linhas formaria a estrutura mais fundamental da área (2D). Observe que um triângulo também forma o arranjo mais estável de energia em uma rede altamente energizada, e eles podem empilhar em um arranjo fractal (e bidirecional). Indo para a próxima estrutura dimensional mais fundamental, obtemos um tetraedro em escala de Planck (3D). A partir daqui, obtemos um componente que pode formar uma estrutura de treliça que possui superfícies planas e profundidade extrudada, ambas medidas no espaço e no tempo.

3.jpg

Cada unidade do espaço de Planck também é uma unidade de tempo, uma vez que a distância em si não pode existir na medição sem alguma medida de tempo. Dessa maneira, poderíamos dizer que a dimensão do tempo (4D) é incorporada, enredada ou dobrada em cada uma dessas três dimensões espaciais.

 

Também é importante olhar para o nosso bloco de construção mais fundamental, o triângulo, mais de perto. Através das leis da termodinâmica, sabemos que energia e matéria estão sempre tentando alcançar o estado mais equilibrado. O calor continuará a fluir para o espaço frio até a temperatura ser equalizada. As esferas jogadas em uma caixa continuarão compactando entre si até atingirem o estado máximo de densidade espacial, que ao mesmo tempo é o estado mais baixo de energia potencial (ou mobilidade).

 

Ao discutir uma rede de energia, cada nó (ou ponto de interseção) tentará alcançar a posição em que possui o equilíbrio mais igual com todos os pontos circundantes. Esta é simplesmente outra maneira de descrever por que o triângulo equilátero e sua projeção em 3D, o tetraedro, é a forma estrutural mais fundamental e equalizada para o espaço-tempo.

Se a energia e, portanto, o tecido do espaço-tempo, está sempre tentando manter um estado de equilíbrio, qualquer condição fora desse estado de equilíbrio produzirá força (uma influência que pode fazer com que um corpo acelere ou produza Gravidade).

 

A partir daqui, podemos começar a revisar cada uma das permutações dessa estrutura fundamental que produziriam diferentes níveis de força e, assim, produziriam Gravidade.

 

"Qualquer polígono com mais de três lados é instável. Somente o triângulo é inerentemente estável. Qualquer poliedro delimitado por faces poligonais com mais de três lados é instável. Somente os poliedros delimitados por faces triangulares são inerentemente estáveis.

- Buckminster Fuller

 Estrelas de proporção áurea

4.jpg

04 Mai 2015

Amira Val Baker, Astrofísica da Fundação da Ciência da Ressonância

As enigmáticas estrelas variáveis ​​pulsantes tornaram-se mais intrigantes - como os astrônomos acham que estão pulsando na proporção áurea!

Qualquer estrela que varia de brilho - seja na escala de tempo de segundos ou anos - se enquadra na categoria de estrelas variáveis, onde a variabilidade pode ser devido a alterações na luminosidade, massa, tamanho ou posição estelar. Enquanto variáveis ​​extrínsecas são simplesmente devidas ao eclipse da fonte por outra fonte, como uma estrela ou planeta, variáveis ​​intrínsecas mudam de brilho devido a mecanismos físicos subjacentes, como pulsações e / ou erupções. As estrelas variáveis ​​pulsantes diminuem e aumentam de tamanho, variando assim sua luminosidade intrínseca e, de fato, pulsando através de contração e expansão contínuas. As variáveis ​​cefeidas, a mais famosa das variáveis ​​pulsantes, são bem conhecidas e muito apreciadas pelos astrônomos por seu uso na medição de distâncias intergalácticas. A relação distinta entre o período e o brilho, descoberta por Henrietta Leavitt (1868-1921) e desenvolvida por Ejnar Hertzsprung (1873-1967), permite determinar a luminosidade intrínseca e, portanto, a distância da estrela. Tornaram-se assim a vela padrão favorita. As estrelas RR Lyrae são outro tipo de variável pulsante e também podem ser usadas como velas padrão, no entanto, como sua luminosidade intrínseca é menor que as variáveis ​​Cefeidas, elas não podem ser detectadas nas grandes distâncias pelas quais as Cefeidas são famosas.

Uma equipe de astrônomos, da Alemanha, Reino Unido e EUA, interessados ​​em explorar os períodos de pulsação de estrelas variáveis, em particular as estrelas RR Lyrae, que normalmente têm períodos de 0,5 dias, finalmente conseguiram a última geração de telescópios espaciais.

A sonda Kepler, conhecida por sua bem-sucedida missão de procurar exoplanetas, também tem um trabalho paralelo e, sem o conhecimento de muitos, acompanha o brilho de 150.000 estrelas nos últimos 6 anos. Dessas estrelas estão as estrelas variáveis ​​pulsantes Cepheid e RR Lyrae, cujas pulsações foram observadas em frequências únicas e múltiplas. O que foi de particular interesse foi que, para várias estrelas e, em particular, a estrela rica em metais RR Lyrae, KIC 5520878, as freqüências primárias e secundárias das pulsações estão na razão phi - a proporção áurea!

Isso é extremamente interessante, pois o comportamento dinâmico exibido pelo KIS 5520878 é semelhante ao que é conhecido como um atrator não caótico estranho, do qual nunca foi observado fora do laboratório!

Um sistema dinâmico geralmente consiste em múltiplos atratores que acionam o sistema de maneira periódica ou aperiódica. A dinâmica aperiódica, onde as trajetórias parecem pular aleatoriamente, é conhecida como atrator estranho, com um bom exemplo sendo o sistema climático, pois, embora complexo e caótico, ele sempre estará dentro do reino dos possíveis estados. O interessante é que o Teorema de Kolmogorov-Arnold-Moser (KAM), que define as condições para a extensão do caos, mostra que um sistema dinâmico com frequências na proporção áurea é maximamente resistente a perturbações e exibe dinâmica distinta entre ordem e caos . Esse sistema é chamado de atrator não caótico estranho, tornando a estrela KIC 5520878 da RR Lyrae o primeiro atrator não caótico já observado fora do laboratório. Os mecanismos exatos responsáveis ​​por esse fenômeno intrigante não são totalmente compreendidos e ainda estão em discussão. Leia mais aqui.

Learned et al. (2014) propuseram anteriormente que uma civilização extraterrestre suficientemente avançada poderia usar feixes de neutrinos para agradar essas estrelas pulsantes, como a KIC 5520878, como um meio de transmitir informações por toda a galáxia e além. No entanto, embora não tenha eliminado a possibilidade, ele concluiu que, no caso da KIC 5520898, os dois períodos de pulsação são de origem natural. Leia mais aqui.

 Firewalls ou Cool Horizons?

5.jpg

20 Set 2016

Por William Brown, cientista pesquisador da Resonance Science Foundation

Os físicos tentam acalmar um debate acalorado, sugerindo que o emaranhamento quântico ocorre através de buracos de minhoca no espaço-tempo.

A física teórica dos buracos negros está repleta de paradoxos, como a perda de informações por trás do ponto de não retorno - o horizonte de eventos - e dentro da singularidade (o objeto teórico no centro dos buracos negros, onde se pensa que toda a massa está compactado em um ponto de dimensão zero e densidade infinita - veja nossa revisão de artigo sobre Planck Stars, uma solução para singularidades e perda de informações). Na investigação dos efeitos dos comportamentos quânticos em torno do horizonte de eventos dos buracos negros, uma equipe de físicos propôs outra possível situação paradoxal - o entrelaçamento múltiplo de partículas emitidas no horizonte de eventos (conhecido como Hawking Radiation), que causaria violações a dinâmica conhecida do emaranhamento quântico. A resolução da equipe de pesquisa foi propor uma cortina térmica de partículas e radiação de alta temperatura em torno do horizonte de eventos - o chamado “firewall” (que levou Stephen Hawking a fazer sua mais recente proclamação sobre os buracos negros serem metaestáveis, veja nosso artigo Hawking Goes Cinzento). Em uma reviravolta interessante, os renomados físicos Leonard Susskind e Juan Maldacena não apenas demonstraram falhas no argumento do paradoxo do firewall - mas também demonstraram resoluções envolvendo buracos negros conectados por um buraco de minhoca, e o mais interessante de tudo, talvez - como o entrelaçamento quântico em si pode ser resultado de conexões no espaço-tempo através de buracos de minhoca.

Em algum momento, todos já ouvimos o termo emaranhamento quântico, mas o que exatamente é emaranhamento? Quando dois objetos estão interagindo, seus comportamentos são correlacionados - uma mudança em um objeto afeta uma mudança no outro por causa de sua interação mútua. Isso pode ser observado em uma ampla variedade de circunstâncias, em várias escalas de tamanho, é um comportamento "clássico". No entanto, quando essa inter-relação é investigada em partículas subatômicas, o comportamento observado pode ser bem diferente - as partículas podem ser fortemente correlacionadas. Pensa-se que este seja um fenômeno não clássico ou quântico e é o resultado de um emaranhado máximo. Duas partículas podem se tornar tão fortemente correlacionadas, que, independentemente da distância de separação entre as duas, elas parecem ainda estar interagindo - instantaneamente, mesmo se estiverem do outro lado do universo!

6.jpg

A interação instantânea implica uma transmissão de informação mais rápida que a luz, ou superluminal, e foi esse fato que levou Einstein (famoso por ter estabelecido o "limite de velocidade" cósmico em 300.000 quilômetros por segundo, a velocidade da luz) com os físicos Rosen e Podolsky para propor o paradoxo da EPR. Einstein, Rosen e Podolsky apontaram que, conforme formulada, a mecânica quântica sugeria que poderia haver interação instantânea entre pares de partículas fortemente correlacionados. Sem um mecanismo físico para explicar esse comportamento superluminal, a EPR sugeriu que esse era um cenário altamente improvável. No entanto, longe de ser improvável, foi confirmado e é rotineiramente observado em experimentações quânticas. Eventualmente, Einstein chamou esse emaranhado quântico de "ação assustadora à distância".

Surge um enigma - porque se é verdade que nada pode viajar mais rápido que a velocidade da luz (que é uma suposição que está se tornando cada vez mais tênue) como duas partículas que são separadas por uma distância considerável, quilômetros em alguns casos, podem ser interagindo um com o outro mais rápido do que qualquer sinal de luz pode viajar entre eles? Fascinantemente, a resposta pode estar em uma estrutura normalmente reservada para filmes de ficção científica, mas que muitos dos principais físicos consideram muito seriamente - buracos de minhoca. Buracos de minhoca são túneis feitos do próprio “tecido” do próprio espaço (sim, o espaço possui estrutura e substância!) E, como tal, podem conectar regiões separadas do espaço.

Então, como o conceito de buraco de minhoca se associou ao entrelaçamento quântico? O desenvolvimento ocorreu após várias publicações, como Construindo o espaço-tempo com emaranhamento quântico, de Mark Van Raamsdonk, e mais recentemente Cool Horizons for Black Holes. O último artigo, escrito por Juan Maldacena, conhecido por ter derivado um princípio de correspondência entre a teoria quântica de campos e a relatividade geral, e Leonard Susskind, um teórico das cordas que foi pioneiro no trabalho sobre buracos negros e teoria da informação - sugere como os buracos de minhoca não podem apenas buracos negros, mas partículas subatômicas também. Sua teoria é oferecida como uma possível solução para paradoxos que surgiram da investigação das propriedades quânticas dos buracos negros. Paradoxos que muitos físicos sentem estão ameaçando o próprio fundamento da mecânica quântica.

7.jpg

Tradicionalmente, os buracos negros são considerados objetos muito simples - eles podem ser completamente descritos com apenas alguns parâmetros físicos, como massa e tamanho. Isso tornou a situação muito simples, porque não importa a complexidade da matéria que existia antes de formar um buraco negro, depois de desmoronar em um volume tão denso que nem mesmo a luz pode escapar, são apenas características distinguíveis sua massa, taxa de rotação e possivelmente carga elétrica (isso é chamado de teorema sem pêlos, aparentemente alguns físicos pensavam que, ao envelhecer, sofreria de calvície masculina).

 

No entanto, a situação se tornou mais complexa quando se considerou os efeitos gravitacionais nas propriedades quânticas de um buraco negro. Essa é uma área notável de investigação, porque geralmente na escala quântica (pense em tamanhos infinitesimalmente pequenos), a gravidade é considerada como não tendo papel significativo - é considerada insignificante. Mas os buracos negros contêm um campo gravitacional muito único - eles formam um horizonte de eventos - um limite virtual demarcado como o volume (como uma esfera) do qual a luz não pode escapar da "atração" gravitacional da massa condensada (a singularidade). Devido a esse horizonte gravitacional - um limite literal semelhante à luz - as flutuações quânticas no espaço, que normalmente seriam canceladas como pares aniquilantes partícula-antipartícula, na verdade emitem partículas reais da superfície do limite quando um dos parceiros do par cruza o horizonte de eventos enquanto o outro escapa.

8.jpg

Essa situação confundiu os pesquisadores, como é evidente pela terminologia usada nesse campo emergente da gravidade quântica - como o paradoxo da perda de informações e, mais recentemente, o paradoxo da AMPS. O paradoxo da AMPS, que é um acrônimo derivado dos nomes dos físicos que a propuseram, cujo principal é Joseph Polchinski (o 'P' da AMPS, outro teórico das cordas) descreve um paradoxo aparente que surgiria da forte correlação - que é o emaranhado - associado à partícula emitida e seu parceiro que atravessou o horizonte de eventos do buraco negro. O problema, como o descrevem, é que, se uma partícula recém-emitida se emaranhar com outra fora do horizonte, isso quebraria a ligação emaranhada entre as partículas emitidas e as do interior. Assim como quando as ligações químicas são quebradas na química - como acender a gasolina - há uma liberação de energia. Portanto, eles propuseram que o buraco negro deveria ter partículas extremamente quentes no horizonte - um firewall literal.

 

Isso significaria que os buracos negros não apenas irradiam - com emissão de partículas do vácuo quântico do espaço - como brilham a partir dos quanta de alta energia no horizonte da superfície! Isso é ainda mais confuso para muitos físicos, porque o "desemaranhamento" do par de partículas trans-horizontais representa uma perda de informação, o que viola os princípios da mecânica quântica da conservação da informação. Juan Maldacena e Leonard Susskind propuseram uma maneira de preservar um horizonte legal para os buracos negros (daí o nome de seu artigo), e a solução é que o buraco negro não é apenas um ponto de densidade infinita - uma singularidade - é um buraco de minhoca conectado a outro buraco negro.

 

Nesse caso, mesmo que o interior de um buraco negro esteja emaranhado com outro sistema - ou seja, outro buraco negro, que é análogo ao emaranhamento das partículas irradiadas com o interior do buraco negro no paradoxo da AMPS, ainda há um horizonte (o que significa que é indetectável - você nunca saberia que existe, sob esse regime). Ou seja, a produção de um buraco de minhoca não produz necessariamente um firewall. Portanto, se as partículas irradiadas (conhecidas como radiação Hawking) forem consideradas conectadas ao interior do horizonte de eventos por buracos de minhoca - também não será necessário conjecturar um firewall. Isso é notável porque demonstra como a modelagem do emaranhamento na escala subatômica com conexões de buraco de minhoca está resolvendo problemas aparentes que surgem ao considerar o emaranhado como meramente“ação assustadora à distância”.

9.jpg

Deve-se notar que essa não é a primeira vez que se propõe que o emaranhamento quântico seja o resultado de conexões no espaço-tempo através de buracos de minhoca. Sergio Santini, um físico brasileiro que fez um trabalho pioneiro em cosmologia quântica causal, sugeriu como o entrelaçamento quântico pode ser resultado de conexões de buracos de minhoca em um artigo de 2006. Curiosamente, nenhum dos físicos que mais tarde fizeram trabalhos nessa área citou Santini por sua contribuição inovadora. Nassim Haramein também trabalhou na elucidação de uma rede de buracos de minhoca que conecta todo o espaço-tempo. Em seu trabalho mais recente, Haramein utilizou uma abordagem geométrica e holográfica para descrever as características fundamentais das partículas quânticas, como a origem de suas massas, tamanho e forças de ligação nucleares. Notavelmente, ele demonstrou como os prótons têm uma massa holográfica igual à energia de massa de todo o universo observável.

 

Essencialmente, isso significa que o interior dos prótons é um único volume que compartilha todas as informações. Como isso é possível? Os cálculos de Haramein mostram como um próton é conectado a todos os outros prótons através de buracos de minhoca do tamanho de Planck (um volume de Planck é vários bilhões de vezes menor que um único próton). A força do emaranhamento entre as partículas depende de sua distância relativa e do grau em que elas interagiram. Portanto, embora estejam todos fundamentalmente conectados, a força do entrelaçamento varia em grau em que eles interagiram fisicamente - exatamente como o que é realmente observado empiricamente.

 

O potencial da formação de buracos de minhoca é um elemento integrante dos buracos negros, com a possibilidade de conectar regiões extremamente distantes do espaço-tempo com um atalho não-local - ou superluminal - (como Susskind explicou, os buracos negros conectados pelo buraco de minhoca estão em um estado máximo emaranhamento). Se os buracos de minhoca são uma característica essencial dos buracos negros, isso talvez sugere que as partículas quânticas emaranhadas pelos túneis de buracos de minhoca de Planckian são mais como os próprios buracos negros? Quando a gravitação quântica e a descrição da massa holográfica de partículas semelhantes a buracos negros são consideradas, além do emaranhado de buracos de minhoca, ela se torna uma teoria muito atraente.

 

O paradoxo da AMPS é extremamente sutil, cuja resolução, acreditamos, terá muito a nos ensinar sobre a conexão entre geometria e emaranhamento. A AMPS apontou um paradoxo profundo e genuíno sobre o interior dos buracos negros. Sua resolução foi de firewalls, mas, a nosso ver, a solução provavelmente envolve as pontes de Einstein-Rosen. O interior de um antigo buraco negro seria uma ponte de Einstein-Rosen construída a partir dos micro graus de liberdade [entropia - ou informação] do buraco negro, bem como a radiação. "

- Juan Maldacena e Leonard Susskind

Stephen Hawking fica cinzento

10.jpg

20 Set 2016

Por William Brown, cientista pesquisador da Resonance Science Foundation

Os títulos populares que afirmam que Hawking diz que "não existem buracos negros" estão incorretos.

Recentemente, houve bastante publicidade sobre a publicação de uma transcrição de uma palestra proferida por Stephen Hawking no Instituto Kavli de Física Teórica em Santa Barbara, Califórnia, em agosto de 2013, onde Hawking discute sua possível resolução para a chamada Informação Paradoxo e o teorema do firewall. Na explicação extremamente simplista dada por vários comentaristas da mídia, foi dito que Stephen Hawking refutou a existência de Black Holes com títulos enganosos como - Stephen Hawking: 'Não há buracos negros' (da revista Nature, uma das revistas científicas de maior prestígio) diários). De fato, esse não era absolutamente o caso. Hawking não disse que não há buracos negros - ele apenas sugeriu que a noção clássica de um corpo gravitacional no qual a luz não pode escapar pode precisar ser revisada. Em sua revisão, ainda há um horizonte de buracos negros, mas devido à dinâmica extremamente turbulenta no nível quântico da fronteira, a persistência e a estrutura do horizonte são incertas. Assim como o clima na Terra, que pode ser previsto, mas sempre com algum nível de incerteza, o horizonte aparente é determinístico, mas caótico. Assim, o título de sua palestra “Preservação da informação e previsão do tempo para buracos negros” (cuja transcrição foi publicada no servidor arXiv).

 

Aqui Hawking redefine o horizonte de eventos como um horizonte aparente dizendo: "Isso sugere que os buracos negros devem ser redefinidos como estados ligados metaestáveis ​​do campo gravitacional". Hawking conclui que isso efetivamente significa que a informação pode ser emitida a partir da área trans-horizonte de um buraco negro - tornando-os mais parecidos com os "buracos cinzentos", onde informações (matéria e energia) podem entrar e sair também. Esta é uma tentativa de resolver o chamado "paradoxo da perda de informações", onde todas as informações que caem em um buraco negro seriam perdidas à medida que o buraco negro evapora, devido a um postulado anterior de Hawking - conhecido como radiação Hawking - que descreve a emissão de flutuações de vácuo "partículas virtuais" produzindo uma leve perda de energia ao longo do tempo para o buraco negro, levando eventualmente à sua completa evaporação.

Muitos têm perguntado: "Como o último trabalho de Hawking afeta a teoria de Haramein?" Além disso, "Há outras abordagens interessantes recentes sobre o paradoxo da perda de informações?"

Em 1997, Nassim Haramein, no Sequoia Symposium (uma conferência científica interdisciplinar), propôs pela primeira vez que os buracos negros deveriam ser redefinidos como buracos brancos / buracos negros, onde a parte do buraco branco é concêntrica a um buraco negro central. Ele cunhou essa nova definição de um buraco negro - “Black Whole”, eventualmente levando à publicação pela Gaiam Corporation de um DVD sobre o assunto intitulado Black Whole. Haramein afirmou que a informação (ou o campo eletromagnético) poderia escapar do buraco negro para produzir uma porção branca em sua superfície devido à turbulência e torção ou torção como resultado de um torque no espaço-tempo gerado por um gradiente de densidade das flutuações quânticas de vácuo produzindo o efeito Coriolis , "padrões climáticos", no horizonte da superfície. Haramein descreveu essa relação buraco branco / buraco negro como uma estrutura de feedback entre o campo eletromagnético e o campo gravitacional que definiu a topologia de uma estrutura de toro duplo, onde a radiação é mais proeminente no equador e absorvida nos pólos.

Eventualmente, isso levou Haramein, em colaboração com o Dr. EA Rauscher, a descrever essas "turbulências do padrão climático" no horizonte na estrutura do espaço-tempo, agora conhecida como métrica Haramein-Rauscher, em seu artigo sobre a origem da rotação em 2005 (The Origem do Spin: Uma Consideração das Forças de Torque e Coriolis nas Equações de Campo de Einstein e na Teoria da Grande Unificação). Aqui o espaço-tempo é imbuído de um torque fundamental devido a um gradiente na estrutura do vácuo, gerando dinâmica giroscópica e dinâmica de Coriolis no horizonte dos buracos negros. Neste artigo, Haramein afirma:

"Portanto, com a inclusão dos efeitos de torque e Coriolis nas equações de campo de Einstein, o coletor de espaço-tempo se correlaciona bem com os mecanismos observáveis ​​de buracos negros, topologia galáctica, formação de supernovas, dinâmica de plasma estelar e ciência planetária, como a formação de anéis e a estrutura Coriolis de dinâmica atmosférica ".

O modelo de Haramein foi recebido exatamente como a revista Nature afirmou que qualquer desconhecido teria sido tratado por tentar redefinir buracos negros –

"A maioria dos físicos tem a tolice de escrever um artigo afirmando que 'não há buracos negros' - pelo menos não no sentido que normalmente imaginamos - provavelmente seriam descartados como excêntricos". - Artigo da Nature sobre as últimas declarações de Hawking

Não se esqueça que mais tarde Haramein acabou redefinindo as partículas subatômicas como mini buracos negros! No entanto, Haramein e Rauscher descreveram a interação da energia do vácuo com a dinâmica do plasma da ergosfera desses buracos negros em seu artigo, Modos coletivos de plasma de oscilação coerente nos meios circunvizinhos dos buracos negros e da estrutura do vácuo - processos quânticos com considerações sobre o torque no espaço-tempo e Coriolis Forces, que finalmente levaram ao seu mais recente artigo, Quantum Gravity, e a Holográfica Mass.

Nesta última publicação, ele demonstra inequivocamente e de maneira bastante simples que o poço gravitacional descrito como um "buraco negro" é na verdade o resultado da dinâmica coletiva coerente da energia de vácuo de Planck na escala quântica, gerando uma superfície holográfica de informação e relação de volume resultando em a massa gravitacional exata do objeto. Em termos simples, descrevendo a gravidade como resultado do comportamento discreto de pequenos “grãos de Planck” do espaço-tempo, como as moléculas de água que descem pelo ralo, enquanto Einstein descreveu a superfície da água como a topologia bidimensional da curva do espaço-tempo produzindo o efeito gravitacional. Ele continua demonstrando que essa nova abordagem da gravidade, na qual a força é gerada por flutuações discretas de Planck no vácuo quântico, pode ser aplicada a objetos quânticos como o próton e produz não apenas a massa correta e o raio exato, que ele prediz e que foi confirmado por experimentos após a publicação, mas também a constante exata do acoplamento gravitacional, demonstrando que a chamada força forte que confina os prótons nos núcleos dos átomos é na verdade essa força gravitacional quântica que atua nas partículas subatômicas.

Uma conseqüência significativa da abordagem de Haramein à gravidade quântica, apresentada na conferência CASYS 2011 na Bélgica, é que as unidades discretas de Planck que ele utiliza para definir a estrutura granular do espaço-tempo na escala quântica têm uma natureza holográfica semelhante ao princípio holográfico normalmente usado em as abordagens atuais para descrever a entropia ou a temperatura de um buraco negro e tentar resolver o paradoxo da informação. O princípio holográfico demonstra que todas as informações no interior do buraco negro são representadas holograficamente em sua superfície em termos de minúsculos "grãos" de Planck. Contudo, no modelo de Haramein, seus cálculos mostram que a quantidade de informação, em termos de unidades esféricas de Planck, no volume de um próton é equivalente à informação de todos os outros prótons no Universo, demonstrando, portanto, que a informação de massa / energia de todos prótons é compartilhado em todas as suas superfícies. Isso implica que o interior de todos os subatômicos negros esteja ligado através de minúsculas redes de buraco de minhoca de Planck, entrelaçando e conectando todas as partículas em um todo holográfico. Portanto, neste modelo, as informações que caem no todo negro são trocadas com todos os outros conjuntos negros e a troca informa continuamente o todo para gerar a evolução do nosso Universo. Como resultado, pode não haver informações perdidas ou paradoxo das informações, pois as informações são compartilhadas continuamente em toda a rede universal preta.

Embora esse pareça ser um conceito extraordinário, outros físicos conhecidos como Leonard Susskind e Juan Maldacena chegaram a conclusões semelhantes em que partículas subatômicas são emaranhadas por buracos de minhoca no espaço-tempo. Em breve, publicaremos comentários sobre essa abordagem específica.

No entanto, e de maneira importante, na tentativa de lidar com a dificuldade do firewall da informação, outra equipe de físicos publicou recentemente um artigo intitulado Planck Stars, divulgado na imprensa popular enquanto a dupla astrofísica propõe a estrela de Planck como o núcleo dos buracos negros. A equipe descreve que a evaporação dos buracos negros devido à radiação Hawking seria interrompida quando a energia em massa do buraco negro atingir a densidade de Planck (~ 1093 gm / cm3). Rovelli e Vidotto então calculam o volume e o raio em que a parada ocorreria e encontram um raio próximo ao tamanho do próton na equação 25. De fato, o formulismo utilizado por Rovelli e Vidotto é extremamente relevante nas equações 3, 4, 8 e 9 em seu artigo, existem todas as variações básicas da equação 19 no artigo sobre Gravidade quântica de Haramein e no artigo de massa holográfica, dadas como: r = 2ℓ (m / mℓ) onde ℓ é o comprimento de Planck e mℓ é a massa de Planck. Haramein extrapola essa solução quantizada para o limite de Schwarzschild, que define o raio de um buraco negro nas equações de campo de Einstein, de uma proporção superfície / volume de unidades esféricas de Planck, onde Rovelli e Vidotto chegam a ele pela curvatura do espaço-tempo. Ambas as abordagens são de natureza geométrica e descrevem diferentes aspectos da dinâmica do espaço-tempo, impulsionados pela resolução quântica.

De acordo com o trabalho deles, quando o buraco negro atinge o limite crítico de densidade de Planck, ele recupera o "estrondo" e libera todas as informações.

Estrelas de Planck: a pesquisa da gravidade quântica se aventura além do horizonte de eventos

11.jpg

16 Dez 2016

Pela equipe de pesquisa da Resonance Science Foundation

 

Na última seção de um de nossos artigos, que trata do chamado paradoxo da perda de informações da física dos buracos negros - Stephen Hawking Goes Gray -, incluímos uma rápida descrição do trabalho de ponta dos dois astrofísicos Carlo Rovelli e Francesca Vidotto descrevendo o que eles vieram chamar Planck Stars, que está ganhando muito interesse na imprensa popular.

O paradoxo da perda de informações é um leito quente de modelagem teórica agora, porque sugere que nossa teoria da física quântica ou nosso modelo de buracos negros é defeituoso ou pelo menos incompleto (o caso mais provável é ambos / e, como geralmente é a solução para aparentes paradoxos, que resulta de um ou outro pensamento). Além disso, e talvez o mais importante, também é reconhecido com alguma presciência que a resolução do paradoxo da perda de informações será a chave para uma descrição holística da gravidade quântica e, portanto, será um grande avanço em direção a uma teoria unificada de campo da física.

O paradoxo, conforme formulado, surge de considerações sobre o destino final da informação que cai em um buraco negro: desaparece ao cair na singularidade no meio? Além disso, o que acontece com as informações de um buraco negro quando ele evapora devido à radiação Hawking (um mecanismo descrito por Hawking nos anos 70, onde os buracos negros irradiam lentamente sua energia ou massa)? Mas por que os físicos estão falando sobre informações e o que eles querem dizer com isso? Existem várias características que descrevem o estado da matéria e energia, e isso é considerado o conteúdo informativo da matéria. Muitas dessas informações são os mesmos dados que você forneceria para descrever seu próprio estado - como sua posição relativa (onde você está?), Sua velocidade (você está se movendo ou está parado?), Etc ... esses estados são, portanto, informações . Como resultado, há uma equivalência entre informação e energia. Se um buraco negro perder toda a sua energia, todas as informações sobre todas as partículas que caíram nele também serão perdidas. É claro que o desaparecimento de informações seria uma violação das leis de conservação de energia, que afirma que nenhuma energia / informação pode ser destruída.

 

Nassim Haramein sempre sustentou que o problema do paradoxo da informação é gerado artificialmente pela compreensão incompleta da radiação do buraco negro, na qual as partículas virtuais das flutuações do vácuo não apenas extraem energia do buraco negro, mas também alimentam energia ou informação no negro. buraco em um feedback contínuo, que experimentamos como campos gravitacionais e eletromagnéticos.

 

Estrelas de Planck

 

No entanto, supondo que a evaporação dos buracos negros ocorra, os astrofísicos Carlo Rovelli e Francesca Vidotto ofereceram talvez uma das soluções mais palatáveis ​​até agora para esse aparente paradoxo (apesar da solução de buraco de minhoca de Leonard Susskind, que comentamos no artigo Firewalls and Cool Horizons ) - e possivelmente um grande avanço em nosso modelo de buracos negros em geral. A equipe, em sua publicação intitulada Planck Stars, demonstra como um objeto em colapso gravitacional não pode ser esmagado até um ponto de dimensão zero (sem brincadeira), mas, em vez disso, alcançará um ponto de equilíbrio metaestável quando o volume atingir uma massa específica. densidade de energia. Imagine o que aconteceria se a massa de 14 dos nossos Sol fosse comprimida em um espaço do tamanho de um núcleo atômico, que força seria necessária para comprimi-lo ainda mais? De acordo com Rovelli e Vidotto, é alcançado um equilíbrio à medida que a força interna de gravidade extrema é balanceada por uma poderosa força repulsiva da densidade quântica da energia do vácuo.

12.jpg

Normalmente, a gravidade quântica é descrita apenas no tamanho extremamente pequeno do diâmetro de Planck (~ 10-33 cm). Tal como na teoria da gravidade quântica em loop, onde o próprio espaço, semelhante à estrutura atômica, possui quantidades discretas no espaço-tempo, como filamentos, entrelaçados em redes de spin, cuja evolução é chamada spinfoam. Embora Rovelli e Vidotto utilizem principalmente os valores de Planck, eles sugerem que os fenômenos gravitacionais quânticos podem se tornar relevantes em tamanhos muito maiores que os de Planck. A razão é que, embora o volume de uma massa em colapso gravitacional seja muito maior que o diâmetro de Planck, a energia da densidade de Planck de um centímetro em cubo de espaço é extremamente grande (~ 1093 gramas por centímetro em cubo) e desde a pressão quântico-gravitacional é o resultado direto da densidade de energia - uma força repulsiva gravitacional quântica ocorrerá em um tamanho relativamente grande para equilibrar a força interna esmagadora do colapso gravitacional. Prevê-se que esta pressão quântica ocorra em tamanhos em torno da escala subatômica (da ordem de 10-10 - 10-14 cm). Portanto, de acordo com seus cálculos, um buraco negro em colapso parava e "volta" quando atinge, o que acaba por ser, o tamanho aproximado de um próton (fato não mencionado pelos autores), que ainda é cerca de 20 pedidos de magnitude maior que o comprimento de Planck. Na seção abaixo, discutiremos o formalismo utilizado por Rovelli e Vidotto, que são variações de equações (volumes, superfícies, comprimentos) encontradas no artigo de Haramein, Quantum Gravity e a massa holográfica, e a relação da estrutura de Planck Star com sua solução de massa de prótons. .

 

De volta para o Futuro

Em termos de uma estrela de Planck, uma massa que foi comprimida nessa densidade não satisfaria mais as equações clássicas de Einstein (não obstante a solução holográfica de Schwarzschild de Haramein) - a relatividade geral mais uma vez encontra a teoria quântica. Imediatamente, alguns físicos levantariam as mãos e gritariam que isso não seria fisicamente relevante, pois um buraco negro desse diâmetro explodiria quase imediatamente em uma explosão de raios gama de alta energia (por causa da relação da taxa de radiação de Hawking com a o tamanho de um buraco negro - quanto menor um buraco negro, mais energia ele irradia). No entanto, o que está sendo negligenciado nesse cenário (que também foi aplicado ao modelo de buracos negros subatômicos de Haramein) são os efeitos relativísticos de uma massa tão compactada. Sabe-se que no horizonte de eventos de qualquer buraco negro - não importa seu tamanho - a extrema curvatura do espaço-tempo faz com que os quadros inerciais locais (espaços adjacentes ao horizonte de eventos) sofram um fator de dilatação do tempo. Não é apenas o espaço que se dobra e se dobra sob a gravidade e a aceleração, mas também o tempo. Dito simplesmente, do ponto de vista de um observador externo, o tempo parece quase parar perto do horizonte de eventos de um buraco negro por causa da aceleração que se aproxima das velocidades relativísticas ou, se você preferir, da velocidade da luz.

13.jpg

Portanto, o tempo adequado de uma estrela de Planck (o tempo experimentado no quadro de referência da própria estrela de Planck) é muito curto (supondo que a radiação de Hawking seja real), no entanto, da perspectiva de um observador externo, a radiação de uma estrela de Planck antes da "Salto" é extremamente longo. A partir do seu próprio período de tempo, basicamente entra em colapso muito próximo da densidade de Planck e experimenta rapidamente um "salto", no qual irradia todas as suas informações de volta ao Universo - nos salvando da temida perda de informações. A equipe demonstra quanto tempo uma estrela de Planck estaria por perto para um observador externo. Tomando um buraco negro com uma massa em torno de 1015 gramas (próximo ao que poderia ser considerado um buraco negro primordial, que descreveremos em breve), ele terá um raio de aproximadamente 10 a 14 centímetros (sobre o raio do próton) e, em seguida, o tempo calculado o fator de dilatação é de aproximadamente 14 bilhões de anos - ou aproximadamente o período de tempo em que se pensa que o Universo existe! Portanto, esses objetos parecem incrivelmente estáveis. Como observação lateral, se você pudesse sobreviver às forças extremas da maré gravitacional, entrar no quadro de referência de uma estrela de Planck seria uma viagem rápida para o futuro - você seria transportado imediatamente para o futuro distante e distante da evolução dessa estrela, algo legal em que pensar.


O universo do bebê

 

Agora, considerando o Universo primitivo, Rovelli e Vidotto demonstram que ele pode não ter emergido de um ponto de singularidade como se acreditava anteriormente, mas sim do “salto” de uma Estrela de Planck atingindo a densidade de Planck e, portanto, dando uma explicação alternativa para o problema. - chamou o Big Bang e deu uma fonte de energia (a densidade da energia do vácuo) à razão pela qual o Universo está inflando. Na densidade planckiana, o Universo estava com uma temperatura tão alta que mesmo partículas subatômicas não podiam se formar. Nesta densidade extremamente alta de energia de massa, teoriza-se que, em todo o Universo, pequenos aglomerados dessa sopa de plasma poderiam ter colapsado para formar buracos negros. Estes são chamados buracos negros primordiais e teoricamente estão distribuídos por todo o espaço até hoje, e provavelmente foram os progenitores dos buracos negros supermassivos que residem no coração da maioria das galáxias. Como um buraco negro primordial em escala atômica teria um ciclo de rejeição de cerca de 14 bilhões de anos, usando os parâmetros calculados por Vidotto e Rovelli para a dilatação do tempo - alguns desses buracos negros primordiais agora começariam a experimentar seu “salto quântico ”, Do nosso ponto de vista (embora em seu devido tempo isso tenha ocorrido 14 bilhões de anos atrás!). Rovelli e Vidotto sugerem que podemos detectar esses eventos interceptando raios gama de alta energia do espaço. Portanto, segundo eles, esses raios gama de alta energia podem conter evidências empíricas reais da gravidade quântica.


O fator Haramein

 

No entanto, Rovelli e Vidotto não conheciam a solução holográfica de Haramein não sabiam que já existem evidências empíricas da gravidade quântica. Isso é a previsão de Haramein do raio de prótons com base na densidade de vácuo de Planck, que até hoje se destaca como a previsão mais precisa da última medição de prótons, e que é o único modelo teórico (incluindo o modelo padrão) que o prevê com precisão, é uma evidência empírica das flutuações quânticas de vácuo de Planck tendo efeitos reais e mensuráveis, ou seja, formando o próton neste caso (é por isso que Rovelli e Vidotto apresentaram um raio muito semelhante para sua estrela de Planck). Haramein extrai o raio correto do próton, demonstrando que a gravidade, não apenas na escala quântica, mas também na escala cosmológica, é fundamentalmente o resultado da estrutura granular de informações de Planck no espaço-tempo, produzindo a força gravitacional que experimentamos como buracos negros, e aplica-o à escala quântica para mostrar que a chamada força confinante que une os prótons nos núcleos é, de fato, a gravidade quântica erroneamente rotulada como força forte. Portanto, a estrutura dos átomos é uma evidência empírica da gravidade quântica das flutuações do vácuo, sendo um ator fundamental na criação de nosso mundo, da gênese cosmológica, como demonstrada por Rovelli e Vidotto, à estrutura e forças de todo o mundo material. É por isso que os cálculos de Planck Star finalmente os levaram ao raio de escala nas proximidades de um próton.

 

Como mencionado em nosso artigo anterior, Hawking vai Gray “De fato, o formulismo utilizado por Rovelli e Vidotto é extremamente relevante, pois as equações 3, 4, 8 e 9 em seu artigo são variações básicas da equação 19 na Gravidade Quântica de Haramein e na Massa Holográfica artigo, dado lá: r = 2ℓ (m / mℓ) onde ℓ é o comprimento de Planck e mℓ é a massa de Planck… Ambas as abordagens são de natureza geométrica e descrevem diferentes aspectos da dinâmica do espaço-tempo impulsionada pelo quantum resolução." Portanto, Rovelli e Vidotto chegam ao mesmo formulismo que Haramein a partir de um caminho completamente diferente, em sua curvatura de caso, onde Haramein veio da estrutura holográfica discreta da pixilação do espaço-tempo. De qualquer forma, os dois são como peças de um quebra-cabeça que se encaixam para nos dar uma compreensão mais profunda da evolução e criação universais.

 

No entanto, embora a equipe de astrofísicos tenha chegado a uma estrela de Planck na região do raio de um próton, não necessariamente lhes ocorreu que a densidade de Planck nesse volume em que o “salto” ocorreria é equivalente à constante cosmológica densidade de energia do vácuo no resto do Universo, que atualmente é pensado para ser a fonte de expansão do Universo. Portanto, a aparente estabilidade do próton, ou, no caso deles, a estrela de Planck, não se deve apenas à dilatação do tempo, mas também a um estado de equilíbrio entre a pressão gravitacional quântica interna da densidade de Planck do próton e a densidade de energia cosmológica do confinamento a vácuo. isto.

 

A utilização das equações de Haramein da Gravidade Quântica e da Massa Holográfica, ostensivamente alcançadas independentemente por Rovelli e Vidotto, demonstra o poder da abordagem da Massa Holográfica na descrição de dinâmicas que envolvem a gravidade quântica.

Cristais do Tempo - Uma Nova Fase da Matéria

14.jpg

07 Fev  2017

Por Resonance Science Foundation Pesquisadores

O mecanismo subjacente à formação de cristais é a quebra de simetria no domínio espacial. Também responsável pelas transições de fase entre líquido e sólido, há muito que está associado a um sistema em equilíbrio - que é um sistema em seu estado fundamental.

No entanto, duas equipes independentes de cientistas confirmaram recentemente a existência de cristais em um estado de não equilíbrio - conhecido como cristais de tempo. Previstos em 2012 pelo ganhador do Prêmio Nobel Frank Wilczek, esses sistemas quebram a simetria no domínio do tempo - onde mostram periodicidades em uma frequência sub-harmônica emergente e são robustos a perturbações externas. Poderia ser uma frequência ressonante do vácuo quântico?

A idéia básica de um cristal do tempo é relativamente direta. Um meio cristalino possui uma estrutura periódica ou de repetição regular. No entanto, devido a considerações entrópicas (forçando a substância ao seu estado de energia mais baixo), o cristal não terá a mesma estrutura de repetição em todas as direções: será assimétrico - isso é conhecido como quebra de simetria da simetria da tradução espacial. Assim, enquanto que com cristais normais essa repetição, a estrutura periódica é assimétrica espacialmente (a configuração espacial da rede cristalina); com um cristal do tempo, a periodicidade assimétrica não está na organização espacial, mas em meios variáveis ​​no tempo.

A matéria ultracoldida normalmente serve como meio, onde os íons são resfriados a uma temperatura tão baixa que não há mais ruído térmico e são confinados dentro de uma armadilha magneto-óptica. Este deve ser um arranjo completamente estacionário; no entanto, devido a uma oscilação variável no tempo direcionada aos íons, eles interagirão com flutuações quânticas de vácuo e o meio girará. Esse é um fenômeno semelhante e relacionado ao efeito dinâmico de casimir, em que fótons e fônons são emitidos a partir do vácuo devido a condições de contorno variáveis ​​no tempo. No caso do cristal do tempo, isso permitiria um dispositivo de rotação.

15.jpg

A razão pela qual isso não havia sido observado até recentemente é que os processos quânticos não são governados por variáveis ​​dependentes do tempo, principalmente porque as partículas quânticas em equilíbrio não têm posições definidas. No entanto, os íons de itérbio em uma armadilha magneto-óptica podem ser submetidos a localização definida e levados ao desequilíbrio quando sujeitos a uma movimentação periódica - nesse caso, um laser que inverte periodicamente a rotação dos íons; tudo isso faz com que eles se correlacionem no tempo. Agora, como deve haver uma oscilação periódica simétrica no tempo dos íons (uma frequência sub-harmônica emergente da taxa de inversão do giro com o laser); a simetria do tempo pode ser quebrada e um cristal de tempo discreto é formado. O anel de íons presos começa a girar.

É extremamente interessante que tal situação seja impulsionada pelas flutuações quânticas do vácuo - como o efeito dinâmico de Casimir, a observação de um cristal do tempo real é uma demonstração clara da energia real do vácuo quântico.

Comentário sobre Cristais do Tempo

16.jpg

08 Fev 2017

Por Resonance Science Foundation Pesquisadores

Recentemente, publicamos um link para o anúncio do primeiro cristal do tempo verificável do mundo. Aqui, elaboraremos um pouco mais sobre o que é um cristal do tempo e por que é importante para a física unificada.

A idéia básica de um cristal do tempo é relativamente direta. Um meio cristalino possui uma estrutura periódica ou de repetição regular. No entanto, devido a considerações entrópicas (forçando a substância ao seu estado de energia mais baixo), o cristal não terá a mesma estrutura de repetição em todas as direções: será assimétrico - isso é conhecido como quebra de simetria da simetria da tradução espacial. Assim, enquanto que com cristais normais essa repetição, a estrutura periódica é assimétrica espacialmente (a configuração espacial da rede cristalina); com um cristal do tempo, a periodicidade assimétrica não está na organização espacial, mas em meios variáveis ​​no tempo.

A matéria ultracoldida normalmente serve como meio, onde os íons são resfriados a uma temperatura tão baixa que não há mais ruído térmico e são confinados dentro de uma armadilha magneto-óptica. Este deve ser um arranjo completamente estacionário; no entanto, devido a uma oscilação variável no tempo direcionada aos íons, eles interagirão com flutuações quânticas de vácuo e o meio girará. Esse é um fenômeno semelhante e relacionado ao efeito dinâmico de casimir, em que fótons e fônons são emitidos a partir do vácuo devido a condições de contorno variáveis ​​no tempo. No caso do cristal do tempo, isso permitiria um dispositivo de rotação perpétua.

15.jpg

A razão pela qual isso não havia sido observado até recentemente é que os processos quânticos não são governados por variáveis ​​dependentes do tempo, principalmente porque as partículas quânticas em equilíbrio não têm posições definidas. No entanto, os íons de itérbio em uma armadilha magneto-óptica podem ser submetidos a localização definida e levados ao desequilíbrio quando sujeitos a uma movimentação periódica - nesse caso, um laser que inverte periodicamente a rotação dos íons; tudo isso faz com que eles se correlacionem no tempo. Agora, como deve haver uma oscilação periódica simétrica no tempo dos íons (uma frequência sub-harmônica emergente da taxa de inversão do giro com o laser); a simetria do tempo pode ser quebrada e um cristal de tempo discreto é formado. O anel de íons presos começa a girar.

É extremamente interessante que tal situação seja impulsionada pelas flutuações quânticas do vácuo - como o efeito dinâmico de casimir, a observação de um cristal do tempo real é uma demonstração clara da energia real do vácuo quântico.

Geometria do espaço-tempo na mecânica quântica

17.jpg

14 Mar 2017

Por William Brown, cientista pesquisador da Resonance Science Foundation

Como a gravidade quântica descreve o funcionamento interno da física de partículas: a geometria quântica do entrelaçamento - avança além da interpretação de Copenhague.

Em um artigo recente do principal físico teórico Leonard Susskind, diretor do Instituto Stanford de Física Teórica, um grande enigma da mecânica quântica de Copenhague é abordado quando Susskind lidera o elefante na sala para o principal modelo de partícula física. O estudo começa identificando uma das principais deficiências da Interpretação de Copenhague, a saber, a necessidade de um único observador externo que não faça parte do sistema em estudo. Esse requisito levou a uma quantidade razoável de confusão e inconsistências lógicas ao tentar entender a relação entre a multiplicidade de observadores e o sistema sob observação. Obviamente, a situação exigida pela Interpretação de Copenhague é insustentável, pois o universo está cheio de subsistemas que podem desempenhar o papel de observador, e não há isolamento verdadeiro de um sistema para que ele possa evoluir independentemente de "medições".

18.jpg

No artigo de pesquisa The Unified Spacememory Network publicado no Journal of NeuroQauntology, o físico Nassim Haramein, o biofísico William Brown e a astrofísica Dr. Amira Val Baker, elaboram neste ponto a multiplicidade de observadores, ou "subsistemas", para estabelecer a base para uma discussão de um modelo ontológico da física da consciência, expondo algumas das inconsistências lógicas da mecânica quântica de Copenhague ao longo do caminho.

No manuscrito da USN, Haramein e outros afirmam:

Uma investigação da natureza da consciência, como se vê, está inextricavelmente ligada à exploração da natureza da realidade. Isso é sintetizado no ditado secular: “se uma árvore cai na floresta e ninguém está por perto para ouvi-la, isso soa?” Em que grau e extensão a realidade objetiva depende do observador? Claramente, a maioria de nós concorda que, é claro, produz um som, pois o som é apenas vibrações mecânicas que se propagam nas moléculas de ar.

No entanto, essa questão ressurgiu na forma do gato de Schrödinger, em parte para demonstrar a natureza não física do modelo da teoria quântica de Heisengberg-Bohr, também conhecida como interpretação de Copenhague, que é o modelo mecânico quântico predominante. Tais modelos surgiram de tentativas de interpretar os mecanismos físicos do famoso experimento de fenda dupla, que foram considerados por alguns físicos como não tendo explicação clássica. No entanto, estudos experimentais recentes encontram uma interpretação diferente do experimento de dupla fenda, baseado na dinâmica de fluidos em sistemas clássicos. A interpretação de Copenhague levou à inferência típica de que o observador e o observado podem ser isolados do sistema em que estão inseridos, ou seja, todos os outros quadros - na medida em que seu relacionamento define a redução da amplitude de probabilidade (colapso da função de onda) em um evento definido. Nesse modelo, a função de onda que descreve a superposição de valores próprios é usada para traduzir como uma amplitude de probabilidade, e uma partícula não tem existência física real até que seja observada de alguma forma.

O conceito de que um observador gera a realidade em que o evento ocorre, como a emissão de som pela árvore em queda, assume um isolamento do quadro de referência em relação ao evento. Ou seja, todas as interações no sistema, as moléculas de ar, por exemplo, os pássaros na árvore vizinha, a vida microbiana ao redor e na árvore e assim por diante, podem ser considerados quadros de referência - “observadores” - experimentando o evento de diferentes perspectivas. Existe um mecanismo no qual a relação dos quadros de referência gera um comportamento coletivo que eventualmente evolui para um estado de autoconsciência?

Mais recentemente, Susskind examinou a Interpretação de Copenhague e declara:

É óbvio que a Interpretação de Copenhague não pode ser a última palavra. O universo está cheio de subsistemas, qualquer um dos quais pode desempenhar o papel de observador. Não há lugar nas leis da mecânica quântica para o colapso da função de onda; a única coisa que acontece é que a função geral das ondas evolui de forma unitária e se torna cada vez mais emaranhada. O universo é uma rede imensamente complicada de subsistemas emaranhados, e somente em alguma aproximação podemos destacar um subsistema específico como O OBSERVADOR.

- Leonard Susskind, Copenhague vs Everett, Teletransporte e ER = EPR, 2016.

Esses recentes avanços, vindos de Susskind, Haramein e outros físicos importantes, podem ser vistos como um retorno ao realismo; porque, se não houver um verdadeiro isolamento de um sistema dos inúmeros subsistemas que podem atuar como observadores, a Interpretação de Copenhague de que as partículas não existem até serem medidas torna-se obsoleta. Uma partícula é sempre, de uma forma ou de outra, emaranhada com outro sistema. Essa interação constante significa que “medições”, ou observações, estão sempre ocorrendo; portanto, não há nenhum ponto em que uma partícula exista apenas como uma superposição abstrata, uma forma de onda puramente matemática sem posição ou momento definido.

Nos artigos Quantum Gravity e the Mass Holográfico, e mais recentemente The Electron and the Holographic Mass Solution, o desafio secular de descrever as soluções de uma física unificada é encontrado. Em sua essência mais simples, a solução vem da estrutura quântica e da geometria multi-conectada do espaço-tempo, onde flutuações energéticas discretas nas menores escalas curvam o espaço-tempo a um nível tão alto que a gravidade quântica os une em minúsculos buracos negros - que são os elementos elementares. partículas compreendendo matéria.

Quando calculados com as relações de razão holográfica dos osciladores energéticos discretos do espaço-tempo, são emitidos parâmetros fundamentais: uma façanha que é a primeira vez em que caracteres elementares da física são derivados dos primeiros princípios. Forças de massa, carga, rotação, eletromagnética e confinamento são todas manifestações da geometria da rede de buracos de minhoca na escala de Planck e das relações de razão holográfica do espaço-tempo curvado - o universo falando consigo mesmo. Esses fatores não são adicionados como parâmetros livres, sem explicação sobre sua fonte, e não há necessidade de campos eletromagnéticos separados e independentes, campos de Higgs e campos de cores (QCD) - todos os domínios são unificados como a geometria quântica de multiplicação. espaço-tempo conectado; gravidade quântica.

 

A partir disso, já vemos como a geometria quântica do espaço-tempo holográfico está subjacente a muitas das mecânicas e propriedades da física de partículas. A cena estava preparada para abordar alguns dos aspectos mais desconcertantes da teoria quântica, como emaranhamento, superposição e outras características não-locais da mecânica quântica. No artigo da Rede Unificada de Memória Espacial, Haramein e sua equipe de pesquisa descrevem a geometria estendida dos osciladores a vácuo em escala de Planck e vê-se como eles são de fato buracos de minhoca.

 

Essa rede planckiana de buracos de minhoca forma redes de emaranhamento de todos os quadros espaciais e temporais, essencialmente ligando o espaço-tempo. Nessa abordagem, as partículas são reveladas como configurações discretas de co-rotação do espaço-tempo na escala de Planck, enredadas pelas redes de micro-minhocas planckianas que trocam informações entre escalas. Essa compreensão reveladora da natureza emaranhada do espaço-tempo e de suas partículas discretas foi aplicada para entender a fonte da notável coerência e unidade que permite sistemas auto-organizados e os leva a crescer em complexidade e sinergia organizacional. É importante notar que, embora esses conceitos possam parecer extravagantes e abrangentes, a matemática resultante de tais modelos é demonstrada por Haramein et al., Para prever forças e massas fundamentais de partículas com extrema precisão.

 

Outros estão chegando a conclusões notáveis ​​semelhantes. Em um artigo de 2013, Susskind e Juan Maldacena (veja nosso artigo de revisão Firewalls ou Cool Horizons) explicaram isso com a elegante e simples “equação”, ER = EPR. Onde ER representa pontes de Einstein-Rosen (buracos de minhoca ou ERBs) e EPR representa correlações de Einstein-Rosen-Podolsky (sistemas quânticos que satisfazem a desigualdade de Bell ... isto é, não-localidade). Afirmando essencialmente que onde há emaranhamento quântico entre dois pares de partículas, há um buraco de minhoca planckiano conectando-os. Muitos adotaram essa idéia como significando que a geometria do espaço-tempo é o resultado do entrelaçamento quântico, mas Susskind tem sido mais ousada do que isso e afirmou que pode ser que o entrelaçamento seja o resultado da geometria do espaço-tempo, de modo que, onde existem buracos de minhoca, existe entrelaçamento (uma ideia que é controversa entre muitos físicos).

19.jpg

No artigo mais recente, Susskind expõe ainda mais a natureza e as consequências do emaranhado de vácuo. É demonstrado como todo o universo deve ser tratado como um único sistema emaranhado, uma descrição que já está presente na Formulação de Estado Relativo de Everett da mecânica quântica, na qual não há colapso da função de onda - uma característica principal da interpretação de Copenhague .

20.jpg

Isso imbui as partículas da mecânica quântica com um novo realismo encontrado, pois elas existem com uma posição e momento reais antes de serem medidas, assim como na teoria das Ondas Piloto de Broglie-Bohm, que demonstrou descrever quase todos os fenômenos quânticos apenas. bem como a interpretação de Copenhague, mas com uma compreensão clara da causa dos efeitos observados. Isso obteve um sucesso particular na demonstração dos resultados do famoso experimento de fenda dupla, no qual um sistema analógico hidrodinâmico quântico pode resultar em interferência de onda devido à interação de uma "partícula" com sua própria onda piloto em um meio fluido.

Em apoio à importância da geometria quântica do espaço-tempo (ostensivamente além de suas propriedades hidrodinâmicas, como demonstrado na teoria da Onda Piloto), Susskind demonstra como fenômenos mecânicos quânticos não-locais, além de apenas entrelaçamento, também podem ser completamente descritos por conexões de micro-minhocas planckianas . Incluindo os resultados do experimento de dupla fenda e teletransporte quântico. Um ponto importante de tudo isso, e um que o próprio Susskind reconheceu: "é que não há separação nítida entre partículas e buracos negros" (veja a sessão de perguntas e respostas de sua palestra sobre ER = EPR, o que está por trás do horizonte dos buracos negros ?), embora as partículas sejam pequenas em comparação com suas contrapartes astrofísicas.

À medida que a estrutura geométrica quântica do espaço-tempo é explorada em detalhes cada vez maiores, começamos a ver como ele é literalmente o Universo Conectado, uma visão que Haramein vem promovendo há mais de três décadas.

Novas medições excedem o limite de incerteza de Heisenberg; é esta evidência experimental para teorias quânticas não ortodoxas?

21.jpg

O princípio da incerteza de Heisenberg é um limite teórico essencial para a precisão com a qual certos pares de propriedades físicas de um estado quântico, como posição e momento, podem ser conhecidos. Na formulação de Bohr-Heisenberg da teoria quântica, também conhecida como interpretação de Copenhague, o princípio da incerteza de Heisenberg é levado além de um mero limite teórico da precisão com que medidas podem ser feitas em sistemas quânticos e, em vez disso, é interpretado como uma propriedade fundamental de o universo em que existe um certo nível de indeterminação intrínseca que impõe restrições insuperáveis ​​ao grau de certeza com o qual qualquer medição de variáveis ​​complementares pode ser feita.

22.jpg

Isso, é claro, está de acordo com a teoria da mecânica quântica de Bohr-Heisenberg e argumenta essencialmente que a incerteza absoluta e as limitações irredutíveis à possibilidade de obter certo conhecimento sobre um estado quântico refletem a falta de sentido inerente aos estados reais reais das partículas - como um caminho ou trajetória. Por causa dessa incerteza inerente, o que classicamente consideramos uma partícula literalmente toma todos os caminhos concebíveis e está em todos os estados concebíveis - é uma função de onda em uma superposição de estados até que um de um par de variáveis ​​seja medido.

Agora, parece que um experimento recente está colocando em questão essa idéia de indeterminação quântica inerente à medida que outra técnica foi desenvolvida que pode fazer medições de variáveis ​​complementares com precisão excedendo o limite da indeterminação de Heisenberg. Os pesquisadores usaram luz laser para ligar átomos de césio e uma membrana vibratória. A pesquisa aponta para sensores capazes de medir o movimento com precisão invisível além dos limites da Heisenberg.

Em um relatório científico publicado na edição desta semana da revista Nature, os pesquisadores do NBI - com base em várias experiências - demonstram que o Princípio da Incerteza de Heisenberg, em algum grau, pode ser neutralizado. Isso nunca foi demonstrado antes, e os resultados podem estimular o desenvolvimento de novos equipamentos de medição, bem como de novos e melhores sensores.

O professor Eugene Polzik, diretor de Quantum Optics (QUANTOP) do Instituto Niels Bohr, foi responsável pela pesquisa - que incluiu a construção de uma membrana vibratória e uma nuvem atômica avançada trancada em uma pequena gaiola de vidro.

… A idéia por trás da célula de vidro é enviar deliberadamente a luz do laser usada para estudar os movimentos da membrana no nível quântico através da nuvem atômica encapsulada antes que a luz atinja a membrana, explica Eugene Polzik: "Isso resulta nos fótons da luz do laser" chutar 'o objeto - isto é, a membrana - e a nuvem atômica, e esses' chutes ', por assim dizer, se cancelam. Isso significa que não há mais nenhuma Ação Quântica para Trás - e, portanto, não há limitações quanto à precisão da medição realizada a nível quântico "

Essa capacidade de exceder os limites de Heisenberg está demonstrando que a indeterminação do modelo quântico ortodoxo pode não ser intrínseca ou fundamental da maneira como se pensa convencionalmente. Tal descoberta apóia outros modelos da teoria quântica, que contêm todo o mesmo poder explicativo e concordância com a experimentação que a teoria quântica ortodoxa, mas diferem na interpretação da mecânica subjacente.


A teoria das ondas piloto de De Broglie-Bohm é justamente essa interpretação que a Resonance Science Foundation frequentemente destaca como um exemplo superlativo de uma interpretação realista, determinística e não-local da teoria quântica. Na teoria das ondas piloto, também conhecida como mecânica bohmiana, os estados quânticos, como trajetórias de partículas, são reais e, desde que determinísticos. Eles evoluem de acordo com uma função de onda universal, significando que a interação de qualquer partícula é influenciada pela evolução do estado de todo o universo. Dessa forma, é impossível separar nosso equipamento de medição (ou nós mesmos) do sistema que está sendo medido; portanto, sempre há algum grau de incerteza na medição. Isso não é incerteza inerente ou intrínseca, mas pode ser superado com a aplicação correta, por exemplo, usando o método recente desenvolvido pela equipe de pesquisa do Niels Bohr Institute.

A origem do metabolismo

23.jpg

05 Abr 2017

       

Artigo de notícias da ciência RSF

Uma grande questão na ciência é como a vida emergiu de ambientes ostensivamente abióticos. O que demarca a transição da matéria prebiótica para os sistemas vivos? Que ambientes poderiam ter promovido um circuito químico tão complexo? A vida é suportada em três pilares principais: (1) replicação - um sistema molecular capaz de codificar informações, principalmente a sua própria reprodução; (2) Síntese - a maquinaria molecular para ler e executar informações codificadas para montar novas peças e replicar; e (3) Metabolismo - a capacidade de extrair energia do meio ambiente para conduzir processos distantes do equilíbrio, incluindo a síntese química de "blocos de construção" moleculares.

Uma explicação popular para o surgimento dos primeiros replicadores químicos é conhecida como a 'hipótese do mundo do RNA'. O ácido ribonucleico é um polímero capaz de codificar informações em sua sequência de ácidos nucleicos e realizar catálise enzimática - portanto, poderia ter potencialmente servido como um elo único entre os processos de replicação e síntese. Isso é atraente porque é preciso que a molécula da informação produza fielmente as nanomáquinas do metabolismo, particularmente a enzima que executa a replicação, mas uma enzima é necessária por sua vez para produzir a molécula da informação. A molécula de RNA poderia servir como elo entre esses dois domínios - replicação e síntese.

No entanto, existem problemas com a hipótese mundial do RNA que parecem indicar que ela não explica adequadamente os primeiros passos no surgimento de sistemas vivos. Uma questão importante com a hipótese é a geração de ribonucleotídeos e sua polimerização em uma macromolécula ligada covalentemente. Ambos são processos químicos de alta energia e é difícil imaginar como eles ocorreriam sem uma fonte abundante e reabastecedora de ribonucleotídeos e um processo que impulsiona sua polimerização, isto é, um metabolismo primordial.

Isso é conhecido como a hipótese do 'metabolismo primeiro'. Antes da molécula de informação e do replicador, havia um metabolismo prebiótico capaz de gerar os blocos de construção necessários para esses sistemas, bem como as moléculas de alta energia para conduzir as reações de não equilíbrio. O Dr. Gerald Pollack, conhecido por seu trabalho em água estruturada, descreveu processos pelos quais as moléculas orgânicas iniciais poderiam ter sido suficientemente concentradas para permitir síntese e replicação sustentadas - as primeiras células. A água estruturada poderia ter formado estruturas microscópicas semelhantes a gel que funcionavam com os papéis duplos de um pré-citoplasma antigo e uma camada limite para o ambiente externo de maior entropia.

A hipótese de Pollack explica como o seqüestro e a concentração de moléculas orgânicas antigas foram alcançados, mas ainda precisamos de uma explicação sobre como os metabólitos centrais prebióticos necessários para um metabolismo primordial foram gerados, e um novo relatório tem evidências experimentais para esse mecanismo. Uma equipe de cientistas da Universidade de Kentucky e do Instituto de Tecnologia de Massachusetts (MIT), nos Estados Unidos, e da Universidade McGill, no Canadá, publicaram um artigo descrevendo uma conexão entre a fotossíntese prebiótica do ZnS e a replicação da argila. O artigo relatou como os metabólitos prebióticos disponíveis a partir de simples reações promovidas pela luz solar podem catalisar a síntese de minerais de argila (ou seja, uma argila de zinco chamada sauconita). O trabalho mostra que metabólitos centrais como succinato e malato podem viabilizar o processo de nucleação para a formação de argila. Esses metabólitos prebióticos foram gerados por fotocatálise com ZnS, e este trabalho demonstra como eles podem catalisar a síntese de argilas.

Isso descreve como as redes metabólicas primordiais e a catálise mineral da argila co-evoluíram, sustentando e realimentando uma à outra para impulsionar a formação de moléculas orgânicas necessárias para a vida. O mecanismo da fotoquímica promovida por semicondutores teria desempenhado um papel importante na promoção de reações que, de outra forma, não são favorecidas, fornecendo a base para o metabolismo complexo atual.

O sistema vivo desempenha um papel integral nas operações de feedback que informam ao sistema maior como organizar e desenvolver. Dessa maneira, vida e senciência são aspectos funcionais do universo. Entender como a vida emerge no universo é, portanto, um aspecto fundamental de uma teoria unificada e totalmente coerente do tudo.

https://phys.org/news/2017-04-idea-synthesis-clays-metabolism.html#jCp

Uma nova ideia conecta a síntese de argilas e a origem do metabolismo

A questão de como a vida começou fascinou cientistas de várias disciplinas e foi o químico orgânico Graham Cairns-Smith quem propôs a teoria para a origem da vida a partir de argilas em vez de polímeros como o RNA.

A fonte dos monômeros, como nucleotídeos, aminoácidos e ácidos dicarboxílicos, foi relegada por Cairns-Smith à evolução do metabolismo, que é a síntese de aminoácidos e nucleotídeos do ciclo do ácido cítrico.

Esse problema da evolução do metabolismo foi recentemente promovido pelo comportamento de minerais semicondutores simples, como o sulfeto de zinco (ZnS), capazes de captar energia solar e converter essa energia na formação de ligações químicas de ácidos dicarboxílicos do CO2, fornecendo assim as reações principais do metabolismo universal antes da existência de enzimas.

Uma conexão entre a fotossíntese prebiótica do ZnS e a replicação da argila foi estabelecida em um artigo publicado por uma equipe de cientistas da Universidade de Kentucky e do Instituto de Tecnologia de Massachusetts (MIT) nos Estados Unidos e da Universidade McGill no Canadá. O artigo relatou como os metabólitos prebióticos disponíveis a partir de simples reações promovidas pela luz solar podem catalisar a síntese de minerais de argila (ou seja, uma argila de zinco chamada sauconita). O trabalho mostra que metabólitos centrais como succinato e malato podem viabilizar o processo de nucleação para a formação de argila. Esses metabólitos prebióticos foram gerados por fotocatálise com ZnS, e este trabalho demonstra como eles podem catalisar a síntese de argilas.

O estudo publicado na revista científica Scientific Reports mostra como uma síntese de argila pode prosseguir catalisada por metabólitos prebióticos em apenas 20 horas a 90 ° C e 1 atm. A formação de argila geralmente requer tempos muito mais longos, além de temperatura e pressão mais altas. A microscopia eletrônica de transmissão criogênica mostra claramente que as nanopartículas de argila podem ser observadas após apenas 6 horas de síntese, conforme verificado pela incorporação de alumínio na camada tetraédrica.

A equipe observou que a síntese de argila pode prosseguir a temperaturas ainda mais baixas, ou seja, a apenas 70 ° C, com a adição de uma única partícula de semente. O trabalho apresenta um excelente exemplo do poder reprodutivo dos minerais argilosos e do mecanismo pelo qual os metabólitos prebióticos catalisam sua formação. Os minerais de argila que atuam como esponjas químicas podem reter água e moléculas orgânicas polares e deveriam ter desempenhado um papel fundamental na origem da vida; 1) proteger contra a radiação ultravioleta e 2) concentrar e catalisar a polimerização de moléculas orgânicas como o RNA. O resultado deste trabalho tem implicações diretas para entender a origem da vida na Terra primitiva e em outros planetas rochosos.

Cientistas finalmente medem a força dos laços que mantêm a água unida

24.jpg

17 Mai 2017

A água tem algumas propriedades notáveis. Possui quase a capacidade térmica específica mais alta de qualquer substância, o que significa que pode absorver muita energia térmica quando o ambiente está quente e liberar muita energia térmica quando o ambiente está frio - tornando-o o principal regulador da temperatura da superfície da Terra. Torna-se menos densa à medida que se solidifica, de modo que os habitats da água em regiões frias permanecem parcialmente líquidos à medida que o gelo sólido flutua no topo da coluna d'água e forma uma camada protetora - permitindo que os habitantes aquáticos sobrevivam aos invernos frios. Quando as moléculas de água se formam, adotam uma geometria tetraédrica, uma das conseqüências da formação de um dipolo elétrico parcial - tornando a água um solvente importante. De fato, a água é chamada de 'solvente universal ", porque dissolve mais substâncias do que qualquer outro líquido.

A fonte de muitos dos atributos notáveis ​​da água se deve à sua geometria molecular - o dipolo elétrico parcial formado por suas duas porções de hidrogênio e um átomo de oxigênio. Tal que o átomo de oxigênio é levemente eletro-negativo em um polo e os átomos de hidrogênio covalentemente ligados são levemente carregados positivamente no outro polo. Isso faz com que a água forme ligações fracas orientadas para o tetraedro com moléculas de água adjacentes. É por esse motivo que as moléculas de água são fortemente atraídas uma pela outra, o que significa que é necessária uma boa quantidade de energia para separá-las, como na evaporação ou no aumento da distância associada ao congelamento.

25.jpg

Essa ligação fraca entre átomos de hidrogênio e elementos eletro-negativos é chamada de ligação de hidrogênio, que confere à água suas incríveis qualidades, mas também está envolvida em muitas outras interações moleculares - como manter as cadeias de DNA juntas para formar a dupla hélice, coordenando a dobra de proteínas para permitir quase todas as funções da célula e causando a formação de membranas estáveis ​​devido a interações hidrofóbicas - hidrofílicas. É uma interação tão importante que, se a força da ligação de hidrogênio fosse levemente diferente na água, a vida como a conhecemos não seria possível.

"... se a força da ligação de hidrogênio for ligeiramente diferente do seu valor natural, poderá haver conseqüências consideráveis ​​para a vida. Nos extremos, a água não seria líquida na superfície da Terra em sua temperatura média se as ligações de hidrogênio fossem 7% mais fortes ou 29% mais fraco. A temperatura da densidade máxima que ocorre naturalmente a cerca de 4 ° C desapareceria se as ligações de hidrogênio fossem apenas 2% mais fracas.

Principais consequências para a vida são encontradas se as ligações de hidrogênio não tiverem sua força natural. As ligações de hidrogênio podem ter efeitos substanciais no metabolismo normal.A ionização da água se torna muito menos evidente se as ligações de hidrogênio são apenas um pouco mais fortes, mas a água pura contém consideravelmente mais íons H + se eles são um pouco mais fracos. e K + perdem suas propriedades distintas se as ligações de hidrogênio forem 11% mais fortes ou 11% mais fracas, respectivamente.A hidratação de proteínas e ácidos nucléicos depende de maneira importante da força relativa das interações biomoléculas - água em comparação com as interações água - água das ligações hidrogênio. A ligação mais forte de hidrogênio na água leva a que as moléculas de água se agrupem e, portanto, não estejam disponíveis para a hidratação biomolecular. Geralmente as formas desnaturadas estendidas de proteínas se tornam mais solúveis em água se as ligações de hidrogênio se tornarem substancialmente mais fortes ou mais fracas. Se as alterações nessa ligação forem suficientes, as proteínas globulares naturais presentes não poderão existir na água líquida. A conclusão geral desta investigação é que a força da ligação de hidrogênio da água está posicionada centralmente dentro de uma janela estreita de sua aptidão para a vida. "--- Força da ligação de hidrogênio da água.

Isso coloca a força de ligação do hidrogênio, particularmente a água, na "categoria de ajuste fino" com várias outras constantes e interações de forças da natureza que, se fossem um pouco diferentes de seus valores, proibiriam a formação de um universo com mesmo graus nominais de complexidade.

Tudo considerado, a força exata da ligação de hidrogênio é um valor importante a ser conhecido. É por isso que as últimas notícias da medição quantitativa precisa e direta da força de ligação de hidrogênio por microscopia de força atômica são tão empolgantes. Com essa técnica, os cientistas agora podem medir diretamente a força das ligações de hidrogênio, bem como da imagem dos átomos de hidrogênio, algo que antes só era inferido, já que o hidrogênio é o menor elemento e sua posição em uma molécula é difícil de determinar usando técnicas padrão.

"Com apenas um único elétron e um único próton, o hidrogênio é o menor átomo, mas sua geração nos estágios iniciais do universo o torna o elemento mais abundante, constituindo 75% de toda a massa bariônica. A reatividade extremamente alta do hidrogênio significa que forma facilmente compostos covalentes com quase todos os elementos não metálicos, famosos, oxigênio e carbono.Portanto, identificar e entender o papel de um elemento tão onipresente tem sido desafios científicos-chave.Em particular, os hidrocarbonetos são um dos produtos mais variados e funcionalizados do mundo. coração da engenharia, química e vida, e o hidrogênio é frequentemente crítico em sua função ". - medição quantitativa precisa e direta da força de ligação do hidrogênio por microscopia de força atômica.

Formas de superestrutura de água quiral em torno do DNA

26.jpg

02 Jun 2017

Artigo de notícias da ciência RSF

Pesquisadores da Universidade de Notre Dame observaram pela primeira vez uma superestrutura de água quiral modelada em torno de uma biomolécula. Embora muitos estudos tenham demonstrado a interação direta da água com macromoléculas altamente importantes como o DNA, o último estudo é uma confirmação final de que a água forma uma superestrutura única e duradoura em torno da dupla hélice do DNA - estabilizando a conformação molecular, mediando sua funcionalidade e interação com intermediários importantes da informação como RNA polimerase.

Levando em consideração outros relatórios recentes, como o mapeamento direto de acoplamentos moleculares e a troca de energia entre as vibrações do DNA e a água com a espectroscopia no infravermelho de femtossegundos, está se tornando cada vez mais difícil ignorar o papel central da água em alguns dos mais importantes aspectos biológicos. funções. A água forma padrões de hidratação em torno das biomoléculas por meio de interações de ligações de hidrogênio - e é tão crucial na organização e orquestração do ambiente celular que pesquisadores como Gerald Pollack até destacaram sua importância como possível progenitor da membrana celular - dando à luz as primeiras células de vida.

O estudo mais recente usou microscopia vibracional não-linear coerente para velocidades de imagem vibracional sem precedentes e resolução espacial molecular, permitindo que moléculas de DNA e os padrões de hidratação associados à água fossem observados em detalhes em condições quase fisiológicas (temperatura ambiente e solução de NaCl 100 mM). A equipe de pesquisa descobriu que o DNA imprime sua quiralidade (pense nas orientações canhoto e destro) nas moléculas de água circundantes, causando a formação de uma superestrutura macroscópica do modelo de água ao longo da dupla hélice do DNA.

Embora se saiba que o modelo específico de modelagem de moléculas de água ao longo da molécula de DNA é importante para o reconhecimento de seqüências promotoras de genes por proteínas em interação (ver, por exemplo, o estudo 'água interfacial como impressão digital de hidratação'), a completa relevância biológica de um quiral coluna de hidratação é desconhecida. Embora apóie conclusões controversas como a de Luc Montagnier - em que o Prêmio Nobel e sua equipe de pesquisa, incluindo o físico teórico Emilio Del Giudice, foram pioneiros no trabalho sobre a teoria quântica de campos de matéria mole condensada, especialmente água - realizaram uma série de experimentos que sugerem que as seqüências de DNA podem ser reconstituídas a partir da memória da água. O estudo está detalhado no relatório "transdução de informações de DNA através da água e ondas eletromagnéticas".

A capacidade de detectar diretamente a interação da água e o papel central nas funções biomoleculares é um empolgante desenvolvimento de tecnologias espectroscópicas avançadas e biologia molecular e fornecerá informações reveladoras das propriedades biofísicas e físico-químicas no nível molecular da vida.

Quando Szent-Gyorgyi chamou a água de "matriz da vida", ele estava ecoando um sentimento antigo. Paracelso, no século XVI, disse que "a água era a matriz do mundo e de todas as suas criaturas". Mas a noção de matriz de Paracelso - uma substância ativa imbuída de propriedades fecundas e vitais - era bem diferente da imagem de que, até muito recentemente, os biólogos moleculares tendiam a manter o papel da água na química da vida. Embora reconheça que a água líquida tenha propriedades físicas e químicas incomuns e importantes - sua potência como solvente, sua capacidade de formar ligações de hidrogênio, sua natureza anfotérica [uma molécula que pode reagir tanto como um ácido como uma base] - os biólogos considerava-o essencialmente como o pano de fundo no qual os componentes moleculares da vida estão dispostos. Costumava ser prática comum, por exemplo, realizar simulações de biomoléculas por computador no vácuo. Em parte, isso ocorreu porque a intensidade computacional da simulação de uma cadeia polipeptídica era desafiadora, mesmo sem levar em consideração as moléculas de solvente, mas também refletia a noção predominante de que a água faz pouco mais do que temperar ou moderar as interações físico-químicas básicas responsáveis ​​pela biologia molecular. O que Gerstein e Levitt disseram há 9 anos permanece verdadeiro hoje: “Quando os cientistas publicam modelos de moléculas biológicas em periódicos, eles geralmente desenham seus modelos em cores vivas e os colocam em um fundo preto liso”.

Curiosamente, essa negligência da água como componente ativo da célula andava de mãos dadas com a suposição de que a vida não poderia existir sem ela. Essa foi basicamente uma conclusão empírica derivada de nossa experiência de vida na Terra: ambientes sem água líquida não podem sustentar a vida e são necessárias estratégias especiais para lidar com situações nas quais, devido a extremos de calor ou frio, o líquido é escasso. A confirmação recente de que há pelo menos um mundo rico em moléculas orgânicas nas quais rios e talvez mares rasos ou pântanos são preenchidos com fluido não aquoso - os hidrocarbonetos líquidos de Titã - pode agora trazer um pouco de atenção, até urgência, à questão de se a água é de fato uma matriz única e universal da vida, ou se, pelo contrário, é exatamente a que pertence ao nosso planeta. - Phillip Ball, Água como componente ativo em Biologia Celular.

Pedra egípcia é anterior ao sol

27.jpg

11 Jan 2018

Dr. Amira Val Baker, Astrofísico da Fundação da Ciência da Ressonância

A análise recente de uma pedra encontrada na área de Vidro do Deserto da Líbia, no sudoeste do Egito, provocou debates e repensou o consenso atual sobre a formação do sistema solar.

Em um estudo, que será publicado no próximo mês, uma equipe de pesquisadores internacionais anunciou a análise resultante de uma pedra que foi posteriormente denominada Hypatia, em homenagem à antiga astrônoma feminina de Alexandria.

Utilizando técnicas da microscopia eletrônica de varredura para induzir emissão de raios X e espectroscopia micro-Raman - os resultados revelaram compostos não encontrados em nenhum lugar do planeta, sistema solar ou meteorito conhecido. Além disso, foi encontrada uma falta de silicatos, o que o diferencia das partículas de poeira interplanetárias e de todo o material cometário conhecido. Análises anteriores de estudos de isótopos de gases e nitrogênio nobres sugerem uma origem extraterrestre, que, juntamente com esses novos resultados, sugere fortemente uma origem pré-solar e pode indicar um alto grau de heterogeneidade na nebulosa solar.

O consenso geral sobre a formação do sistema solar é que uma enorme nuvem de gás foi perturbada e causou colapso gravitacional, formando uma nebulosa solar. O colapso contínuo fez com que a nebulosa aumentasse de rotação, formando um centro quente e denso e um fino disco ao redor. À medida que o disco ficava mais fino, as partículas começaram a coalescer e eventualmente se tornaram planetas e satélites. O centro acabou ficando tão quente e denso que formou uma estrela - o Sol. Neste modelo, supõe-se que a nebulosa solar tenha um alto grau de homogeneidade. No entanto, esta nova descoberta indica um alto grau de heterogeneidade nas primeiras nebulosas solares !!!

Isto é de enorme importância não apenas para a formação do sistema solar, mas também para a sua idade.

Precisão aprimorada na constante do Hubble sugere nova física

28.jpg

02 Mar 2018

Pela equipe de pesquisa da Resonance Science Foundation

A precisão da constante Hubble tem sido um tema de debate desde sua descoberta na década de 1920. Quando um acordo parecia finalmente chegar ao horizonte, uma nova técnica de medição mostrou discrepância e agora essa discrepância acaba de ser verificada com ainda mais precisão.

A constante Hubble foi descoberta por Edwin Hubble em 1929 através de seus estudos observacionais das velocidades de recessão das galáxias. Hubble descobriu que a velocidade de recessão das galáxias aumentava com o aumento da distância a uma taxa proporcional, agora conhecida como constante de Hubble.

29.jpg

Desde então, a constante Hubble foi medida com diferentes graus de precisão, de 500 km / s / Mpc a 100 km / s / Mpc, até chegar finalmente a um acordo de ~ 70 km / s / Mpc. No entanto, o método alternativo para medir a constante de Hubble - a partir do fundo cósmico de microondas (CMB) - gera um número um pouco menor. Essa discrepância foi agora confirmada com ainda mais precisão pelo vencedor do Nobel Adam Riess, que encontrou um valor de 73,48 km / s / Mpc com 2,3% de precisão.

Riess e sua equipe determinaram a constante de Hubble através de medições de distância de galáxias usando métodos de paralaxe e também velas padrão, como variáveis ​​cefeidas (leia mais aqui) e supernovas tipo 1a. A paralaxe estelar é o ângulo subtendido por uma estrela no raio da Terra - e, portanto, é determinado medindo a posição estelar em pontos opostos da órbita da Terra em torno do Sol (ou seja, janeiro e julho). No entanto, a paralaxe é limitada pela resolução de estrelas individuais, sendo útil apenas em distâncias curtas (~ 100 anos-luz). Para distâncias maiores, velas padrão podem ser usadas, conhecidas como tais com base em sua luminosidade intrínseca característica - magnitude absoluta. Por exemplo, sabe-se que as magnitudes absolutas das variáveis ​​cefeidas dependem do período de variabilidade. Da mesma forma, supernovas tipo 1a - a morte de uma estrela binária de anã branca - são conhecidas por sempre liberar aproximadamente a mesma quantidade de energia. Assim, conhecendo a luminosidade intrínseca - magnitude absoluta - a distância pode ser determinada com sucesso.

O CMB também é usado para determinar a constante de Hubble, onde a temperatura é analisada em função da frequência - um espectro de potência - e é feita uma análise de melhor ajuste para restringir a constante de Hubble. As medições de CMB do Wilkinson Microwave Anisotropy Probe (WMAP) encontraram um valor de ~ 73 km / s / Mpc e com medições subsequentes esse valor tornou-se progressivamente menor até que os dados mais recentes do observatório espacial da Agência Espacial Européia (ESA), Planck, revelassem um valor de 67,3 com precisão de 2,1%.

Então, o que causa essa discrepância? Alguns dizem que pode ser nossa velha energia escura à prova de falhas, radiação escura e / ou matéria escura. Ou talvez haja uma pista na idade do objeto do qual a medição está sendo feita? O CMB é a relíquia mais antiga do nosso Universo, enquanto as variáveis ​​cefeidas e as supernovas do tipo 1a são muito mais jovens que o CMB. Talvez uma imagem unificada possa nos ajudar a resolver esse mistério. Assista esse espaço!

Geometria tetraédrica da água encontrada para explicar suas propriedades notáveis

30.jpg

28 Mar 2018

Por Resonance Science Foundation

Anomalias semelhantes à água em função da tetraédricidade


A água é o material mais comum e menos compreendido na Terra. Apesar de sua simplicidade, a água tende a formar ordem tetraédrica localmente por ligação direcional de hidrogênio. Sabe-se que essa estrutura é responsável por uma vasta gama de propriedades incomuns, por exemplo, a densidade máxima a 4 ° C, que desempenham um papel fundamental em inúmeros processos naturais e tecnológicos, com o clima da Terra sendo um dos exemplos mais importantes. Ajustando sistematicamente o grau de tetraédricidade, conseguimos interpolar continuamente entre o comportamento semelhante à água e o simples comportamento semelhante a líquido. Nossa abordagem revela quais fatores físicos tornam a água tão anômala e especial, mesmo em comparação com outros líquidos tetraédricos. John Russo, Kenji Akahane e Hajime Tanaka. Anomalias semelhantes à água em função da tetraédricidade. PNAS, 26 de março de 2018.

As propriedades da água fascinam os cientistas há séculos, mas seu comportamento único permanece um mistério.

Publicado nesta semana na revista Proceedings da National Academy of Sciences, uma colaboração entre as Universidades de Bristol e Tóquio tentou uma nova rota para entender o que faz um líquido se comportar como a água.

Quando comparada a um líquido comum, a água exibe uma vasta gama de anomalias. Exemplos comuns incluem o fato de que a água líquida se expande com o resfriamento abaixo de 4 ° C, o que é responsável pelo congelamento dos lagos por cima e não por baixo.

Além disso, o fato de a água se tornar menos viscosa quando comprimida, ou sua tensão superficial incomumente alta, permite que os insetos andem na superfície da água.

Essas e muitas outras anomalias são de fundamental importância em inúmeros processos naturais e tecnológicos, como o clima da Terra e a possibilidade da própria vida. Do ponto de vista antrópico, é como se a molécula de água estivesse afinada para ter propriedades únicas.

Partindo da observação de que as propriedades da água parecem ter um ajuste fino, uma colaboração entre o Dr. John Russo, da Escola de Matemática da Universidade de Bristol, e o professor Hajime Tanaka, da Universidade de Tóquio, aproveitou o poder de poderosos supercomputadores, usando modelos computacionais lentamente "desafinar" as interações da água.

Isso mostrou como as propriedades anômalas da água podem ser alteradas e eventualmente reduzidas às de um líquido simples. Por exemplo, em vez de flutuar na água, a densidade do gelo pode ser alterada continuamente até afundar, e o mesmo pode ser feito com todas as anomalias da água.

31.jpg

Russo disse: "Com esse procedimento, descobrimos que o que faz a água se comportar de maneira anômala é a presença de um arranjo específico das moléculas da água, como o arranjo tetraédrico, onde uma molécula de água é ligada a hidrogênio a quatro moléculas localizadas no vértices de um tetraedro.

"Quatro desses arranjos tetraédricos podem se organizar de tal maneira que compartilham uma molécula de água comum no centro sem se sobrepor.

"É a presença desse arranjo altamente ordenado de moléculas de água, misturado com outros arranjos desordenados, que confere à água suas propriedades peculiares.

"Acreditamos que este trabalho fornece uma explicação simples das anomalias e destaca a natureza excepcional da água, o que a torna tão especial em comparação com qualquer outra substância".

Artigo: Entendendo o estranho comportamento da água

Explorar mais: a tetraedricidade é a chave para a singularidade da água

Artigo original; PNAS: Anomalias parecidas com a água em função da tetraédrica

Resumo: As interações tetraédricas descrevem o comportamento dos materiais mais abundantes e tecnologicamente importantes da Terra, como água, silício, carbono, germânio e inúmeros outros. Apesar de suas diferenças, esses materiais compartilham comportamentos físicos comuns únicos, como anomalias líquidas, estruturas cristalinas abertas e capacidade de formação de vidro extremamente pobre à pressão ambiente. Para revelar a origem física dessas anomalias e sua ligação com a forma do diagrama de fases, estudamos sistematicamente as propriedades do potencial de Stillinger-Weber em função da força da interação tetraédrica λ. Nós descobrimos uma transição única para uma linha espinodal reentrada a valores baixos de λ, acompanhada de uma mudança no comportamento dinâmico, de não Arrhenius para Arrhenius. Em seguida, mostramos que um modelo de dois estados pode fornecer uma compreensão abrangente de como as anomalias termodinâmicas e dinâmicas dessa importante classe de materiais dependem da força da interação tetraédrica. Nosso trabalho estabelece uma ligação profunda entre a forma do diagrama de fases e as propriedades termodinâmicas e dinâmicas por meio da ordenação estrutural local de líquidos e sugere por que a água é tão especial entre todas as substâncias.

Mapa 3D da Via Láctea questiona nossa compreensão da expansão

32.jpg

01 Mai 2018

Dr. Amira Val Baker, Astrofísico da Fundação da Ciência da Ressonância

O maior mapa de nossa galáxia acabou de ser revelado e confirma a discrepância intrigante no valor da constante de Hubble, questionando ainda mais nossa compreensão do universo em expansão.

A constante de Hubble - que é essencialmente uma medida da velocidade do universo em expansão - é determinada por dois métodos diferentes. Um método analisa o universo primitivo através da observação do fundo cósmico de microondas (CMB) e o outro método analisa o universo local através da luz emitida pelas variáveis ​​cefeidas.

Em uma publicação recente, descrevemos como o vencedor do Nobel Adam Reiss e sua equipe no Instituto de Ciências do Telescópio Espacial determinaram um valor para a constante do Hubble 9% maior do que o encontrado pelo método CMB. Esse valor foi encontrado com uma precisão aprimorada em comparação com estudos anteriores e, portanto, questiona o motivo dessa discrepância.

Agora, com a ajuda de Gaia, o satélite da Agência Espacial Europeia (ESA), essa precisão acaba de ser confirmada com uma precisão ainda maior!

O satélite ESA Gaia está orbitando a Terra a 0,93 milhão de milhas, observando milhões de estrelas todos os dias nos últimos 36 meses. Esse último conjunto de dados é dos últimos 22 meses em que observamos 1,7 bilhão de estrelas a até 8.000 anos-luz de distância - a 50.000 trilhões de quilômetros de distância. Isso não apenas criou o maior mapa 3D de nossa galáxia, como também permitiu a Reiss e sua equipe acessar significativamente mais variáveis ​​cefeidas para analisar. Isso deu a eles uma precisão ainda maior de 1 em 7000 em comparação a 1 em 1000.

No entanto, agora temos as mesmas perguntas: o que causa essa discrepância? Energia escura, radiação escura e / ou matéria escura? Precisamos revisitar nosso entendimento sobre a expansão do universo?

O CMB é a relíquia mais antiga do nosso Universo, enquanto as variáveis ​​cefeidas e as supernovas do tipo 1a são muito mais novas que o CMB; portanto, uma pista poderia estar na idade do objeto do qual a medição está sendo feita? Talvez uma imagem unificada possa nos ajudar a resolver esse mistério.

Ecos especulativos de buraco de minhoca podem revolucionar a astrofísica

33.jpg

12 Jun 2018

por Resonance Science Foundation

As colaborações científicas LIGO e Virgo detectaram ondas gravitacionais da fusão de dois buracos negros, inaugurando uma nova era no estudo do cosmos. Mas e se essas ondas de espaço-tempo não fossem produzidas por buracos negros, mas por outros objetos exóticos? Uma equipe de físicos europeus sugere uma alternativa - buracos de minhoca que podem ser percorridos para aparecer em outro universo.

Os cientistas deduziram a existência de buracos negros de uma infinidade de experimentos, modelos teóricos e observações indiretas, como as recentes detecções do LIGO, que se acredita serem originárias da colisão de dois desses monstros gravitacionais escuros.

Mas há um problema com os buracos negros - eles apresentam uma borda, chamada horizonte de eventos, da qual nada pode escapar. Isso está em conflito com a mecânica quântica, cujos postulados garantem que as informações sejam sempre preservadas, não perdidas.

34.jpg

Uma das maneiras teóricas de lidar com esse conflito é explorar a possibilidade de que os supostos buracos negros que 'observamos' na natureza não existam, mas algum tipo de objeto compacto exótico (ECO), como os buracos de minhoca, que não tem um horizonte de eventos.

"A parte final do sinal gravitacional detectado por esses dois detectores - o que é conhecido como ringdown - corresponde ao último estágio da colisão de dois buracos negros e tem a propriedade de se extinguir completamente após um curto período de tempo devido à presença do horizonte de eventos ", explicam os pesquisadores espanhóis Pablo Bueno e Pablo A. Cano da Universidade KU Leuven (Bélgica).

"No entanto, se não houvesse horizonte, essas oscilações não desapareceriam completamente; depois de um certo tempo, produziriam uma série de 'ecos', semelhantes ao que acontece com o som em um poço. Curiosamente, se em vez de buracos negros , tivemos um ECO, o toque poderia ser semelhante, portanto, precisamos determinar a presença ou ausência dos ecos para distinguir os dois tipos de objetos ".

Essa possibilidade foi explorada teoricamente por vários grupos e já foram realizadas análises experimentais usando os dados originais do LIGO, mas o veredicto é inconclusivo.

Buracos de minhoca rotativos

A equipe da Universidade KU Leuven, da qual o professor Thomas Hertog também participou, apresentou um modelo que prevê como as ondas gravitacionais causadas pela colisão de dois buracos de minhoca rotativos serão detectadas.

Os sinais das ondas gravitacionais observados até agora são completamente extintos após alguns instantes, como consequência da presença do horizonte de eventos. Mas se isso não existisse, essas oscilações não desapareceriam por completo; antes, depois de algum tempo, haveria ecos no sinal, que podem ter passado despercebidos até agora devido à falta de modelos ou referências teóricas com os quais comparar.

"Os buracos de minhoca não têm um horizonte de eventos, mas agem como um atalho do espaço-tempo que pode ser atravessado, uma espécie de garganta muito longa que nos leva a outro universo", explica Bueno, "e o fato de eles também terem rotação muda a ondas gravitacionais que produzem ".

De acordo com o estudo, publicado pela Physical Review D, os gráficos obtidos com o novo modelo não diferem muito dos registrados até o momento, exceto os ecos, que atuam como um claro elemento diferenciador.

"A confirmação de ecos nos sinais LIGO ou Virgo seria uma prova praticamente irrefutável de que não existem buracos negros astrofísicos", diz Bueno, acrescentando: "O tempo dirá se esses ecos existem ou não. Se o resultado for positivo, seria uma das maiores descobertas da história da física ".

Aranhas podem voar milhares de quilômetros com energia elétrica

35.jpg

06 Jul 2018

Por: Becky Ferreira

No Halloween de 1832, o naturalista Charles Darwin estava a bordo do HMS Beagle. Ele ficou maravilhado com as aranhas que haviam desembarcado no navio depois de flutuar por enormes distâncias oceânicas. "Eu peguei algumas das aranhas Aeronaut que devem ter percorrido pelo menos 100 milhas", observou ele em seu diário. "Quão inexplicável é a causa que induz esses pequenos insetos, como agora aparece nos dois hemisférios, a realizar suas excursões aéreas".

As aranhas pequenas conseguem voar mirando o traseiro no céu e soltando gavinhas de seda para gerar sustentação. Darwin pensou que a eletricidade poderia estar envolvida quando notou que os estandes de seda de aranha pareciam repelir-se com força eletrostática, mas muitos cientistas supuseram que os aracnídeos, conhecidos como aranhas "balão", estavam simplesmente navegando ao vento como um parapente. A explicação da energia eólica até agora não foi capaz de explicar as observações de aranhas se lançando rapidamente no ar, mesmo quando os ventos estão baixos.

Agora, essas excursões aéreas foram empiricamente determinadas por serem amplamente alimentadas por eletricidade, de acordo com uma nova pesquisa publicada na Current Biology. Liderado por Erica Morley, biofísica sensorial da Universidade de Bristol, o estudo encerra um longo debate sobre se a energia eólica ou as forças eletrostáticas são responsáveis ​​pela locomoção dos balões de aranha.

"A dispersão é uma parte crucial da ecologia e o balão é um modo de dispersão", disse-me Morley em um email. "Se pudermos entender melhor como isso funciona e os mecanismos por trás disso, entenderemos melhor os padrões de dispersão de aranhas e outros animais em balão".

Na última década, as dúvidas sobre a explicação da energia eólica para o vôo aracnídeo aumentaram ao lado de observações de aranhas que balançam quando os ventos não são fortes o suficiente para levantá-las alguns metros, muito menos por milhares de quilômetros. Os animais também podem atingir grandes altitudes - às vezes cinco quilômetros acima da superfície da Terra - o que seria difícil de realizar apenas com as correntes térmicas do ar.

Em 2013, Peter Gorham, físico da Universidade do Havaí, calculou que era teoricamente possível que as aranhas usassem sua seda para conduzir eletricidade estática como um meio de voar, mas a equipe de Morley é a primeira a confirmar isso em laboratório.

Morley e sua equipe colocaram aranhas linifiídeos em um campo elétrico controlado por laboratório com cargas semelhantes à atmosfera da Terra, para que o grupo pudesse observar diretamente o impacto da eletricidade no voo dos aracnídeos. As aranhas subiram no ar quando campos elétricos estavam presentes e desceram quando a equipe as desligou, demonstrando uma clara correlação entre forças eletrostáticas e capacidade de balão.

O vento também desempenha um papel importante nas viagens das aranhas, mas o novo artigo estabelece que os lançamentos rápidos, mesmo em clima calmo, podem ser explicados pela seda de aranha eletricamente condutora. Morley espera expandir essa descoberta estudando outros insetos que balançam, como lagartas e ácaros, que podem lançar luz sobre as incríveis jornadas e a distribuição global desses pequenos insetos.

Quase dois séculos depois que Darwin notou a repulsa estranha entre os fios de aranha, seu palpite sobre aranhas voadoras eletricamente provou ser certo.

Estudo revela propriedades eletromagnéticas da grande pirâmide de Gizé

36.jpg

01 Ago 2018

Por Resonance Science Foundation

Houve várias descobertas científicas recentes sobre as Grandes Pirâmides de Gizé, usando métodos tecnologicamente avançados. Por exemplo, uma metodologia que utiliza medições na variação do fluxo de múons cósmicos (primos pesados ​​do elétron) - chamada arografia arqueológica - detectou evidências de uma possível segunda entrada e corredor oculto na Grande Pirâmide de Gizé (a maior das pirâmides) de Gizé). Além disso, as imagens térmicas revelaram anomalias térmicas desconcertantes na Grande Pirâmide. Várias explicações foram apresentadas para explicar a causa das anomalias, mas uma explicação particularmente sugestiva foi que ela se deve ao aumento da circulação de ar causada por um corredor ou câmara oculta - corroborando achados semelhantes usando análise radiográfica muônica.

Em um estudo recente, foi relatado no Journal of Applied Physics que as Grandes Pirâmides são capazes de focar energia eletromagnética, particularmente ondas eletromagnéticas da faixa de frequência de rádio. Os pesquisadores descobriram características ressonantes associadas aos momentos dipolo e quadrupolo eletromagnético da pirâmide. Especificamente, a análise matemática indicou que os espaços internos e a estrutura da estrutura ressoam quando atingidos por ondas de rádio externas com um comprimento de onda de 200 a 600 metros, e podem controlar a propagação, espalhamento e concentração dessa energia eletromagnética. Sob essas condições ressonantes, as distribuições de campos eletromagnéticos no interior da pirâmide são canalizadas e concentradas nas câmaras da pirâmide.

A concentração ressonante de energia eletromagnética pela pirâmide é excelente para ser confirmada usando métodos físicos de medição e análise, embora para muitos que estão familiarizados com as grandes pirâmides não seja de todo surpreendente. As pirâmides têm muitas características físicas que não são de modo algum consistentes com o fato de serem “tumbas funerárias”. Não menos importante, é a engenharia altamente específica dos canais e câmaras dentro das pirâmides, capazes de canalizar e concentrar ondas eletromagnéticas e acústicas.

O estudo mais recente oferece evidências intrigantes de um nível profundo de compreensão e capacidade de engenharia tecnológica da civilização que construiu as pirâmides. Os céticos podem sugerir que é apenas uma coincidência estranha, embora as “coincidências anômalas” estejam começando a aumentar - no entanto, dada a sofisticação necessária para construir a pirâmide em primeiro lugar, bem como muitas das estruturas antigas nos locais circundantes que podem canalizando as ondas sonoras de maneira notável, talvez não seja tão especulativo pensar que esses construtores antigos entenderam a natureza dos fenômenos das ondas ambientes e foram capazes de manipular e trabalhar com ele usando grandes construções megalíticas.

Raios gama intrigantes do sol

37.jpg

23 Ago 2018

Dr. Amira Val Baker, Astrofísico da Fundação da Ciência da Ressonância

Foram observados raios gama emanando dos pólos solares a uma taxa mais alta do que o esperado.

Os raios gama são a energia observada mais alta da radiação eletromagnética e normalmente são produzidos em transições de energia nos núcleos atômicos. Semelhante aos fótons de luz emitidos à medida que os elétrons se reconfiguram nos átomos, os fótons de luz são liberados na reconfiguração de núcleos em um núcleo atômico, embora em uma faixa de energia muito maior!

Nossa estrela - o Sol - é uma bola de plasma quente e rotativa que emite continuamente radiação em uma ampla gama de energias, do rádio aos raios gama.

A geração de energia é maior no centro do Sol, diminuindo radialmente para fora.

Pensa-se que a radiação de alta energia, como os raios gama, seja devida ao bombardeio da atmosfera solar por prótons de alta velocidade - raios cósmicos hadrônicos. No entanto, como se supõe que os raios gama de tal interação sejam absorvidos muito antes de atingirem a superfície solar - fotosfera - o fluxo esperado não é grande e não concorda com as observações. Felizmente, nos anos 90, o físico professor David Seckel e seus colegas mostraram que, em alguns casos, o campo magnético atmosférico solar pode redirecionar alguns dos raios cósmicos, de entrada para saída, antes que a interação ocorra. Os raios gama resultantes são assim direcionados para o exterior e a eficiência é bastante aprimorada.

Problema resolvido - bem, pelo menos foi até medições recentes mostraram o contrário.

Utilizando o Telescópio de Grande Área do Telescópio Espacial Fermi, Tim Linden e seus colegas observam o disco solar nos últimos 10 anos. No entanto, suas análises recentes mostram um fluxo constante de raios gama nas dezenas de GeV - 10 bilhões de elétron-volts. Isso excede significativamente a quantidade prevista pelo modelo atual de produção de raios gama na fotosfera solar, deixando os teóricos perplexos.

Os cientistas esperam que as observações contínuas através dos ciclos solares revelem um espectro mais amplo de energias até os TeVs - um trilhão de elétrons-volts - e esperemos que nos ajudem a entender mais sobre a natureza da emissão solar de raios gama e, em particular, atividade polar.

Quando vemos a gravidade como uma propriedade emergente devido à dinâmica de rotação coerente do vácuo quântico, os jatos que emergem da região polar da entidade de rotação são uma consequência óbvia. A região polar de qualquer sistema de fiação experimentará forças atrativas máximas nas regiões polares, o que resultará em um acúmulo de pressão e subsequente liberação externa na forma de jatos. Vemos isso nos jatos de alta energia dos buracos negros, que exploram a energia rotacional do buraco negro em rotação.

Surpreendente ordem oculta une números primos e materiais semelhantes a cristais

38.jpg

07 Set 2018

por Kevin Mcelwee, Universidade de Princeton

Os dígitos aparentemente aleatórios conhecidos como números primos não são tão dispersos quanto se pensava anteriormente. Uma nova análise dos pesquisadores da Universidade de Princeton descobriu padrões em números primos semelhantes aos encontrados nas posições dos átomos dentro de certos materiais semelhantes a cristais.

Os pesquisadores descobriram uma surpreendente semelhança entre a sequência de números primos em longos trechos da linha numérica e o padrão que resulta do brilho dos raios X em um material para revelar o arranjo interno de seus átomos. A análise pode levar à previsão de números primos com alta precisão, disseram os pesquisadores. O estudo foi publicado em 5 de setembro no Journal of Statistical Mechanics: Theory and Experiment.

"Há muito mais ordem em números primos do que jamais foi descoberto anteriormente", disse Salvatore Torquato, professor de ciências naturais de Lewis Bernard em Princeton, professor de química e Instituto de Ciência e Tecnologia de Materiais de Princeton. "Mostramos que os números primos se comportam quase como um cristal ou, mais precisamente, semelhantes a um material semelhante ao cristal chamado" quase-cristal "."

Primes são números que só podem ser divididos por 1 e eles mesmos. Primos muito grandes são os blocos de construção de muitos sistemas de criptografia. Primos parecem ser espalhados aleatoriamente ao longo da linha numérica, embora os matemáticos tenham discernido alguma ordem. Os primeiros números primos são 2, 3, 5, 7 e 11, tornando-se mais esporádicos na linha numérica.

Torquato e seus colegas descobriram que, quando considerados em grandes faixas da linha numérica, os números primos são mais ordenados do que se pensava anteriormente, pertencendo à classe de padrões conhecidos como "hiperuniformidade".

Os materiais hiperuniformes têm ordem especial a grandes distâncias e incluem cristais, quase-cristais e sistemas desordenados especiais. A hiperuniformidade é encontrada no arranjo das células cônicas nos olhos dos pássaros, em certos meteoritos raros e na estrutura em larga escala do universo.

A equipe mostrou que a ordem encontrada nos números primos é mapeada para o padrão que resulta quando os raios X interagem com certas formas de matéria. Como químico, Torquato está familiarizado com a cristalografia de raios-X, brilhando raios-X através da estrutura atômica tridimensional de um cristal. Com diamantes ou outros cristais, isso resultará em um padrão previsível de pontos brilhantes ou picos, conhecidos como picos de Bragg.

39.jpg

Comparados aos cristais típicos, os quasicristais produzem um arranjo distinto e mais complexo dos picos de Bragg. Os picos em uma forma típica de cristal em intervalos regulares com lacunas vazias entre eles. Em quase-cristais, entre dois picos selecionados de Bragg está outro pico de Bragg.

 

O padrão que Torquato e seus colegas descobriram nos primos é semelhante ao dos quasicristais e de outro sistema chamado ordem periódica limite, mas difere o suficiente para que os pesquisadores a chamem de ordem "efetivamente periódica limite". Os números primos aparecem em agrupamentos "auto-similares", o que significa que entre picos de certas alturas, existem agrupamentos de picos menores e assim por diante.

 

A equipe descobriu fortes indicações desse padrão usando simulações em computador para ver o que aconteceria se os números primos fossem tratados como uma sequência de átomos submetidos a raios-X. Em trabalho publicado no Journal of Physics A em fevereiro, os pesquisadores relataram encontrar um padrão surpreendente de picos semelhantes a Bragg, indicando que os padrões primários eram altamente ordenados.

 

O presente estudo utiliza a teoria dos números para fornecer uma base teórica para os experimentos numéricos anteriores. Os pesquisadores perceberam que, embora os números primos pareçam aleatórios em intervalos curtos, Torquato disse que, em trechos suficientemente longos da linha numérica, pode-se fazer sentido a partir de números aparentemente caóticos.

 

"Quando você chega a esse limite distinto, 'Boom!'", Ele disse, estalando os dedos. "A estrutura ordenada aparece."

 

Torquato foi co-autor do artigo com Ge Zhang, que obteve seu doutorado em química em 2017, e o estudante de matemática Matthew de Courcy-Irlanda.

 

De Courcy-Ireland disse que padrões numéricos semelhantes foram descritos pelo "método circular" desenvolvido quase um século atrás para encontrar padrões em números primos. “Para mim, o interessante é pegar esses resultados que remontam a 1922 e reformulá-los de alguma forma que fornece um novo exemplo, um sistema com várias propriedades muito interessantes e que talvez possam apontar o caminho para onde você poderia procurar mais exemplos físicos ”, ele disse.

 

A descoberta pode ajudar na pesquisa em matemática e ciência dos materiais. "Os números primos têm belas propriedades estruturais, incluindo ordem inesperada, hiperuniformidade e comportamento periódico-limite eficaz", disse Torquato. "Os primos nos ensinam sobre um estado completamente novo da matéria."

 

"O fascinante deste artigo é que ele nos dá uma perspectiva diferente dos números primos: em vez de vê-los como números, podemos vê-los como partículas e tentar mapear sua estrutura por difração de raios-X", disse Henry Cohn, um pesquisador principal da Microsoft Research que não esteve envolvido no estudo. “Ele nos fornece o mesmo tipo de informação que os métodos tradicionais de teoria dos números e se encaixa perfeitamente no trabalho anterior. É uma bela nova perspectiva sobre essas informações e abre novas conexões com a ciência dos materiais e a teoria de dispersão. "

 

O estudo, “Descobrindo a ordem multiescala nos números primos via dispersão”, de Salvatore Torquato, Ge Zhang e Matthew de Courcy-Ireland, foi publicado no Journal of Statistical Mechanics: Theory and Experiment em 5 de setembro (DOI: 10.1088 / 1742 -5468 / aad6be). Foi apoiado pela National Science Foundation (DMR-1714722) e pelo Conselho de Pesquisa em Ciências Naturais e Engenharia do Canadá. Um conjunto mais detalhado de provas também é publicado online.

Onde há preto, há branco?

40.jpg

01 Out 2018

por Inés Urdaneta, cientista pesquisador da Resonance Science Foundation

Esta pode ser a primeira vez que você ouve falar de um buraco branco (WH). Enquanto isso, ouvimos há bastante tempo sobre os “buracos negros” (BH) como regiões do espaço sideral em que nada - nem mesmo a luz - poderia escapar. Tais entidades cosmológicas, representadas aproximadamente por uma singularidade ou ponto de infinita energia / massa / densidade de informação e um horizonte de eventos que define o “tamanho” da BH, são cada vez mais objetos de estudo. Além disso, a possibilidade de detectar assinaturas gravitacionais como as detectadas há dois anos, provenientes da colisão e fusão de dois buracos negros, aumentou ainda mais seu interesse. Então, o que acontece com a WH?

As regiões obscuras do espaço chamadas BH têm, pelo menos teoricamente, uma descrição matemática equivalente, o que implicaria um comportamento oposto; uma região do espaço onde nada - nem mesmo a luz - poderia entrar. Por esse motivo, eles são chamados de buracos brancos (WH). Assim como BH, WH começou como uma situação matemática hipotética sem equivalência no reino físico, e, como BH, talvez WH exista afinal.

Essa é a teoria que Nassim Haramein aludiu por décadas. A mesma idéia está sendo explorada por diferentes equipes de pesquisa, entre elas Carlo Rovelli, físico teórico da Universidade Aix-Marselha, na França, e seus colegas, que sugeriram que BH e WH pudessem estar conectados. Um BH poderia fazer um túnel quântico para um WH; uma vez que um BH evapore a um grau em que não possa mais encolher (assumindo um espaço-tempo quantizado), o BH desaparecendo ou “morrendo” se recuperaria, formando um WH. Isso se traduz em matéria colapsando em uma BH e depois emergindo de uma WH. Como afirmam os autores Haggard e Rovelli, "esse cenário altera radicalmente a discussão sobre o quebra-cabeça da informação do buraco negro".

Mas isso não é tudo ... WH poderia ser responsável pela maior parte da misteriosa matéria escura do universo, algumas das quais podem ser anteriores ao Big Bang!

Então, provavelmente, estaremos ouvindo sobre essas novas e exóticas entidades cada vez mais ...

Imagem Via NASA / FQtQ Jolene Creighton

Cientistas mostram que a água tem memória

41.jpg

5 Out 2018

Por William Brown, biofísico da Fundação da Ciência da Ressonância

Uma nova descoberta inovadora foi feita dentro dos recursos mais básicos. Os cientistas acabaram de descobrir o que chamam de "A Descoberta do Milênio", e uma enorme revelação na consciência humana.

Cientistas da Alemanha agora acreditam que a água tem uma memória, o que significa que o que antes era visto como uma simples mercadoria agora foi examinado de perto para revelar uma revelação científica, descobrindo uma verdade alucinante.

Ao examinar gotas individuais de água com uma incrivelmente alta ampliação, os cientistas puderam ver fisicamente que cada gota de água tem seu próprio padrão microscópico individual, cada um distinguível do próximo e singularmente bonito.

Foi realizado um experimento científico em que um grupo de estudantes foi incentivado a obter uma gota de água do mesmo corpo de água, tudo ao mesmo tempo. Através de um exame atento das gotículas individuais, observou-se que cada uma produzia imagens diferentes.

Um segundo experimento foi então realizado, onde uma flor real foi colocada em um corpo de água e, depois de um tempo, uma gota de amostra de água foi retirada para exame. O resultado produziu um padrão hipnotizante quando extremamente ampliado, mas todas as gotículas dessa água pareciam muito semelhantes. Quando o mesmo experimento foi feito com uma espécie diferente de flor, a gota ampliada parecia completamente diferente, determinando assim que uma flor específica é evidente em cada gota de água.

Através desta descoberta que mostra que a água tem uma memória, de acordo com os cientistas, uma nova percepção da água pode ser formada. Os cientistas alemães acreditam que, enquanto a água viaja, ela coleta e armazena informações de todos os lugares por onde passou, o que pode conectar as pessoas a muitos lugares e fontes de informação diferentes quando eles bebem essa água, dependendo da jornada que tem sido.

Isso foi comparado ao corpo humano, do qual cada um é incrivelmente único e possui um DNA individual diferente de qualquer outro. Enquanto o corpo humano é composto de 70% de água, pode-se tirar conclusões dessas novas descobertas de que as lágrimas humanas podem armazenar uma memória única de um ser individual, através da reserva de água do corpo que hospeda um armazenamento completo de informações vinculadas ao indivíduo. experiência.

Sugerindo que todos estejam conectados globalmente pela água no corpo humano que viaja através de jornadas contínuas, onde as informações ao longo do caminho são sempre armazenadas.

Nova visão matemática da forma dos buracos de minhoca

42.jpg

26 Out 2018

Dr. Olivier Alirol, Pesquisador da Resonance Science Foundation

Identificar a forma de um objeto astronômico maciço não é uma tarefa simples. Mesmo com observações recentes de ondas gravitacionais, a massa e o momento angular do objeto permanecem conhecidos com grande incerteza. Além disso, existem objetos exóticos, como buracos de minhoca que podem imitar a forma de buracos negros, por exemplo. O espectro gravitacional de buracos de minhoca tem uma ampla gama de interpretações. Um desafio atual abordado pelo pesquisador R. A. Konoplya consiste em descrever matematicamente os buracos de minhoca para poder eventualmente identificá-los no espaço.

Segundo a teoria atual, um buraco de minhoca é uma passagem teórica no espaço-tempo que pode criar atalhos no universo. A solução original do buraco de minhoca foi descoberta por Einstein e Rosen (ER) em 1935 e mais tarde John Wheeler mostrou sua importância na gravidade quântica. Foi então descoberto que era possível construir soluções de buraco de minhoca “atravessáveis” desde a proposta ER = EPR. Parece também que as flutuações quânticas do espaço-tempo são tais que um pequeno buraco de minhoca poderia conectar o pixel de Planckian ao mecanismo de emaranhamento do próprio espaço-tempo quântico.

"As observações no espectro eletromagnético também não descartam a existência de buracos de minhoca. Mesmo que os buracos de minhoca não sejam descartados pelas observações astrofísicas atuais, eles levantam vários problemas puramente teóricos relacionados à possibilidade de sua existência".

Konoplya, Instituto de Física e Centro de Pesquisa de Física Teórica e Astrofísica, Universidade da Silésia em Opava.

Em seu artigo recente, o pesquisador Roman Konoplya mostra como reconstruir a forma de um buraco de minhoca atravessável esférico. O tempo espacial do buraco de minhoca é dado por uma métrica específica, a suposição de Morris-Thorne.

Buracos de minhoca transversais lorentzianos estáticos, simétricos e estáticos de forma arbitrária podem ser modelados por uma ersatz de Morris – Thorne

Uma métrica de espaço-tempo é um objeto matemático que define a distância entre dois pontos. Ajuda, por exemplo, a definir a geometria do espaço e sua dinâmica. Por exemplo, a origem do Spin em toda a matéria foi explicada por Nassim Haramein, graças à introdução de uma métrica de Kerr-Newman modificada, resolvendo as equações de campo de Einstein, incluindo o efeito Coriolis.

"Fazemos isso formulando torque e forças de Coriolis nas equações de campo de Einstein e desenvolvendo uma solução modificada de Kerr-Newman, onde o torque no espaço-tempo, o efeito Coriolis e a torção do coletor tornam-se a fonte de rotação / rotação".

Nassim Haramein, a origem da rotação

https://resonance8.oldrsf.com/origin-spin-consideration-torque-coriolis-forces-einsteins-field-equations-grand-unification-theory/

43.jpg

Movimento geodésico em buracos de minhoca de casca fina Kerr, atravessáveis, construídos pelo método de cortar e colar. As órbitas são calculadas exatamente em termos de funções elípticas e visualizadas com a ajuda de incorporar diagramas. Ref: Dinâmica de partículas de teste no buraco-de-minhoca de espaço-tempo, Diemeter 2013

Em termos gerais, uma abordagem mecânica quântica leva a muitas soluções para a geometria de um buraco de minhoca. Nosso trabalho pode ser expandido de várias maneiras. Primeiro, para evitar fórmulas longas, consideramos apenas campos eletromagnéticos. Em nosso trabalho futuro, podemos estudar outros campos sob a mesma abordagem. Nossos resultados também podem ser aplicados a buracos de minhoca rotativos, desde que simétricos o suficiente

Professor Konoplya, Instituto de Física

O professor Konoplya mostrou que a função de forma de um buraco de minhoca atravessável esférico simétrico perto de sua garganta pode ser reconstruída a partir de modos de alta frequência. Essa é a primeira, embora não a mais geral, solução do problema inverso para um objeto compacto, que leva dos modos diretamente à métrica. Além disso, a geometria é observacionalmente muito mais importante para um buraco de minhoca do que a geometria do horizonte próximo de um buraco negro.

RSF - em perspectiva

Embora ainda hipotéticos, os buracos de minhoca são objetos bastante interessantes que podem revolucionar a astrofísica. Eles também são muito importantes para o mundo quântico e, como mostrado na solução holográfica de massa, poderiam ligar todos os prótons (vistos como micro buracos negros) através do Universo.

Luz líquida à temperatura ambiente!

44.jpg

08 Nov 2018

Dr. Inés Urdaneta, Pesquisador da Resonance Science Foundation

Quando pensamos em líquidos, pensamos em um dos quatro estados conhecidos da matéria: gás, líquido, sólido e plasma (gás carregado ou ionizado). Sendo a luz sem massa, as palavras Líquido e Luz juntas parecem a princípio um oxímoro. Mas não faz muito tempo, em 2013, uma situação similar teorizada prevista em 2007 e chamada "molécula fotônica" foi criada artificialmente. Nessas experiências, os fótons - quantum de campos eletromagnéticos, que não têm massa de repouso e viajam à velocidade da luz no vácuo - se unem tão fortemente que se comportam como moléculas e agem como se tivessem massa.

Outro caso relativo à luz, que reproduz a física das moléculas, consiste em fótons confinados a duas ou mais cavidades micro-ópticas acopladas, uma vez que reproduz o comportamento dos níveis de energia atômica em interação. Por esse motivo, também foi denominado molécula fotônica, que é uma definição alternativa - mas não equivalente - à primeira.

Um pedaço de semicondutor do tamanho de um micrômetro pode prender fótons dentro dele de tal maneira que eles agem como elétrons em um átomo. O resultado de uma relação tão estreita é uma "molécula fotônica", cujos modos ópticos têm uma forte semelhança com os estados eletrônicos de uma molécula diatômica como o hidrogênio. Moléculas fotônicas, nomeadas por analogia com moléculas químicas, são aglomerados de microcavidades que interagem eletromagneticamente localmente ou "átomos fotônicos".

Microcavidades opticamente acopladas surgiram como estruturas fotônicas com propriedades promissoras para a investigação da ciência fundamental, bem como para aplicações. – https://en.wikipedia.org/wiki/Photonic_molecule

Um terceiro caso relativo à luz, mas desta vez interagindo com a matéria, é o de fótons interagindo com pares de elétrons-buracos - chamados excitons - em um semicondutor. Esses excitons impõem um momento dipolar, que combinado com o dipolo do campo eletromagnético, acopla fortemente os excitons e os fótons. O resultado final é um polariton, considerado uma quase partícula, composto de meia luz e meia matéria, que se comporta como um condensado ou superfluido de Bose Einstein, mesmo à temperatura ambiente. Este caso é chamado de luz líquida. Anteriormente, a luz líquida era alcançada apenas a uma temperatura criogênica, na ausência de polaritons. Para que a superfluidez ocorra à temperatura ambiente, os polaritons devem estar presentes e, portanto, a configuração experimental é mais complexa.

Múltiplos polaritons confinados no mesmo local induzem condensação em um fluido de matéria leve; um condensado ou superfluido de Bose Einstein que emite luz com rotação no sentido horário ou anti-horário. A rotação pode mudar de direção controlando o campo elétrico induzido dentro. É a emissão de luz desse fluido de polariton girando para cima ou para baixo que serve como um código binário de luz codificado por rotação que pode ser enviado através das fibras ópticas transportando dados como sinais ópticos e traduzindo informações do regime elétrico para o regime óptico. Por esse motivo, o Liquid Light está sendo pensado como uma ferramenta para transferência de informações além da lei de Moore.

Superfluidez significa que, em circunstâncias em que um fluido normal criaria ondas ou ficaria parado em um recipiente, um superfluido não criaria ou escalaria as paredes do recipiente. Portanto, a principal diferença entre um fluido normal e um superfluido é que o segundo não tem viscosidade.

A observação extraordinária em nosso trabalho é que demonstramos que a superfluidez também pode ocorrer à temperatura ambiente, sob condições ambientais, usando partículas de matéria de luz chamadas polaritons.

https://www.sciencealert.com/scientists-create-fifth-state-of-matter-liquid-light

Daniele Sanvitto, pesquisadora principal do Instituto de Nanotecnologia CNR NANOTEC, Itália

O estado de superfluidez pode ser pensado como um quinto estado da matéria

A superfluidez é um fenômeno atribuído aos condensados ​​de Bose Einstein, ocorrendo principalmente em partículas capazes de formar pares de cooper, como os elétrons. Em nossa opinião, o próprio espaço apresenta essa superfluidez, pois a Unidade Esférica de Planck (PSU) - que não deve ser confundida com uma unidade de medida - é o pixel do próprio espaço. O oscilador de Planck ou PSU é um oscilador quântico na frequência de Planck do campo eletromagnético, isto é, uma partícula bosônica. Essas unidades de PSU também compõem a matéria, seguindo o princípio holofractográfico da teoria de Haramein, que prevê o raio do próton com um desvio padrão em relação às experiências, enquanto o modelo padrão e os relacionados têm um desvio padrão de 7 desvios, aproximadamente 4% do desvio padrão. o raio de próton mais recente relatado. Uma extensão do modelo padrão, chamado teoria do vácuo superfluido (SVT) - ou Teoria do Vácuo do Condensado Bose Einstein (BEC) - também considera o vácuo como um superfluido ou condensado Bose Einstein.

Música para o coração

45.jpg

28 Nov 2018

Dr. Johanna Deinert, Pesquisadora da Resonance Science Foundation

Uma publicação recente indica que o Yoga-Music na hora de dormir aumenta a variabilidade dos corações no batimento para bater nas distâncias. O coração não está apenas bombeando, mas pulsando com flutuações fractais. Quanto mais flexível, mais saudável você é. O ritmo aumentará enquanto inspirar e diminuirá durante a expiração. A respiração está dando um retorno aos centros nervosos nas partes mais arcaicas do tronco cerebral, a medula espinhal alongada no pescoço. É responsável pelas funções básicas controladas pelo sistema nervoso inconsciente. A variabilidade do coração pode ser arrastada por técnicas respiratórias coerentes para uma função de onda batida a batida coerente ou até mesmo um gráfico de Poincaré-Plot circular. Esse estado é chamado de coerência cardíaca e arrasta o cérebro em seu tempo de refração bastante longo das células marcapasso dentro do "Portão da Consciência" (Thalamus), razão pela qual as técnicas de respiração são usadas como uma ferramenta básica em diferentes tradições de meditação. Na fronteira alfa-teta das ondas cerebrais, foram relatados casos lúcidos.

No entanto, a variabilidade da frequência cardíaca (VFC) possui várias camadas de padrões de ondas fractais específicas que podem nos dar respostas sobre a atividade da nossa parte de “lutar ou fugir” ou “descansar e digerir” do sistema nervoso autônomo (ANS). Um recente Documento de Posição da Sociedade Europeia de Cardiologia (ESC) concluiu que os avanços matemáticos, incluindo a análise de fratalidade e entropia, ainda não entraram nos estudos clínicos neste campo, e solicita mais pesquisas sobre essa técnica promissora. É importante saber que o arranjo dos batimentos cardíacos tem um enorme impacto no feedback sobre o cérebro e a psique. Quanto mais você puxa seu coração para uma respiração coerente e sentimentos de alegria, amor e gratidão, mais seu cérebro libera ansiedades e tristezas.

46.jpg

Figura 1. Gráfico superior: batimentos cardíacos coerentes durante o exercício respiratório; Gráfico inferior: variabilidade estreita no paciente com doença cardíaca, parte direita é onde se fala dele ainda fumando (dados próprios)

De qualquer forma, sabemos que o som é definido como um campo quântico. Foi inconclusivo, se a música influenciar a variabilidade do ritmo cardíaco, mas o Dr. Naresh Sen registrou que não estava documentado como música usada nos estudos anteriores. Ele conduziu um estudo para diferenciar entre música pop, silêncio e música de ioga antes de dormir em 149 músculos e mostra os resultados no Congresso da ESC 2018. Os resultados mostram uma vantagem da música de ioga sobre silêncio. A música pop era bastante estimulante para o sistema nervoso autônomo. A higiene do sono é muito importante a longo prazo, porque a secreção de melatonina durante o sono é responsável pelos mecanismos de cura e reparo. Até os gregos antigos, iniciar o tratamento médico na "incubação", curar ou dormir em um dormitório como receita médica. Desde Pitágoras (por volta de 600 aC), eles também discutiram e usaram filhos de cura e frequências prejudiciais.

Uma ciência que nem sempre concorda, mas os índices já são muito importantes para várias terapias além dos medicamentos, como um modo de tratamento para doenças. Este é um estudo pequeno e é necessário mais pesquisas sobre os efeitos cardiovasculares das músicas musicais fornecidas por um musicoterapeuta treinado. Mas ouvir música suave antes de dormir é uma terapia barata e fácil de implementar, que não pode causar danos.

– Dr. Naresh Sen

Fenômeno sísmico incomum ouvido em todo o mundo

47.jpg

05 Dez  2018

Johanna Deinert, Pesquisadora da Resonance Science Foundation

48.jpg

Um “sinal misterioso” intriga os sismólogos, pois era inédito nos registros. Em um artigo da National Geographic de 28 de novembro de 2018, alguns especialistas sismológicos discutiram um fenômeno global em 11 de novembro de 2018, pouco antes das 9:30 (UT), que emergiu da antiga zona de atividade sísmica africana nas ilhas Mayotte, localizadas entre a África e a ponta norte de Madagascar. Ele foi descoberto e publicado no Twitter por um entusiasta do terremoto com o identificador @matarikipax, que estava monitorando as exibições de sismogramas em tempo real do US Geological Survey.

Acho que não vi nada parecido. [...] No entanto, muitas características das ondas são notavelmente estranhas - desde o seu "anel" surpreendentemente monótono e de baixa frequência até a sua expansão global [...] os pesquisadores ainda estão perseguindo o dilema geológico. - Göran Ekström, professor de ciências da terra e ambientais na Universidade de Columbia.

As ondas coerentes se propagaram e foram detectadas em toda a África, mesmo no Chile, Kanada, Havaí e Nova Zelândia por um período de 20 minutos. No entanto, a National Geographic afirma: "parece que nenhum ser humano os sentiu".

49.jpg
50.jpg

Stephen Hicks, um sismólogo da Universidade de Southampton, publicou o gráfico sísmico global neste evento em seu Twitter mostrado acima. Ele explica que essas ondas ocorrem em um terremoto geralmente acompanhado por "trens de ondas" de alta frequência. No entanto, não foi o que foi visto no evento "11/11 Mayotte", que teve uma onda de baixa frequência aparentemente coerente com um período de onda de 17 segundos, conforme relatado pela National Geographic, outra fonte afirma que há 16 anos segundo período.

É como um instrumento musical. [...] As notas de um instrumento musical - grave ou muito agudo - dependem do tamanho do instrumento. - Jean-Paul Ampuero, sismólogo da Université Côte d'Azur na França.

Então, o globo inteiro vibrou como um enorme sino da liberdade?

51.jpg
52.jpg

A estranha uniformidade do sinal pode ser devida, em parte, às rochas e sedimentos ao redor, acrescenta Anthony Lomax, um consultor de sismologia independente. Talvez a geologia local esteja filtrando os sons e deixando apenas esse único período de onda de 17 segundos escapar. "Eles são legais demais; elas são perfeitas demais para ser natureza ", brinca Helen Robinson, da Universidade de Glasgow. "É muito difícil dizer realmente qual é a causa e se as teorias de alguém estão corretas." A maioria das suposições atuais gira em torno da ressonância em uma câmara de magma, desencadeada por algum tipo de mudança de subsolo ou colapso da câmara, conclui o Artigo Geográfico Nacional. No entanto, toda explicação dada parece vaga e especulativa. De qualquer forma, o que o Levantamento Geológico Francês (BRGM) chamou de "sinal atípico de frequência muito baixa" foi uma onda repetida, espalhada pelo mundo, registrando-se a cada 17 segundos e durando cerca de 20 minutos no total. As ondas de Rayleigh são um fenômeno relacionado interessante, que também é observável em material cristalino, como discutido pelo Prof Oliver B. Wright, Assoc. Osamu Matsuda, do Laboratório de Física Aplicada ao Estado Sólido, Grupo de Pesquisa em Física Quântica da Universidade Hokkaido. É necessária uma observação adicional sobre este tópico e as pesquisas futuras serão monitoradas.

Autor: Dr. Johanna Deinert, MD, Cientista de Pesquisa da RSF

O Torque Casimir validado experimentalmente pela primeira vez

53.jpg

23 Dez 2018

por Inés Urdaneta, cientista pesquisador da Resonance Science Foundation

O efeito Casimir, responsável pela atração de duas placas metálicas neutras separadas por 1 mícron, é uma das características mais marcantes da influência do vácuo no mundo macroscópico e foi discutido em artigos anteriores. O efeito foi medido em uma variedade de configurações experimentais, mas é a primeira vez que seu torque associado é verificado experimentalmente. O chamado torque Casimir, previsto há mais de 40 anos, é um torque mecânico entre dois materiais opticamente anisotrópicos e depende das flutuações eletromagnéticas (EM) do vácuo, conhecidas como flutuações de vácuo, bem como da função dielétrica os materiais, que descrevem a capacidade de uma propriedade de reorganização da carga interna no material. Opticamente anisotrópico significa que o índice de refração do material depende da direção de polarização e propagação do campo eletromagnético. Os materiais que obedecem a essa condição são denominados birrefringentes.

Quando os materiais são opticamente anisotrópicos, diferentes polarizações de luz experimentam diferentes índices de refração e espera-se um torque que faça com que os materiais girem para uma posição de energia mínima.

A reorganização da carga, também conhecida como polarizabilidade, permite que um material responda às flutuações EM com força pequena, mas suficiente para girar mecanicamente e se alinhar à fonte de polarização. Através da escolha dos materiais, os pesquisadores da Universidade de Maryland conseguiram controlar a direção - ou sinal - do torque, sua força e sua dependência do ângulo de rotação e da distância de separação entre os materiais.

A interação através de flutuações de vácuo é comumente associada a fenômenos como forças intramoleculares e adesivas, efeito Casimir, entre outros. As aplicações variam de manipulações atômicas e nanoscópicas, até o controverso impulso impossível.

54.jpg

Fig 1: A configuração experimental usada nesta pesquisa. O cristal birrefringente sólido (calcita, niobita de lítio, rutilo ou vanadato de ítrio) e um cristal líquido (5CB) Créditos: Nature

https://doi.org/10.1038/s41586-018-0777-8

 

Esses resultados publicados na Nature são de extrema importância, pois podem estar diretamente relacionados ao campo de Planck, usando o modelo holo-fractográfico (HFM) derivado de N. Haramein. No HFM, o vácuo é composto por Voxels de Planck - referidos como Unidades Esféricas de Planck (PSU) - que são vórtices na escala de Planck, movendo-se coerentemente, criando um efeito coletivo que pode induzir um torque resultante da transferência de momento angular dos vórtices às placas birrefringentes.

 

Crédito de imagem frontal: APS / Alan Stonebraker

A importância da MindfulnessA importância da Mindfulness

55.jpg

02 Jan 2019

por William Brown, biofísico da Resonance Science Foundation


Estudos sugerem que práticas de atenção plena podem ajudar as pessoas a gerenciar o estresse, lidar melhor com doenças graves e reduzir a ansiedade e a depressão. Muitas pessoas que praticam a atenção plena relatam maior capacidade de relaxar, maior entusiasmo pela vida e maior auto-estima.

A meditação, ou práticas de atenção plena, tornaram-se uma maneira bem aceita na medicina convencional de manter a saúde mental e física. Em um estabelecimento médico que geralmente depende de medicamentos para combater problemas de saúde, novas idéias sobre os benefícios para a saúde física e mental da atenção plena foram agora refletidas em muitos estudos científicos.

Estudos financiados pelo Instituto Nacional de Saúde (NIH) nos Estados Unidos encontraram ligações entre meditação da atenção plena e mudanças mensuráveis ​​nas regiões do cérebro envolvidas na memória, aprendizado e emoção, além de que práticas de atenção plena podem reduzir a ansiedade e hostilidade entre os jovens urbanos e levar a redução do estresse, menos brigas e melhores relacionamentos.

A prática da atenção plena não é algo que é feito por 15 minutos todos os dias - é uma técnica praticada ao longo do dia, mesmo nas atividades aparentemente mais triviais. A atenção plena como prática é simplesmente chamar a atenção para o momento presente e observar como a mente - suas emoções e pensamentos - responde a cada situação.

Ao estar atento ao estado de alguém, os padrões de respostas negativas que levam a comportamentos prejudiciais podem ser reconhecidos e trazidos ao pleno conhecimento. Com esse tipo de consciência, como responder a uma situação se torna uma escolha, e não um reflexo.

Nas práticas tradicionais de meditação, como a tradição bon budista do Tibete, esse tipo de atenção é usada, entre outros fins, para reduzir a tendência de "apreensão e aversão" decorrente de julgar uma situação e de ser "varrida" por emoções não examinadas. e pensamentos para essa situação.

56.jpg

Quando essas tendências se tornam dominantes, é claramente prejudicial para a mente e o corpo, pois a ansiedade, a raiva e a depressão iniciam mudanças no nível fisiológico. No entanto, com a atenção plena, ansiedade, raiva e depressão tornam-se, no máximo, experiências emocionais passageiras que se dissipam à medida que a consciência é trazida para o momento presente e cada situação é abordada como uma nova lição sobre si mesmo (atenção plena).

A Dra. Margaret Chesney, da Universidade da Califórnia, em São Francisco, que estuda como a atenção plena afeta a saúde, afirma que "o que é importante na atenção plena é que ela é acessível e pode ser útil para muitas pessoas". Chesney também observa que, à medida que as pessoas começam a aprender a ter mais atenção, é comum e normal perceber o quanto sua mente corre e se concentra no passado e no futuro. Você pode apenas perceber esses pensamentos e depois retornar ao momento presente. São esses pequenos passos regulares que se somam e começam a criar uma vida mais consciente e saudável.

Por: William Brown, biofísico da Resonance Science Foundation

Quasares lançam nova luz sobre a constante do Hubble

57.jpg

19 Jan 2019

Dr. Amira Val Baker, Astrofísico da Fundação da Ciência da Ressonância

A expansão do universo, caracterizada pela constante Hubble, agora tem uma nova variável a ser adicionada à equação - a luz dos quasares!

A constante Hubble tem sido um tópico de debate, com medições iniciais que implicam valores de 625 km / s / Mpc e 500 km / s / Mpc. O último valor foi encontrado em 1928, por Edwin Hubble, através de seus estudos observacionais das velocidades de recessão das galáxias. Hubble descobriu que a velocidade de recessão das galáxias aumentava com o aumento da distância a uma taxa proporcional, agora conhecida como constante de Hubble. Desde então, as técnicas para determinar a constante de Hubble sofreram muitas melhorias, mas ainda existe uma discrepância entre as diferentes técnicas de medição.

As velocidades de recessão das velas padrão na forma de supernovas tipo 1a fornecem um valor de 73,48 km / s / Mpc com 2,3% de precisão. Leia mais aqui e aqui. No entanto, o método alternativo para medir a constante de Hubble - a partir do fundo cósmico de microondas (CMB) - produz um número um pouco menor de 67,4 km / s / Mpc com <1% de precisão, veja aqui.


Se isso não bastasse, agora existe outro método para adicionar à mistura!

Uma equipe de pesquisadores da UCLA decidiu resolver o problema da discrepância olhando para outra fonte de luz que havia sido negligenciada anteriormente. Eles escolheram estudar a luz emitida pelos quasares - núcleos galácticos ativos luminosos (AGN) alimentados por buracos negros maciços - e especificamente quasares cuja luz havia sido dobrada pela gravidade de uma galáxia intermediária. Esse efeito é conhecido como lente gravitacional e, em alguns casos, produz duas imagens do quasar no céu - uma do original e outra da lente. Nesse caso, a imagem com lente será observada antes da imagem original, assim como o quasar flutua no brilho, as imagens parecerão piscar uma após a outra. Desde que tenhamos conhecimento sobre o desvio para o vermelho do quasar e da galáxia intermediária, bem como os efeitos gravitacionais da galáxia intermediária, a distância do quasar pode ser deduzida.

Para testar esse método, foi decidido que a cobaia seria o quasar SDSS J1206 + 4332 bem conhecido. Utilizando observações de vários anos, foi determinada uma medição precisa do atraso no tempo, e a constante Hubble resultante foi de 72,5 km / s / Mpc.

Esse valor está de acordo com o valor encontrado em estudos de supernovas e, portanto, é uma boa confirmação de ambas as técnicas. No entanto, ainda nos resta a mesma pergunta sobre o que causa isso. O CMB é a relíquia mais antiga do nosso Universo, enquanto as variáveis ​​cefeidas e as supernovas do tipo 1a são muito mais jovens que o CMB, portanto, uma pista poderia estar na era do objeto que a medição está sendo feita? Os quasares não são tão antigos quanto o CMB, mas geralmente são mais antigos que as supernovas do tipo 1a. Portanto, se a idade tem algo a ver com a discrepância, você supõe que os quasares renderiam um valor ligeiramente menor do que o encontrado nos estudos de supernovas, mas não tão baixo quanto os valores encontrados nos estudos da CMB. Talvez uma imagem unificada possa nos ajudar a resolver esse mistério. Continue assistindo este espaço!

O espaço-tempo é um código quântico?

58.jpg

25 Jan 2019

Dr. Olivier Alirol, Pesquisador da Resonance Science Foundation

 

Em 2014, os físicos encontraram evidências de uma profunda conexão entre a correção quântica de erros e a natureza do espaço, tempo e gravidade. Geralmente, a gravidade é definida como o tecido do espaço e do tempo, mas além da teoria de Einstein, deve haver uma origem quântica da qual o espaço-tempo de alguma forma emerge.

 

Os três físicos na origem dessa descoberta, Ahmed Almheiri, Xi Dong e Daniel Harlow, sugeriram que uma "emergência" holográfica do espaço-tempo funciona exatamente como um código quântico de correção de erros. Em seu artigo “Localidade em massa e correção de erros quânticos no AdS / CFT” publicado em sua primeira versão em novembro de 2014, eles mostraram que o espaço-tempo emerge desse código de correção de erros quânticos em um universo anti-de Sitter (AdS).

 

A descoberta está abrindo uma nova maneira de capturar mais propriedades do espaço-tempo.

59.jpg

Da esquerda: Ahmed Almheiri, Xi Dong e Daniel Harlow originaram uma nova e poderosa idéia de que a estrutura do espaço-tempo é um código quântico de correção de erros.

 

A idéia principal deles era considerar um universo virtual chamado "espaço anti-de Sitter" (AdS) funcionando como um holograma. Nesta representação, o espaço-tempo no interior do universo é uma projeção que emerge de partículas quânticas emaranhadas presentes em seu limite externo. O espaço do AdS é bem conhecido pelos físicos, graças a Juan Maldacena, que propôs a correspondência anti-de Sitter / teoria de campo conforme (AdS / CFT) de que o espaço-tempo é "holograficamente dual" a uma teoria quântica de partículas que vivem na dimensão inferior, limite livre de gravidade.

61.jpg

No entanto, o universo do AdS não é intuitivo. Em nossa vida, experimentamos uma geometria espaço-temporal de De Sitter e é diferente de um espaço AdS. Uma diferença principal é que nosso universo é infundido com energia de vácuo positiva que faz com que se expanda sem limites, enquanto o espaço anti-de Sitter tem energia de vácuo negativa. Além disso, o espaço do AdS compartilha muitas propriedades importantes com o mundo de Sitter e é mais simples de estudar. As duas geometrias espaço-temporais obedecem à teoria de Einstein; eles simplesmente se curvam em direções diferentes. E mais importante, ambos os tipos de universos contêm buracos negros.

 

Daniel Harlow, professor assistente de física no Instituto de Tecnologia de Massachusetts.

 

A propriedade mais fundamental da gravidade é que existem buracos negros. É isso que torna a gravidade diferente de todas as outras forças. É por isso que a gravidade quântica é difícil.

A correção de erros quânticos explica como o espaço-tempo alcança sua "robustez intrínseca", apesar de ser tecido de material quântico frágil. Ele protege as informações armazenando-as não em qubits individuais, mas em padrões de emaranhamento entre muitos. Os melhores códigos de correção de erros geralmente podem recuperar todas as informações codificadas de pouco mais da metade dos seus qubits físicos, mesmo se o restante estiver corrompido. Com o espaço-tempo, a mesma correção parece existir, portanto, qualquer ponto no interior do espaço do AdS pode ser construído a partir de pouco mais da metade da fronteira - assim como em um código de correção de erro quântico ideal. Tudo dentro de uma região do espaço-tempo interior chamada “cunha de entrelaçamento” pode ser reconstruído a partir de qubits em uma região adjacente à fronteira.

 

Não estamos andando sobre cascas de ovos para garantir que não façamos a geometria desmoronar. Eu acho que essa conexão com a correção quântica de erros é a explicação mais profunda que temos para o porquê desse caso. - John Preskill, físico teórico do Instituto de Tecnologia da Califórnia.

 

E em 2018, Almheiri expandiu a teoria para os buracos negros em um novo artigo "Correção holográfica de erros quânticos e o interior projetado do buraco negro". A teoria permite sondar os mistérios dos buracos negros. Parece que a correção quântica de erros é "essencial para manter a suavidade do espaço-tempo no horizonte" de um buraco negro de duas bocas, chamado buraco de minhoca. A correção de erros quânticos, bem como a prevenção de firewalls, também explica como os qubits escapam de um buraco negro após a queda, através de fios de entrelaçamento entre o interior e o exterior, que são como buracos de minhoca em miniatura. Isso poderia resolver o paradoxo de Hawking.

62.jpg

Tudo remonta aos buracos negros. Esses lugares cheios de paradoxos são onde a gravidade atinge seu auge e a teoria da relatividade geral de Einstein falha. [..] Há algumas indicações de que, se você entender qual código o espaço-tempo implementa, isso pode nos ajudar a entender o interior do buraco negro. - Ahmed Almheiri, físico teórico do Institute for Advanced Study em Princeton, Nova Jersey

 

A linguagem da correção de erros quânticos está fornecendo uma nova maneira de descrever buracos negros. A presença de um buraco negro é definida pela "quebra da correção".

 

Quando existem tantos erros que você não consegue mais acompanhar o que está acontecendo no espaço [espaço-tempo], você obtém um buraco negro. É como uma pia para a sua ignorância. É realmente o emaranhado que mantém o espaço unido. Se você deseja tecer o espaço-tempo juntos a partir de pequenos pedaços, precisa envolvê-los da maneira certa. E o caminho certo é criar um código quântico de correção de erros.

 

Esses novos desenvolvimentos estão indo na mesma direção das pesquisas de Nassim Haramein, sugerindo que o espaço-tempo é muito mais do que apenas um vácuo vazio.


Por Dr. Olivier Alirol, Cientista de Pesquisa da RSF

O Panpsiquismo como ciência observacional

63.jpg

06 Fev 2019

Por William Brown, biofísico da Fundação da Ciência da Ressonância

Uma das postulações principais do artigo The Unified Spacememory Network, de Nassim Haramein et al., É que a inteligência e o comportamento aparentemente orquestrado subjacente à dinâmica auto-organizada da matéria e energia no universo se baseiam em uma estrutura informacional fundamental do espaço-tempo , o campo Planck. Como há atividade de processamento de informações ocorrendo em menor escala com os qubits de Planck, que postulamos não apenas processar informações, mas armazenar memória, existem os componentes básicos de um campo de inteligência protoconsciente presente no próprio tecido do espaço-tempo - o que chamamos de para como memória espacial. O modelo científico em que a consciência está presente em todos os domínios do universo e subjacente a todos os fenômenos é conhecido como panpsiquismo.

Em um artigo publicado recentemente, o professor Gregory Matloff defende o panpsiquismo como uma teoria viável que pode ser avaliada experimentalmente para avaliar cientificamente sua validade. Semelhante ao ponto principal apresentado na Rede Unificada de Memória Espacial, Matloff afirma que "um campo proto-consciente universal, congruente com as flutuações do vácuo, poderia interagir com a matéria molecular através da contribuição do Efeito Casimir às ligações moleculares".

Geralmente, esse é o ponto da discussão sobre o panpsiquismo em que o cético se desinteressa, porque que prova observacional poderia haver para colocar uma idéia tão extraordinária no campo da investigação científica séria? Matloff discute exatamente esses experimentos observacionais que podem ser realizados para testar a idéia. Notavelmente, um desses testes envolve a observação de estrelas de uma temperatura específica dentro da sequência principal para ver se elas estão exibindo movimento volitivo. A observação já foi feita de que estrelas mais frias se movem um pouco mais rápido em torno do centro galáctico do que estrelas de temperaturas mais altas. A diferença de velocidade é referida como descontinuidade de Parenago e ocorre na distribuição de temperatura estelar, onde as linhas espectrais moleculares se tornam aparentes.

Se for descoberto que estrelas dessa constituição molecular específica - existindo a uma temperatura em que pequenas moléculas são estáveis ​​como observado em seus espectros de absorção molecular -, pode haver suporte observacional para a hipótese da estrela volitiva, que é explicada pelo panpsiquismo campo proto-consciência fundamental do vácuo quântico.

Astronomia acessível para pessoas com perda auditiva

63.jpg

07 de fev de 2019

Dr. Inés Urdaneta, Pesquisador da Resonance Science Foundation

Como parece, como soa, como seria? Percebemos nossa realidade através de nossos sentidos: visão, olfato, tato, audição, paladar. Normalmente, não incluímos a sensação de perceber como seria ser outra pessoa ... a sensação de empatia. A maior parte de nossa educação está focada na visão padrão de que todos compartilham os mesmos sentidos, portanto, eles percebem quase o mesmo. Mas mesmo se tivéssemos os mesmos sentidos, eles percebem o mesmo? A discriminação chega quando desconsideramos as diferenças assumindo que todos o fazemos.

Somente nos EUA, existem aproximadamente 11 milhões de pessoas com sérios problemas auditivos. Estima-se em 360 milhões em todo o mundo. Astrônomos da Universidade da Califórnia, Riverside, Gillian Wilson e Mario De Leo-Winkler (agora diretor do Sistema Nacional de Pesquisadores SNI do México), se uniram a professores da Escola para Surdos da Califórnia, em Riverside (CSDR) para projetar um oficina de astronomia para alunos com perda auditiva. Suas atividades de divulgação em astronomia, que incluem competições de astrofotografia, exposições de astronomia itinerante, oficinas e muito mais, já atingiram 40.000 pessoas. E agora, com essa iniciativa, foram coletados comentários de mais de 80 alunos que participaram deste workshop específico e especial.

Como apontaram os autores do artigo de pesquisa O Universo Vibratório: Astronomia para Surdos, o tópico escolhido para a oficina foi astronomia, porque o campo é muito atraente para “atuar como um portal do envolvimento do ensino fundamental e médio na ciência”, dada a riqueza de imagens e natureza interdisciplinar do sujeito. Por outro lado, as vibrações - a sensação do tato - foram escolhidas como idioma de tradução.

Os surdos têm um senso de toque mais desenvolvido do que as pessoas ouvidas devido à "religação" do cérebro em um processo chamado neuroplasticidade. - De Leo-Winkler

Conforme mencionado no artigo, os sons utilizados relacionados ao Universo foram classificados em três categorias diferentes, cujos registros foram disponibilizados ao público por várias agências espaciais e pesquisadores:

  • sons naturais dentro da faixa de audição humana padrão (20 Hz a 20 kHz), gravados diretamente da fonte, sem a necessidade de manipulá-los ou interpretá-los. Por exemplo, o som de um lançamento de foguete, fornecido pela Agência Nacional Aeronáutica e Espacial (NASA) e pela Agência Espacial Europeia (ESA)

  • sons aprimorados: energia produzida dentro do espectro eletromagnético que não seja o alcance auditivo humano padrão, exigindo manipulação para trazê-lo para esse alcance. Por exemplo: emissões de rádio de baixa frequência do Sol, emissões ultravioletas de alta frequência de estrelas

  • dados sonificados: dados convertidos em sons através de parâmetros especificados pelo usuário (um processo conhecido como sonificação). Por exemplo: variações de temperatura no fundo cósmico da micro-ondas (remanescentes do Big Bang). Pesquisadores como Paul Francis (Universidade Nacional Australiana), John G. Cramer (Universidade de Washington), Robert Alexander (Universidade de Michigan) e Travis Metcalfe5 (Instituto de Ciências Espaciais) produziram sonificações baseadas em asteroseismologia, o fundo cósmico de microondas, tempestades solares. e supernovas.

 

Animações e vídeos renderizados por computador também estão disponíveis publicamente nas mesmas fontes.

O CSDR possui um laboratório de som multissensorial que converte o som em outros meios, como vibrações e luz, que podem ser experimentados por indivíduos surdos. O laboratório consiste em oito painéis de piso interligados em cima de blocos de espuma que vibram quando o som é transmitido através deles, com alto-falantes apontando diretamente para os painéis de piso interligados para amplificar as vibrações transmitidas produzidas pelo som. Os alunos sentam ou ficam de pé nas tábuas do piso para sentir essas vibrações.

A parte crucial da iniciativa contava com a contabilização dos sons mais adequados. Os critérios para seleção foram:

  • sons de alta frequência que produzem poucas ou nenhuma vibração foram descartados

  • sons que são muito agudos demais para estudantes que usam implante coclear (IC), ou que requerem energia excessiva para produzir vibrações, foram descartados

  • as vibrações devem ser claramente distinguíveis uma da outra; fenômenos cósmicos com baixas frequências e padrões suficientemente distinguíveis

 

A amostra final de 19 sons foi então desenvolvida em uma apresentação audiovisual completa, que também foi traduzida pela American Sign Language.

O material e a experiência foram divulgados pela equipe, a fim de ajudar educadores do mundo todo a envolver a comunidade surda nas atividades STEM. O STEM é um currículo baseado na idéia de integrar quatro disciplinas específicas - ciência, tecnologia, engenharia e matemática - em uma plataforma interdisciplinar e de aprendizagem aplicada coesa, baseada em aplicativos do mundo real:

https://www.livescience.com/43296-what -is-stem-education.html

Estamos acostumados a pensar que a astronomia é principalmente uma atividade visual, e por esse motivo as pessoas com perda auditiva não se preocupariam tanto. Mas as vibrações se traduzem em reconhecimentos perspicazes, principalmente por meio de sentimentos, portanto, mesmo para a comunidade auditiva, essa é uma ideia incrível. Essa iniciativa também pode estabelecer as bases para pessoas com perda de visão.

https://phys.org/news/2019-02-vibrating-universe-astronomy-accessible-deaf.html#jCp

Impressoras 3D super rápidas

64.jpg

07 Fev 2019

Dr. Amira Val Baker, Astrofísico da Fundação da Ciência da Ressonância

Uma nova impressora conhecida como 'replicador' poderá em breve tornar as impressoras 3D inovadoras e futuristas uma coisa do passado.

As impressoras 3D surgiram no início dos anos 80 e foram consideradas um milagre moderno. Eles trabalham depositando um material, como plástico, camada por camada, para reproduzir uma imagem de computador gerada em 3D. Desde seus humildes começos e preços massivamente caros, nos quais eles só foram capazes de produzir protótipos funcionais, eles fizeram avanços significativos na precisão. Com tanta precisão e preços relativamente baixos, eles se tornaram um local comum para a produção de tudo, desde o setor aeroespacial e automotivo até o médico.

No entanto, pesquisadores da Califórnia divulgaram uma nova impressora 3D conhecida como 'replicador'. Com base na tomografia - que é o processo de obter uma imagem 3D da estrutura "interna" não visível, combinando imagens planas "2D" ou fatias para produzir uma imagem 3D resultante. Tais técnicas são tradicionalmente usadas em ferramentas de diagnóstico médico, como imagens de raios X ou tomografia computadorizada (TC), nas quais um feixe estreito de raios X varre uma área específica do corpo e registra a absorção de radiação como uma série de impulsos elétricos . Esses impulsos variados representam a variação nas densidades que podem ser usadas para construir uma imagem da estrutura interna anteriormente invisível.

Uma equipe de cientistas que trabalha com a tomografia percebeu que o processo poderia ser revertido. Portanto, em vez de criar uma imagem 3D a partir de um conjunto de imagens 2D, uma imagem 3D é usada para criar as imagens 2D constituintes, como se vistas de vários ângulos. Um projetor de vídeo digital é então usado para produzir as imagens, como projeções moduladas por intensidade computada, em um cilindro cheio de resina rotativo e sequenciado no tempo. A resina fotossensível solidifica em contato com certas intensidades de luz, de modo que, quando iluminada com um padrão de luz em evolução dinâmica, a luz projetada materializa efetivamente objetos inteiros de uma só vez. O método é conhecido como Litografia Axial Computada (CAL) e, embora na infância prometa inúmeras possibilidades - é como se os objetos estivessem se materializando a partir do próprio vácuo.

A produção de objetos através da interação da luz e da matéria é um bom exemplo da física unificada em ação. Como citado por Nassim, "Tudo surge e retorna a um campo fundamental de informações que nos conecta a todos".

https://futurism.com/the-byte/scientists-replicator-3d-printer-light

https://www.nature.com/articles/d41586-018-07798-9

https://science.sciencemag.org/content/363/6431/1075/tab-pdf

O primeiro visitante interestelar do nosso sistema solar, poderia ser uma assinatura tecnológica da inteligência extraterrestre?

65.jpg

15 Fev 2019

Por: William Brown, biofísico da Resonance Science Foundation

Já era uma história sensacional, um objeto interestelar estava atravessando nosso sistema solar, foi um primeiro histórico e uma oportunidade de aprender mais sobre o meio interestelar ao nosso redor. Desde sua primeira aparição em 2017, o sensacionalismo cresceu apenas em torno de um Oumuamua, quando astrofísicos sérios analisando sua trajetória anômala e aceleração começaram a postular que não pode ser explicado por nenhuma explicação totalmente naturalista. Ou seja, o comportamento anômalo de Oumuamua indica que é um objeto manipulado, não natural.

Apesar de indubitável que haja vida em todo o universo e que inevitavelmente levará ao surgimento de várias civilizações inteligentes, cientistas conservadores - particularmente dentro dos limites bem regulados do pensamento apropriado na academia - são hostis à ideia de observar essa vida extraterrestre. Assim, quando o principal astrônomo da Universidade de Harvard, Avi Loeb, publicou os resultados de seus cálculos mostrando que o objeto pode ser uma espaçonave extraterrestre, ele recebeu um rápido castigo de comentaristas científicos conservadores.

"Considerando uma origem artificial, uma possibilidade é que 'Oumuamua é uma vela luminosa, flutuando no espaço interestelar como detritos de um equipamento tecnológico avançado", escreveu Loeb com seu colega Shmuel Bialy no Astrophysical Journal Letters em um artigo intitulado "poderia pressão da radiação solar explicar 'aceleração peculiar de Oumuamua? ”

Portanto, apesar do fato de que não há razão para que em algum momento não observemos a assinatura tecnológica de outra civilização inteligente, e que não há nada ilógico em sugerir uma situação dessas quando observações e cálculos a favor, Avi Loeb recebeu comentários de seus "colegas", como:

"'Oumuamua não é uma espaçonave alienígena, e os autores do artigo insultam a investigação científica honesta até mesmo para sugerir isso", de Paul Sutter, astrofísico da Ohio State University.

No entanto, apesar do desdém dos críticos por postulações envolvendo inteligência extraterrestre, explicações alternativas enfrentam discrepâncias significativas que não podem ser ignoradas. Por exemplo, se ‘Oumuamua é uma rocha como corpos gelados de cometas, ele formaria um coma e jatos de gás ao passar pelo Sol, nenhum dos quais foi observado.

‘Oumuamua acelerou ao deixar o sistema solar, uma mudança de velocidade anômala que foi tentada ser explicada como aumento da propulsão dos jatos de emissão, pois o cometa foi parcialmente descongelado pelo sol. No entanto, como já mencionado, não foram observados jatos ou coma. Portanto, a aceleração permanece inexplicável. E se é como um asteróide metálico, Loeb aponta que está se movendo rápido demais para ser uma simples rocha inerte - essencialmente os cálculos mostram que há alguma força empurrando o objeto por trás.

Uma explicação para essa força inerte seria se o objeto fosse de fato uma vela solar - um projeto de nave espacial que utiliza a pressão criada pela luz das estrelas que atingem o objeto, criando uma força propulsora. Como é extremamente improvável que o objeto seja uma vela leve "natural", uma vez que as velas leves precisam ser muito leves, algo não característico dos cometas gelados e asteróides metálicos. Portanto, indicaria que o objeto é o resultado de engenharia inteligente por vida extraterrestre.

As imagens de um Oumuamua não tiveram a resolução de observar diretamente a forma do objeto. Sua forma foi inferida pelo escurecimento e brilho anômalo do objeto, um comportamento estranho que foi explicado sugerindo que suggesting Oumuamua é um objeto em forma de charuto, altamente alongado, que está "tombando" pelo espaço. No entanto, se é de fato um objeto de engenharia, pode ter vários quilômetros de largura e comprimento e apenas alguns milímetros de espessura. O escurecimento e o brilho anômalos seriam então explicados pelo reflexo da luz atingindo a grande vela, que parece oscilar de fraca a brilhante da nossa perspectiva.

Além disso, isso explicaria a trajetória anômala e a aceleração do objeto. É fantástico sugerir que o primeiro visitante interestelar de nosso sistema solar é uma espaçonave enviada por uma civilização inteligente para sondar nossa estrela e outras? Nosso entendimento é limitado pelo que consideramos possível, mas se algo deve ser aparente para aqueles que observam profundamente o mundo ao seu redor, é que vivemos em um universo espantoso, então o que é possível está muito além do que a mente conservadora assumiria pragmaticamente.

A maneira eficaz de conduzir elétrons da natureza

66.jpg

15 Fev 2019

Dr. Olivier Alirol, Pesquisador da Resonance Science Foundation

A circulação de elétrons é essencial na eletrônica e também nos organismos vivos. Enquanto em nossos computadores usamos semicondutores feitos principalmente de cristal de silício, a Natureza encontrou uma maneira mais eficaz: proteínas. As estruturas proteicas facilitam a transferência eletrônica de longo alcance. Os cientistas mostraram que as características estruturais das proteínas têm elementos que facilitam a condutividade eletrônica.

Esse fenômeno se deve em grande parte à seletividade de rotação induzida por quiral (CISS). Causa, em particular, a redução da retroespalhamento elástico na transferência de elétrons através de moléculas quirais. De fato, a transmissão de elétrons mostra que filmes ordenados de moléculas orgânicas quirais atuam como filtros de spin de elétrons. O efeito CISS nos fornece informações importantes para processos seletivos de spin em biologia e permite o uso de moléculas quirais em aplicações spintrônicas.

O processo de transferência de elétrons permite a transferência de energia e informação de um lugar para outro no organismo vivo. Portanto, uma transferência eletrônica eficiente é essencial para a vida.

Seu efeito quiral está notavelmente presente nas moléculas de DNA ou no processo de fotossíntese. No primeiro caso, a seletividade do spin é observada e pode desempenhar um papel essencial no nível quântico para codificar as informações. O envolvimento de elétrons na transmissão de informações e o efeito CISS no polímero de DNA quiral foi confirmado por estudos anteriores: ou seja, o DNA age como um fio para conduzir sinais de elétrons entre proteínas para reparo e replicação.

Na fotossíntese, a alta condutividade do elétron é um componente-chave dentro dos complexos fotossintéticos de proteína-pigmento. A condutividade do aparelho fotossintético é devida à sua estrutura geométrica e atômica. A principal função dos complexos de captação de luz é coletar energia luminosa e transferir essa energia para os centros de reação dos processos redox fotoinduzidos nos quais uma transferência de elétrons alta e eficiente é essencial.

A maquinaria fotossintética produz elétrons de alta energia que devem reagir rapidamente com outros átomos dentro do complexo. No entanto, devido à estrutura molecular única e às propriedades quânticas das biomoléculas no sistema vivo, os elétrons de alta energia são transferidos com 100% de eficiência dentro do núcleo fotossintético. Esse é o resultado oposto do esperado dos físicos, que geralmente consideram a célula um ambiente caótico e desorganizado que deve ser totalmente inóspito para manter estados quânticos. No entanto, devido à estrutura exclusiva das biomoléculas, produzindo propriedades como o efeito CISS, observa-se que o maquinário celular é capaz de transmitir elétrons de alta energia com 100% de eficiência - um nível de eficiência geralmente visto apenas em supercondutores.

67.jpg

Estrutura quiral não-américa do complexo periférico de captação de luz (LH2). Vista perpendicular ao plano da membrana e vistas paralelas à membrana. O polipeptídeo α é colorido de amarelo e o polipeptídeo β é verde.

Devido ao efeito CISS, a transferência de elétrons nas moléculas quirais depende do spin. O fenômeno é particularmente visível na transmissão seletiva de elétrons por meio de monocamadas auto-montadas de DNA de fita dupla. Nesse caso, a polarização do spin é maior que qualquer outro filtro de spin conhecido e os fotoelétrons polarizados pelo spin são observados mesmo quando os fotoelétrons são gerados com luz não polarizada.

68.jpg

Um esquema que descreve a monocamada de dsDNA como filtro de rotação. Elétrons não polarizados são ejetados do substrato de ouro por uma luz linearmente polarizada. A maioria dos elétrons transmitidos através do DNA é polarizada com seu spin alinhado antiparalelo à sua velocidade. Os elétrons que não são transmitidos são capturados pelo DNA e voltam para o substrato aterrado dentro do período entre dois pulsos de laser.

Em um artigo recente, um modelo numérico foi proposto para entender o efeito do CISS. Xu Yang, da Universidade de Groningen, apresentou um modelo de transmissão de elétrons que avalia o papel do efeito CISS em experimentos de transporte de elétrons de regime linear de dois terminais e multiterminal. Ele revelou que, para o efeito CISS, a transmissão de spin dependente de quiralidade é acompanhada por um processo de reflexão de elétrons de spin-flip.

Isso seria uma grande contribuição para a sociedade, pois pode permitir uma abordagem totalmente nova para o futuro da eletrônica.

RSF - em perspectiva

O efeito de rotação eletrônica na biologia molecular ilustra como a mecânica quântica está intimamente ligada à biologia molecular. Também mostra como a Natureza está usando informações quânticas como um computador quântico para armazenar e gerenciar dados em seus processos principais. E tudo está girando.

"Quando estudamos sistemas físicos na natureza, podemos ver facilmente que existem padrões fundamentais que podem ser encontrados em todas as escalas observáveis ​​/" - Nassim Haramein

A catástrofe a vácuo

69.jpg

21 Março 2019

Amira Val Baker, Pesquisadora da RSF

 

Finalmente, todos podemos concordar que o vácuo simplesmente não está cumprindo seu nome e está cheio de energia. A questão agora é: quanta energia?

 

Bem, a resposta para essa pergunta ainda está para ser acordada e, como sempre, são os físicos e cosmólogos quânticos que estão em disputa. No entanto, essa disputa é bastante significativa - especificamente 122 ordens de magnitude significativas. Essa discrepância, conhecida como catástrofe do vácuo, é apontada como uma das piores previsões da física.

 

Então, por que a discrepância ... bem, tudo depende de como você vê o vácuo.

 

Na escala quântica, os cientistas só conseguem fazer inferências sobre o que está acontecendo. Embora essas inferências sejam bastante claras, os físicos quânticos conseguem fazer previsões muito precisas. No entanto, esse poder preditivo não fornece insights sobre a natureza do reino quântico e, portanto, sobre o vácuo quântico. Anteriormente, pensava-se que não era muito mais do que uma conveniência matemática sem fisicalidade relevante. Esse pensamento foi cimentado em 1887 com o experimento de Michelson Morley, que concluiu que o espaço era vazio e vazio. No entanto, por mais doloroso que tenha sido para alguns, sussurros desse vazio escuro começaram a ser ouvidos.

 

Em 1947, Hans Beth mostrou que observações espectrais de hidrogênio poderiam ser explicadas se os efeitos energéticos das "flutuações quânticas de vácuo" fossem incluídos. Grandes cientistas como Dirac haviam aludido a esse efeito mais de uma década antes - apelidado de Mar Dirac - e, é claro, Newton e Maxwell não pensavam no espaço como completamente vazio, ao invés disso, pensavam nele como mais um fluido. Até Einstein nos seus últimos anos concordou que "de acordo com a teoria geral da relatividade, o espaço sem éter é impensável". Finalmente, em 1996, os efeitos do vácuo quântico, teorizados por Hendrik Casimir e conhecido como efeito Casimir, foram medidos, verificando os efeitos desse reino intangível. A ideia de que o espaço não esteja vazio agora parece ser o consenso geral, com físicos de destaque como o ganhador do Nobel Frank Wilczek, nos descrevendo como "... filhos do éter ..." em uma palestra de 2017 intitulada "Materialidade de um vácuo".

70.jpg

Quando duas placas de metal são colocadas no vácuo, elas são juntas. Isso ocorre porque o vácuo realmente contém energia existente em diferentes modos de vibração - ondas. Algumas das ondas ocuparão o espaço entre as placas de metal e outras ocuparão o espaço externo, com apenas ondas pequenas o suficiente ocupando o espaço entre as placas. A diferença na densidade de energia em cada lado da placa resulta em uma força atraente entre as placas.

 

Então, agora, medindo esse mar infinito de energia, o que pode ser feito simplesmente adicionando a menor energia possível de um oscilador harmônico em todos os modos possíveis. No entanto, quanto menor o comprimento de onda do modo vibratório, maior a frequência e, portanto, maior a contribuição para a densidade de energia do vácuo - resultando em uma densidade infinita de energia de vácuo. Portanto, precisamos primeiro definir nosso quadro de referência e incluir apenas comprimentos de onda maiores que esse quadro de referência. O quadro de referência óbvio é o do comprimento de Planck - que é a menor unidade de comprimento do Universo (pelo menos dentro do nosso universo). Isso fornece um valor gigantesco de 1093 g / cm3 - que é muito, muito denso!

 

No entanto, quando olhamos para o extremo oposto da escala - a escala cosmológica -, encontramos um valor menor em uma ordem de 122 magnitudes. Para fazer medições da densidade de energia do vácuo nessa escala - precisamos confiar nas observações dos astrofísicos e em algumas suposições sobre o modelo cosmológico.

 

A primeira suposição é que vivemos em um universo homogêneo e isotrópico. Em outras palavras, o universo parece o mesmo em todos os locais (homogeneidade) e não tem direção preferida (isotrópica) - no entanto, essa suposição implica que o universo não está girando, mas deixaremos isso por outro tempo.

 

A segunda suposição é que, em larga escala, o universo parece plano. Agora, como a maioria das coisas no Universo, incluindo o Universo, há um ponto crítico - no qual a mudança acontece. O modelo atual afirma que vivemos em um universo plano e, para que isso seja verdade, a densidade total de energia em massa do universo deve ser igual a esse valor crítico. Com base nas observações atuais, o mundo material representa apenas 5% dessa densidade crítica do universo, com a matéria escura (27%) e a energia escura (68%) representando o restante.

 

A terceira suposição é que o universo está se expandindo. Originalmente proposto em 1972 pelo astrônomo e cosmólogo belga Georges Lemaître, que teoricamente postulou que o universo começava com a explosão cataclísmica de um pequeno superátomo primitivo. Essa idéia foi um choque para os cientistas da época, pois se acreditava que o universo era estático.

71.jpg

No entanto, em 1929, enquanto fazia um estudo observacional de galáxias, Edwin Hubble descobriu que a velocidade de recessão das galáxias aumentava com o aumento da distância - esse é o espaço entre galáxias em expansão. A taxa de expansão, agora conhecida como constante de Hubble, é o principal parâmetro nos modelos do Universo em expansão.

 

Outra constante familiar, conhecida como constante cosmológica, foi introduzida por Einstein em 1917 para impedir que o universo se expandisse como suas equações haviam previsto. No entanto, à luz da descoberta de Hubble, Einstein percebeu que suas equações estavam corretas e, portanto, removeu a necessidade da constante cosmológica.

72.jpg

Nesse modelo, a energia - ou informação - de qualquer sistema esférico é proporcional ao número de unidades esféricas de Planck (PSUs) ou voxels dentro do volume esférico e ao número de voxels disponíveis no horizonte da superfície esférica. Essa relação holográfica entre o interior e o exterior define a densidade de energia e massa do sistema, enquanto o inverso define a massa expressa pelo sistema a qualquer momento.

 

Quando pensamos na massa do próton em termos do número de voxels que ele contém, encontramos uma densidade de energia em massa equivalente à massa do Universo. Se essa energia de vácuo presente no volume de um próton for expandida para o raio do Universo, a densidade de energia de vácuo desse Universo seria igual ao valor constante cosmológico de 10-29 g / cm3. Curiosamente, o valor encontrado nessa abordagem fornece o valor para a matéria escura, sugerindo que a matéria escura é o efeito da energia interior do próton ou da densidade de energia do vácuo na escala de prótons.

 

Da mesma forma, ao observar a energia exterior disponível em termos de voxels de Planck no horizonte superficial de um universo esférico de conchas, verificou-se que ele se igualava exatamente à densidade crítica do Universo, sem exigir a adição de matéria escura e energia escura. Ou seja, se escalarmos a densidade de energia do vácuo na escala de Planck (1093 g / cm3) pela proporção dessa energia disponível em um horizonte superficial esférico, descobriremos que, à medida que o horizonte se expande para o tamanho do nosso universo, a densidade da energia do vácuo diminui por 122 ordens de magnitude.

É como se um próton escapasse de outro universo e se expandisse para formar nosso universo, muito parecido com o do super-átomo primitivo em expansão de Lemaître. Da mesma forma, poder-se-ia concluir pelo nosso entendimento de energia - ou informação - que o universo está se expandindo e acelerando porque está aprendendo sobre si mesmo e, portanto, requer mais superfícies para armazenar as informações holográficas. A taxa de expansão é, portanto, governada por um gradiente de pressão devido ao potencial de transferência de informações no horizonte.

 

Essa visão quantizada do universo não é apenas capaz de resolver a catástrofe do vácuo, mas também oferece insights sobre a evolução e a dinâmica do nosso universo. Os detalhes deste trabalho foram publicados recentemente no Journal of High Energy Physics, Gravitation and cosmology.

Galáxias sem matéria escura

73.jpg

28 Mar 2019

Dr. Amira Val Baker, Astrofísico da Fundação da Ciência da Ressonância

O principal ingrediente das galáxias não parece ser tão significativo - como pela primeira vez parece que o universo fez uma galáxia sem matéria escura.

A matéria escura é uma forma hipotética de matéria teorizada para explicar as velocidades rotacionais anômalas das galáxias. De acordo com as leis da física, para que uma galáxia exista, ela precisa de mais massa do que o que é observado - essa massa extra está na forma de matéria escura. No entanto, apesar de ser considerado responsável por 27% do Universo e ser o ingrediente significativo nas galáxias, ainda permanece um mistério sem acordo sobre o que realmente é. Saiba mais aqui.

Com mais e mais debates sobre a existência real de matéria escura, uma nova descoberta colocou uma chave nos trabalhos e descobriu uma galáxia sem um ingrediente "vital" - a matéria escura!

Em 2015, uma equipe de astrônomos descobriu a galáxia ultra-difusa NGC1052-DF2. Foi considerado um novo tipo bizarro de galáxia que parecia não mostrar sinais de matéria escura. Inicialmente cético, a equipe liderada por Pieter van Dokkum confirmou recentemente suas observações com dois novos estudos independentes.

Utilizando o Keck Cosmic Web Imager (KCWI) no Observatório W. M. Keck, a equipe conseguiu reunir medidas precisas dos aglomerados globulares da galáxia. Verificou-se que essas coleções esféricas densamente compactadas de estrelas antigas se moviam a uma velocidade consistente com a massa galáctica. Se a matéria escura estivesse presente, os aglomerados globulares se moveriam muito mais rapidamente.

Se isso não bastasse, uma segunda galáxia NGC1052-DF4 foi encontrada para exibir os mesmos resultados.

Essas galáxias são tão grandes quanto a Via Láctea, mas contêm 100 a 1000 estrelas a menos, o que as torna muito menos densas, como sugere o nome 'galáxias ultra-difusas'.

A esperança é que mais dessas galáxias sejam encontradas e ajudem a resolver o mistério da matéria escura. Conforme declarado em seu artigo "A origem dessas galáxias grandes e fracas, com um excesso de aglomerados globulares luminosos e uma aparente falta de matéria escura, atualmente não é compreendida".

Essas galáxias difusas, embora tão grandes quanto a Via Láctea, não contêm tantas estrelas, tornando-as muito menos densas. Isso segue a perspectiva da física unificada, onde a física invariável da escala é fundamental.

Por: Dr. Amira Val Baker, pesquisadora da RSF

Habitabilidade potencial de exoplanetas

74.jpg

12 Abr 2019

por William Brown, pesquisador da Resonance Science Foundation


crédito de imagem em destaque: Universidade Jack O’Malley-James / Cornell: os intensos ambientes de radiação nas estrelas M próximas podem favorecer mundos habitáveis ​​semelhantes às versões mais novas da Terra.

Uma previsão primária do modelo USN, conforme apresentado na publicação da Rede Unificada de Espaços Espaciais da Nassim Haramein, da astrofísica Amira Val Baker e do biólogo William Brown, é que a química prebiótica que gera compostos orgânicos e até biomoléculas complexas está ocorrendo nas nebulosas das galáxias - uma postulação denominada biogênese universal. Sob esse modelo, os precursores da biologia celular são abundantes em todo o meio galáctico e, portanto, há uma probabilidade muito alta de que, onde quer que as condições sejam hospitaleiras para os organismos, a vida se fixe ali.

Considerando as implicações da biogênese universal, foi muito emocionante quando um planeta semelhante à Terra foi descoberto dentro da zona habitável de nosso vizinho estelar mais próximo, a estrela anã vermelha (estrela tipo M) α Centauri C (Proxima Centuari) no sistema de estrelas triplas Alpha Centauri. Embora este sistema esteja a 4,37 anos-luz de distância do nosso sistema solar (Proxima Centauri é o mais próximo do trio e a estrela mais próxima do nosso, com cerca de 4,2 anos-luz), é suficientemente próximo que atualmente temos a capacidade tecnológica para enviar viabilmente uma sonda para o planeta Proxima Centauri b.

75.jpg

O Proxima Centauri b não é o único exoplaneta semelhante à Terra que foi encontrado; na verdade, existem muitos sistemas: atualmente existem cerca de cinquenta exoplanetas conhecidos, cujos diâmetros variam do tamanho de Marte a várias vezes o tamanho da Terra e que também residem em seu interior. zona habitável das estrelas - esses exoplanetas são atualmente nossos melhores candidatos para receber a vida. Muitos desses exoplanetas são encontrados em torno de estrelas anãs vermelhas (porque é mais fácil detectar planetas em torno dessa classe de estrelas) e, para alguns astrobiólogos, isso é problemático para a potencial habitabilidade desses planetas.

As estrelas da classe M são estáveis ​​por centenas de bilhões de anos - tempo de sobra para a vida se desenvolver e evoluir - no entanto, existem vários fatores que questionam se esses mundos serão adequados para a habitação de organismos a longo prazo. Para estar dentro da zona habitável, os planetas devem estar muito mais próximos da estrela anã vermelha em comparação com estrelas de temperatura mais alta como o nosso sol. Isso significa que há uma alta probabilidade de que os planetas estejam bloqueados orbitalmente, de modo que apenas uma face do planeta esteja perpetuamente orientada para a estrela - assim como a nossa lua. Esse bloqueio de maré ocorre quando o período orbital corresponde ao período rotacional de um corpo. Um planeta fechado por maré terá um lado que está assando quente e outro lado que está congelando. No entanto, pode haver uma zona habitável perpétua ao longo da circunferência do planeta entre esses dois extremos.

 

Além disso, estrelas anãs vermelhas de baixa massa emitem erupções solares com muito mais frequência do que estrelas como o nosso sol. As labaredas solares carregam altas cargas de radiação para planetas próximos, e exoplanetas de anã vermelha na zona habitável estão muito próximos. Isso levou alguns a especular que as atmosferas protetoras desses planetas há muito foram obliteradas e a superfície terá exposição frequente a altos níveis de radiação solar - uma situação considerada amplamente inóspita para a maioria das formas de vida.

76.jpg

Isso significa que esses exoplanetas são maus candidatos à investigação de bioassinaturas e vida extra-solar? As astrofísicas Lisa Kaltenegger e Jack O'Malley-James conduziram um estudo que sugere o contrário. Em sua publicação: Lições do início da Terra: A radiação UV na superfície não deve limitar a habitabilidade dos sistemas M estrela ativos; eles calculam que exoplanetas como o Proxima Centauri b experimentam níveis de radiação mais baixos do que aqueles que estavam presentes no início da Terra, uma época que viu o surgimento da vida e a formação de uma biosfera na Terra. Obviamente, existem algumas formas de vida, como extremófilos unicelulares, que podem não apenas sobreviver a tais condições, mas podem prosperar nelas. Esses primeiros colonos moldarão verdadeiramente um planeta, aumentando a hospitalidade do planeta por formas de vida com as quais estamos mais familiarizados, que exigem uma forte camada de ozônio e atmosfera para bloquear altos níveis de radiação e regular a temperatura da superfície.

O’Malley-James e Kaltenegger executaram uma análise semelhante para outros três exoplanetas semelhantes à Terra mais próximos do nosso sistema solar: TRAPPIST-1e, Ross-128b e LHS-114ob:

A 3,4 parsec do Sol, o planeta Ross 128b, com uma massa mínima de cerca de 1,4 massas terrestres, orbita no HZ sua estrela anã M4V ​​fria e inativa. O sistema planetário TRAPPIST-1 de sete planetas em trânsito do tamanho da Terra em torno de uma estrela anã M8V legal e moderadamente ativa, que possui vários (três a quatro) planetas do tamanho da Terra em seu HZ, fica a apenas 12 parsec do Sol. O planeta LHS 1140b orbita no HZ sua estrela anã M4.5V legal e provavelmente inativa, com uma composição rochosa medida com base no raio de 1,4 raio da Terra e massa de 6,7 massas da Terra. Esses quatro sistemas planetários já fornecem um conjunto intrigante de mundos potencialmente habitáveis ​​próximos para a busca de vida além do nosso próprio sistema solar.

Embora as composições das atmosferas de nossos exoplanetas habitáveis ​​mais próximos sejam atualmente desconhecidas; o estudo mostra que, se as atmosferas desses mundos se assemelharem à composição da atmosfera da Terra durante o tempo geológico, a radiação da superfície UV não seria um fator limitante da capacidade desses planetas de hospedar a vida. Mesmo para planetas com atmosferas corroídas ou anóxicas em órbita ativa, M estrelando estrelas a radiação UV da superfície nos modelos do pesquisador permanece abaixo da do início da Terra para todos os casos modelados. Portanto, em vez de afastar esses mundos em busca da vida, eles fornecem um ambiente intrigante para a busca da vida e até para a busca de bioassinaturas alternativas que possam existir sob condições de superfície com alta radiação UV.

Os romanos antigos podem ter construído estruturas que agiam como capas de invisibilidade sísmica

77.jpg

30 Abr 2019

por William Brown, biofísico da Resonance Science Foundation

Metamateriais antigos: o Coliseu de Roma poderia ser protegido dos danos causados ​​pelo terremoto por uma capa de invisibilidade sísmica. (Cortesia: Bengt Nyman / CC BY 2.0)

Mais conhecidos por serem usados ​​como mantos de invisibilidade, os metamateriais são feitos de grandes conjuntos de minúsculos ressonadores que manipulam a luz e outras ondas eletromagnéticas de maneiras que não são típicas de outros materiais que ocorrem naturalmente. A capacidade de manipular ondas de maneira anômala não se restringe apenas às do eletromagnetismo, mas também às ondas acústicas.

Anteriormente, a Resonance Science havia relatado o desenvolvimento de novos metamateriais acústicos que podem curvar, modelar e focalizar as ondas sonoras, alguns dos quais podem fazê-lo com eficiência quase perfeita do metamaterial para redirecionar o som e até dispositivos como o SoundBender que permite feixe de trator sônico para pegar objetos por trás de obstáculos.

As aplicações tecnológicas para essa inovação na ciência dos materiais e a compreensão do comportamento dos fenômenos das ondas na luz e no som são inúmeras, no entanto, uma aplicação particularmente útil pode ser a melhoria da resistência de prédios e outras estruturas artificiais para suportar terremotos.

Como o arranjo arquitetônico do metamaterial é um fator importante em suas propriedades incomuns, a capacidade de dobrar e direcionar o som pode ser induzida em muitas estruturas diferentes, desde que estejam em conformidade com a matemática subjacente ao arranjo conformacional de um metamaterial. Isso levou alguns pesquisadores à idéia de replicar o arranjo de metamateriais - usando buracos ou postes de algum tipo - para desviar as ondas sísmicas ao redor de edifícios vulneráveis.

78.jpg

O que são metamateriais?

 

Metamateriais são materiais artificiais compostos por estruturas cujas propriedades eletromagnéticas, acústicas ou térmicas são deliberadamente projetadas para oferecer uma gama de respostas difíceis ou impossíveis de serem alcançadas em materiais ou compósitos que ocorrem naturalmente. Algumas aplicações surpreendentes de metamateriais incluem (mas não estão limitadas a); índice negativo de refração (onde a resposta magnética e elétrica é simultaneamente negativa), lentes “perfeitas” (comprimento de onda), camuflagem acústica e eletromagnética da “invisibilidade” e redirecionamento de ondas eletromagnéticas ou EM.

Uma equipe que está trabalhando ativamente neste aplicativo já demonstrou a eficácia dessa ideia. Stéphane Brûlé e engenheiros civis da empresa Ménard em Lyon, juntamente com pesquisadores do Instituto Fresnel em Marselha, demonstraram em 2012 que as ondas sísmicas poderiam ser refletidas de volta a uma fonte acústica perfurando uma matriz bidimensional de furos no solo superior, cada um 5 m de profundidade.

 

Surpreendentemente, ao pesquisar e testar esse aplicativo, a equipe fez uma observação impressionante - que muitas estruturas megalíticas antigas se ajustam quase precisamente a arranjos arquitetônicos metamateriais, levando-os a sugerir que os construtores antigos podem ter intencionalmente construído grandes estruturas dessa maneira única para imbuir eles com resistência a eventos sísmicos como terremotos. O Coliseu de Roma é um exemplo superlativo da estranha semelhança entre algumas estruturas antigas e a arquitetura metamaterial.

 

Brûlé estava estudando imagens das fundações de um teatro galo-romano perto da cidade de Autun, quando percebeu que tinha uma estranha semelhança com metade de uma capa de invisibilidade. Sobrepondo uma foto da estrutura antiga com uma capa de invisibilidade de 20 cm de diâmetro construída por Brûlé e colegas do Instituto Fresnel, verificou-se que os pilares do teatro e os elementos da capa estavam alinhados quase exatamente - cada um deles organizado em uma série de (semi) círculos concêntricos que se aproximam em raios menores.

 

No estudo de estruturas antigas, muitos pesquisadores realizaram experimentos e observações detalhadas que demonstram que os arquitetos da antiguidade tinham um entendimento profundo do comportamento de ressonância da luz e do som e como manipular ou projetar essas propriedades ressonantes com ferramentas e estruturas de pedra e megalíticas que eles usavam. construído.

 

A Resonance Science Foundation está particularmente interessada nesta aplicação notável da tecnologia de ressonância que remonta a muitos milhares de anos atrás, e o físico Nassim Haramein chegou a descrever como grandes estruturas de pedra que desafiam a razão para explicar como foram movidas poderiam ter sido feitas, utilizando ressonância. tecnologia de levitação com base. Só agora podemos redescobrir o conhecimento e a tecnologia - como o projeto arquitetônico metamaterial - que estava sendo aplicado há milhares de anos para tudo, desde estruturas mais seguras até a cura.

 

Os pesquisadores modernos estão aplicando esse pensamento às cidades do futuro, estudando como grupos densos de edifícios altos, como arranha-céus, podem agir coletivamente como metamateriais. A idéia, diz Brûlé, é que esses edifícios modifiquem as ondas sísmicas que passam, vibrando e agindo como fontes secundárias que reemitem parte da energia sísmica inicial. No futuro, ele calcula, cidades inteligentes talvez pudessem ser arranjadas de tal forma que os edifícios desviassem as ondas sísmicas das áreas centrais que continham serviços essenciais ou escolas, e que eles pudessem até usar parte da energia das ondas para produzir eletricidade.

Origens da Quantumbiologia - O que é a Vida?

79.jpg

9 Mai 2019

Dr. Johanna Deinert, MD, Pesquisadora da RSF

 

Até o final de 2018, a Royal Society publicou uma revisão sobre o surgimento da Quantumbiology como um campo de interesse científico. Hoje, ainda precisamos entender a vida no contexto de seu ambiente físico. Apesar da impressão de que esse campo era novo, ele surgiu em sincronicidade com a interpretação da Física Quântica no início do século XX - cerca de 90 anos atrás.

 

Erwin Schrödinger não foi o primeiro a discutir o campo da quantumbiologia em seu famoso livro de 1944, "O que é a vida?". Logo após o estabelecimento do arcabouço matemático da Mecânica Quântica, em 1927, o campo da biofísica e da bioquímica floresceu. Os organistas procuraram o meio termo entre visões de mundo mecanicistas e vitalistas opostas. O fundador do campo interdisciplinar da teoria geral dos sistemas Ludwig von Bertalanffy foi um dos pioneiros na explicação da vida. Já em 1928, ele discute uma "Teoria Crítica da Morfogênese", uma questão que ainda causa debate científico.

„… O desenvolvimento da teoria atômica… primeiro nos deu um reconhecimento de leis que não podem ser incluídas no quadro formado por nossos modos de percepção habituais; as lições que aprendemos com a descoberta do quantum de ação nos abrem novas perspectivas que talvez possam ter uma importância decisiva, particularmente na discussão da posição dos organismos vivos em nossa imagem do mundo. [24] Nils Bohr, 1929.

 

No British Ilse, o Clube de Biologia Teórica de Camebridge foi fundado em 1932 e os membros dedicaram suas reuniões ao esforço de nada menos do que resolver o "Grande Problema" - se a vida poderia ser explicada por meio de ações de átomos e moléculas. Agora existem evidências sólidas de coerência quântica na fotossíntese e tunelamento quântico na enzima.

80.jpg

Leia mais no artigo da Royal Society:

 

https://royalsocietypublishing.org/doi/10.1098/rspa.2018.0674

 

RSF em Perspectiva: Nossa solução para a catástrofe a vácuo une uma divisão de 122 ordens de magnitude entre a atual Nuclear e Astrofísica. No meio, a vida acontece com uma complexidade incrível. Estamos convencidos de que muitos processos fisiológicos envolvem física de alta energia, como a ATP-sintase giratória na superfície interna de nossas mitocôndrias. Nossas experiências com plantas sugerem que o ressonador de fluxo holográfico e a tecnologia de ressonância avançada têm uma influência positiva na vitalidade das plantas. Explicar como, com a teoria de Nassim Haramein aplicada, será nosso empreendimento futuro.

A tecnologia baseada em ressonância pode fornecer redução de massa inercial

81.jpg

20 Mai 2019

Por William Brown, biofísico da Resonance Science Foundation

Pesquisador da Marinha dos EUA obtém patentes para dispositivos de redução de massa inercial, gerador de ondas de gravidade e supercondutor de temperatura ambiente.

Em posts anteriores, relatamos o desenvolvimento de um novo dispositivo de propulsão que não requer a emissão de propulsor nem a combustão de compostos químicos. Em vez disso, o dispositivo usa ressonância eletromagnética para criar impulso emitindo microondas em uma cavidade ressonante, dando a ele o apelido de EMdrive - EM para eletromagnético, além de uma brincadeira com a palavra "unidade impossível", devido à singularidade dessa forma de geração de impulso, e a falta de compreensão de como exatamente o impulso seria produzido a partir dessa tecnologia, muitos cientistas consideram impossível.

Apesar do forte ceticismo e controvérsia em relação aos fundamentos teóricos da tecnologia, testes empíricos reais realizados na Universidade Politécnica do Noroeste, na Faculdade de Aeronáutica e no laboratório de propulsão avançada Eagleworks da NASA mostraram uma produção anormal de impulso do inversor.

Sem dúvida, as perspectivas para esse tipo de sistema de propulsão inovador inspiraram os pesquisadores a desenvolver ainda mais a tecnologia. Recentemente, Salvatore Cezar Pais, pesquisador da Marinha dos EUA, recebeu uma patente nos EUA para um dispositivo baseado em tecnologia de ressonância de microondas semelhante ao EMdrive. Pais alega na patente que o dispositivo resulta em redução de massa inercial devido à interação com a estrutura quântica de vácuo.

O Pais possui outras duas patentes surpreendentes, um supercondutor de temperatura ambiente induzida por piezoeletricidade e um gerador de ondas de gravidade de alta frequência. Se alguma das três patentes produzir dispositivos funcionais, isso representará uma incrível inovação tecnológica, além de um grande avanço no nosso entendimento da física.

“Tudo o que nos rodeia, inclusive nós mesmos, pode ser descrito como coleções macroscópicas de flutuações, vibrações e oscilações nos campos da mecânica quântica. A matéria é energia confinada, ligada a campos, congelada em um quantum de tempo. Portanto, sob certas condições (como o acoplamento do giro axial de hiper-frequência com vibrações de alta frequência de sistemas eletricamente carregados). As regras e os efeitos especiais do comportamento do campo quântico também se aplicam a entidades físicas macroscópicas (fenômenos quânticos macroscópicos). ” –Salvatore Cezar Pais

RSF em perspectiva:

Não poderemos viajar para as estrelas usando motores de combustão química. De fato, o trânsito interplanetário dentro de nosso sistema solar local é impraticável utilizando a combustão química. Mesmo a altura da tecnologia de explosão, a propulsão externa por pulso nuclear, detalhada no Projeto Orion, levaria 44 anos viajando em sua velocidade máxima (0,1 c) para alcançar o sistema estelar mais próximo do nosso. As razões para se tornar uma civilização interestelar são inúmeras e um pré-requisito para a sobrevivência a longo prazo da humanidade. Além disso, a mesma tecnologia que nos levaria às estrelas nos permitiria viajar na superfície da Terra sem produzir poluentes que alteram a atmosfera e o ambiente, permitir os meios para capturar e seqüestrar de maneira viável os gases de efeito estufa e a capacidade para desviar asteróides e meteoroides potencialmente devastadores. Como tal, uma tecnologia com o menor potencial para oferecer novos meios de propulsão e produção de energia deve ser explorada com seriedade, mesmo que a teoria da física atual diga que é "impossível".

O que é um elétron?

82.jpg

30 Mai 2019

Dr. Amira Val Baker, Astrofísico da Fundação da Ciência da Ressonância

Todo mundo sabe o que é um elétron - certo? Surpreendentemente, a resposta para isso é não - ninguém realmente sabe o que é.

Se você perguntar a qualquer estudante do ensino médio o que é um elétron, ele provavelmente lhe dirá que é uma partícula subatômica com carga negativa e atua como a principal transportadora de eletricidade. Esta resposta é realmente correta - no entanto, não revela a verdadeira natureza de sua realidade.

Essa questão fundamental tem sido a força motriz de grande parte da física moderna - e acabou levando ao desenvolvimento da teoria quântica de campos - e ainda não estamos mais perto de encontrar uma resposta

83.jpg

Para responder a essa pergunta, você pensaria que o primeiro passo seria observá-la. No entanto, isso é mais fácil dizer do que fazer. Os elétrons são simplesmente pequenos demais para serem observados - a menor coisa que podemos observar é um átomo e mesmo isso não acontece com um microscópio tradicional. De fato, usamos elétrons para observar átomos. Esse método de observação funciona usando um feixe de elétrons acelerados como fonte de iluminação - permitindo observar objetos um milhão de vezes menor que um cabelo humano (~ 0,1 nm), o suficiente para "visualizar" átomos individuais.

84.jpg

Portanto, não podemos observar um elétron, mas podemos observar seu comportamento, mais especificamente sua energia. Atualmente, isso é feito com armadilhas de Penning - um dispositivo especial desenvolvido na década de 1970 com o objetivo de reter partículas por longos períodos de tempo, para que medições precisas possam ser feitas. A armadilha de Penning funciona aplicando uma superposição de um forte campo magnético homogêneo, fornecendo confinamento radial e um campo quadrupolo eletrostático fraco, fornecendo confinamento axial.

A frequência do ciclotrão - que é a frequência do movimento circular da partícula carregada perpendicular ao campo magnético - é proporcional à razão carga / massa. Os íons da mesma razão carga / massa sofrerão a mesma quantidade de deflexão. Se medirmos a quantidade de deflexão experimentada na armadilha de Penning e compará-la com a quantidade de experiência de deflexão por um íon de massa bem definida, por exemplo, carbono-12, então a massa da partícula desconhecida pode ser determinada.

O que é importante notar é que, quando fazemos essa medição da energia, estamos de fato fazendo uma medição de um único íon (isto é, um elétron em torno de um núcleo central) - e não um único elétron.

Então, se não conseguimos ver o elétron, como o descobrimos?

85.jpg

O elétron foi descoberto em 1879 por J. J. Thompson quando ele estava investigando o brilho observado em uma tela fosforescente quando uma alta tensão é aplicada através de dois eletrodos em um tubo parcialmente evacuado - um tubo de raios catódicos. Esses 'raios' ou 'feixes de partículas' são conhecidos como raios catódicos, pois são originários do cátodo.

Para investigar suas propriedades, foram aplicados campos magnéticos e elétricos transversais e, em cada caso, resultaram na deflexão do raio catódico em direção ao positivo e longe do negativo, indicando que eles são de carga negativa. Experiências posteriores permitiram que Thompson determinasse a razão massa / carga das partículas dos raios catódicos, que eram muito menores do que as de qualquer átomo conhecido. Thompson também ficou intrigado com a questão de saber se o cátodo era a fonte das partículas e, assim, mudou o material e descobriu que as propriedades do raio do cátodo permaneciam constantes, independentemente do material do cátodo de origem. De todas essas experiências, Thomson concluiu que o elétron era uma partícula que compunha toda a matéria e encerrou a idéia de que o átomo era a menor partícula. Em vez disso, o átomo era composto dessas partículas subatômicas, que ele chamava de corpúsculos, e agora são chamadas de elétrons.

Vários modelos foram apresentados explicando essa nova compreensão do átomo.

86.jpg

O primeiro foi proposto pelo próprio Thompson, que ele derivou da observação de que os elétrons estão carregados negativamente e, portanto, para formar um átomo neutro, deve haver uma fonte de carga positiva para equilibrar os elétrons. Ele sugeriu, assim, que um átomo é composto de elétrons cercados por uma sopa de carga positiva. Isso ficou conhecido como modelo de pudim de ameixa, com as ameixas carregadas negativamente cercadas por pudim carregado positivamente.

87.jpg

No entanto, o modelo de pudim de ameixa foi descoberto mais tarde quando Ernest Rutherford realizou suas famosas experiências com folhas de ouro, juntamente com Geiger e Marsden, nas quais bombardeou uma fina folha de ouro com partículas alfa (carregadas com ve) e descobriu que a maioria das as partículas passaram através da folha e apenas uma pequena porcentagem das partículas foi desviada. Rutherford concluiu assim que a massa de um átomo estava concentrada em seu centro e, assim, propôs um modelo com um núcleo central positivo cercado por elétrons carregados negativamente.

88.jpg

Este modelo foi desenvolvido com a ajuda de Niels Bohr, mas em vez de os elétrons serem distribuídos aleatoriamente, ele propôs que eles existissem em orbitais - orbitando o núcleo positivo central análogo aos planetas que orbitam um núcleo / estrela central. Nesta imagem, os elétrons são considerados fontes estendidas, como bolas de 'bilhar' ou 'planetas', ocupando um nível de energia discreto - ou orbital.

 

Agora, com qualquer modelo, poderemos explicar o que estamos observando. Então, quando uma análise espectral do hidrogênio foi feita - ou seja, quando a luz emitida por um gás de hidrogênio passa e é refratada por um prisma - são observadas linhas de emissão discretas. No modelo de Bohr, essas linhas de emissão são explicadas pela transição de elétrons entre os orbitais - portanto, quando a energia da luz é absorvida pelo elétron, ela transita para um nível de energia mais alto - esse nível de energia mais alto é excitado e, portanto, não é tão estável; relaxa de volta a um estado estável, emite um fóton quando cai para um nível de energia mais baixo - e é esse fóton emitido que é observado.

 

No entanto, o modelo de Bohr só foi capaz de explicar os espectros de emissão de hidrogênio ou outros átomos de elétrons como o hélio ionizado. Para átomos multielétrons, a análise espectral mostrou muito mais linhas de emissão discretas que não puderam ser explicadas pelo modelo de Bohr.

89.jpg

É aí que o modelo quântico assume, que, em vez de explicar o elétron como fontes estendidas em órbitas discretas, trata o elétron e o pósitron como partículas pontuais sem estrutura interna. Ao contrário do modelo de Bohr, os elétrons não existem em órbitas definidas com precisão e, em vez disso, tudo o que se sabe sobre essas partículas pontuais é sua provável distribuição em torno do átomo - geralmente chamada de nuvem de elétrons. O modelo de nuvem de elétrons foi desenvolvido em 1926 por Erwin Schrödinger e Werner Heisenberg e pode ser explicado em termos de uma onda de probabilidade - especificamente a equação da onda de Schrodinger - onde os estados ou 'orbitais' que um elétron pode ocupar em um átomo são análogos aos de uma onda parada.

 

No modelo quântico, esses estados ou orbitais dependem de um conjunto de números quânticos, por exemplo, o número quântico principal n, o número de momento angular l, o número magnético m e o número de spin s. As diferentes formas e tamanhos dessas distribuições de probabilidade / orbitais podem ser mais exploradas aqui.

São esses diferentes números quânticos que definem a posição e o momento em termos de uma nuvem de probabilidade e descrevem as linhas de emissão que não foram contabilizadas no modelo de Bohr. Também o modelo quântico foi estendido para explicar as linhas de emissão que ocorrem devido a um campo magnético externo e / ou devido a interações com o vácuo quântico.

 

No entanto, embora esse modelo seja muito bem-sucedido e possa explicar o que o modelo de Bohr não pode - ele ainda não explica o elétron e de onde sua massa se forma.

 

De fato, em ambos os modelos, a massa não é derivada dos primeiros princípios e, em vez disso, é conhecida apenas empiricamente.

 

A definição padrão para a massa do elétron é, portanto, geralmente dada em termos da constante de Rydberg (uma constante que relaciona as linhas de emissão com a energia).

90.jpg

Então, como revelamos a natureza ou estrutura de um elétron?

Para uma imagem mais clara do elétron surgir, talvez seja a hora de olhar para uma quantização visão do universo, do muito pequeno ao muito grande. O modelo holográfico generalizado introduzido por Nassim Haramein oferece essa visão - e é tudo sobre essas unidades de Planck - definindo o bit de informação quantizada fundamental, ou voxel, do universo.

Nesse modelo, que expande o trabalho dos físicos David Bohm, Jacob Bekenstein, Stephen Hawking e Gerard 't Hooft, a energia - ou informação - de qualquer sistema esférico é proporcional ao número de unidades esféricas de Planck (PSUs) ou voxels dentro o volume esférico (entropia de volume) e o número de voxels disponíveis no horizonte superficial esférico (entropia de superfície). Essa relação holográfica entre o interior e o exterior define a densidade de energia e massa do sistema, enquanto o inverso define a massa expressa pelo sistema a qualquer momento - ou conforme descrito por David Bohm, o desdobrado e o envolvido, respectivamente.

72.jpg

A questão é - essa abordagem pode ser estendida ao elétron? O primeiro passo para responder a essa pergunta é considerar a extensão espacial do elétron e o volume de informações que ele contém. No entanto, a extensão espacial do elétron não foi definida conclusivamente - então, qual raio usamos?

 

A abordagem holográfica generalizada vê a massa emergindo da estrutura granular da escala de Planck do espaço-tempo em termos de um potencial de transferência de informações de superfície para volume, que diminui com o aumento do raio. Portanto, se começarmos com a premissa de que uma nuvem de elétrons pode ser considerada como um campo coerente de informações 'elétrons', em vez de pensar no elétron como um sistema separado, o elétron pode ser pensado como uma nuvem de energia potencial que se estende espacialmente de o próton até o raio em que o volume encerra a nuvem de elétrons de um átomo de hidrogênio Bohr.

 

Quando utilizamos essa abordagem, encontramos uma solução de massa de elétrons em termos da relação superfície-volume holográfico - o potencial de transferência - e uma massa equivalente à massa medida experimentalmente do elétron.

91_edited.jpg

Uma imagem é desenvolvida na qual a estrutura do átomo de Bohr e a carga e a massa do próton e do elétron são consequências da dinâmica do spin no comportamento de co-movimentação da estrutura granular da escala de Planck no espaço-tempo. Portanto, agora temos um modelo físico que nos dá uma compreensão mais profunda da natureza do elétron e fornece a massa correta!

Também, quando estendemos esse modelo para raios sucessivamente menores - raios atômicos - encontramos a massa para o número total de elétrons em cada elemento.

92.jpg

A solução fornece uma visão clara da estrutura de todos os átomos da tabela de elementos, em termos de nuvem de elétrons composta por flutuações quânticas de vácuo na escala de Planck. Como resultado, uma elucidação da fonte da constante da estrutura fina, da constante de Rydberg e da razão de massa próton-elétron é determinada em termos de energia de vácuo.

Assim, a partir da estrutura granular da escala de Planck do espaço-tempo, a abordagem holográfica generalizada nos fornece a massa de um buraco negro, a massa do próton e agora a massa do elétron.

Quinto estado da matéria confirmado!

93.jpg

Por Dr. Inés Urdaneta, Pesquisador da Resonance Science Foundation

Estamos familiarizados com os quatro estados da matéria reconhecidos até agora: sólido, líquido, gás e plasma. Quem imaginaria um quinto estado da matéria, contendo simultaneamente dois estados? Dentro da diversidade de formas de cristalização ou fases da água, do líquido ao gelo sólido (mais de dezessete estruturas cristalinas e diversas estruturas de gelo amorfo), surgiu uma nova: cristal de oxigênio iônico com hidrogênio iônico (principalmente prótons) se movendo para dentro, como um fluido. Foi nomeado gelo XVIII e é uma nova fase da água (porque depende da temperatura e pressão aplicadas) e um novo estado da matéria (porque reúne um sólido e um fluido).

Os cristais são formados por átomos ionizados, de modo que as forças eletrostáticas entre cátions e íons mantêm a rede sólida. O cristal de sal comum possui ânions de Cloro (Cl-) e cátions de sódio (Na +), está em estado sólido à temperatura ambiente, mas o cristal superiônico da água sintetizada recentemente requer pressão e temperatura extremamente altas para se formar, como primeiro ionizar seus átomos - quebrando as moléculas de água -. Em todas as outras formas de cristalização da água gelada, as moléculas permanecem; o gelo se forma precisamente por causa das temperaturas frias que congelam o sistema. Mas nessas experiências superiônicas, a alta temperatura (acima de 2000 kelvin) freia as moléculas de água e a alta pressão (acima de 100 gigapascais) densifica o sistema.

É de se perguntar que cenário natural poderia hospedar tal extravagância. Aparentemente, um cenário perfeito para isso pode ser encontrado em gigantes do gelo como Urano e Netuno, que são compostos principalmente por água gelada (pelo menos 65%). De fato, o gelo superiônico sob pressão e temperatura extremas é relevante como uma explicação para seu núcleo, onde são esperadas condições extremas. Seus núcleos devem ter uma particularidade, dados os exóticos campos magnéticos que emanam desses gigantes do gelo, em comparação com os planetas restantes dos sistemas solares que têm um campo magnético praticamente alinhado com o machado de rotação e com uma forma mais simples, sugerindo um fluido condutor região no núcleo que roda, permitindo a emanação de campos magnéticos maciços.

Os campos magnéticos de Netuno e Urano se comportam de maneira diferente, e isso poderia ser explicado se o fluido condutor responsável pelo "efeito dínamo" estivesse confinado em uma fina camada externa do planeta, em vez de deixá-lo atingir o núcleo. O comportamento exótico do campo magnético poderia ser explicado com este novo estado da matéria.

“Esse gelo superiônico sugerido conduziria eletricidade, como um metal, com os hidrogênios desempenhando o papel usual dos elétrons. Diferentemente do gelo familiar encontrado em seu freezer ou no pólo norte, o gelo superiônico é preto e quente. Um cubo pesaria quatro vezes mais que o normal.

https://www.quantamagazine.org/black-hot-superionic-ice-may-be-natures-most-common-form-of-water-20190508/

Por outro lado, estamos acostumados a entender a condutividade de partículas carregadas elementares, como elétrons que compõem a corrente eletrônica. Quem imaginaria uma corrente de prótons - que não são consideradas partículas elementares por causa de sua estrutura interna adicional -? Embora esse comportamento exótico da água fosse esperado em simulações numéricas há mais de trinta anos, o fato de observá-lo pela primeira vez é de tirar o fôlego, especialmente quando se considera a quantidade de aproximações envolvidas no modelo, uma vez que a complexidade do sistema impedia a química quântica exata cálculos.

Os autores deste trabalho publicado na Nature resumem em seu resumo a experiência:  “Particularmente intrigante é a previsão de que o H2O se torna superiônico - com líquido como prótons se difundindo através da estrutura sólida de oxigênio - quando submetidos a pressões extremas e altas temperaturas. Simulações numéricas sugerem que a difusão característica dos prótons através dos locais vazios da rede sólida de oxigênio (1) gera uma condutividade iônica surpreendentemente alta acima de 100 Siemens por centímetro, ou seja, quase tão alta quanto a condutividade metálica (eletrônica) típica, (2) aumenta consideravelmente a temperatura de derretimento do gelo para vários milhares de kelvin e (3) favorece novas estruturas de gelo com uma rede de oxigênio compactada. "

Essa descoberta, reunindo uma diversidade de tópicos, abordou simultaneamente todas as escalas, da atômica à cosmológica, conectadas em um único fio, assim como a teoria unificada proposta por Nassim Haramein.

Molécula Desaparecida Finalmente Descoberta

94.jpg

11 Jun 2019

Dr. Amira Val Baker, Astrofísico da Fundação da Ciência da Ressonância

A evolução da primeira molécula para a química complexa que existe em nosso universo hoje está agora um passo mais perto de ser entendida.

Quando pensamos em química complexa, geralmente pensamos em toda a matéria que existe em nosso planeta, que em nossa atmosfera é de 10 trilhões de trilhões de moléculas por metro cúbico. À medida que nos afastamos do nosso planeta, isso diminui exponencialmente. No entanto, por mais surpreendente que seja, o espaço espacial - como as regiões interestelar e intergalática - hospeda uma infinidade de moléculas. Embora não nas mesmas densidades altas.

Como essas moléculas se formaram e se tornaram a química complexa que vemos hoje ainda precisa ser totalmente compreendida. Atualmente, concorda-se que o universo primitivo consistisse em apenas alguns tipos de átomos e não foi até a idade de 100.000 anos que o hidrogênio e o hélio se combinaram para formar a primeira molécula - o hidreto de hélio. No entanto, embora teorizado para existir, nunca foi detectado. Isso foi até que uma equipe de cientistas do Centro de Ciências SOFIA da NASA (Observatório Estratosférico de Astronomia Infravermelha) observou sua assinatura - em nossa própria galáxia.

Anteriormente, os cientistas conseguiam combinar com sucesso o hélio e o hidrogênio iônico para criar hidreto de hélio em laboratório. Eles então especularam que plasmas astrofísicos, como os encontrados nas nebulosas planetárias - uma camada de poeira em expansão que foi ejetada de sua estrela hospedeira quando fica sem combustível - forneceram o ambiente perfeito para a formação do hidreto de hélio. A jovem e densa nebulosa planetária, NGC 7027, localizada a cerca de 3.000 anos-luz da Terra na constelação de Cygnus, parecia o candidato perfeito. No entanto, os instrumentos da época não eram suficientes para distinguir seu sinal e as observações eram, portanto, inconclusivas.

Finalmente, em 2016, utilizando o maior observatório aéreo SOFIA do mundo, os cientistas puderam observar o NGC 7027 acima das camadas interferentes da atmosfera da Terra e distinguir claramente a assinatura indescritível do hidreto de hélio.

RSF - em perspectiva

Na perspectiva unificada, tudo está interconectado, e a evolução é uma conseqüência natural resultante da dinâmica do feedback das informações no espaço-tempo - ou na memória espacial. Leia mais aqui. Essa visão vê um mundo em que as formas assumem formas e padrões familiares são repetidos em várias escalas. Observações que confirmam a primeira molécula que levou ao hidrogênio molecular e a química complexa que observamos hoje adicionam insights sobre a dinâmica de feedback que dá origem a esses padrões fundamentais.

Por: Dr. Amira Val Baker, pesquisadora da RSF

Uma galáxia minúscula com um coração grande!

95.jpg

17 Jun2019

por Inés Urdaneta, cientista pesquisador da Resonance Science Foundation

Foto: Imagem do Hubble representando a galáxia ESO 495-21 no centro. Da NASA / ESA

 

A evolução de nossa compreensão dos Buracos Negros (BH) passou do resultado matemático sem contrapartida física, até a detecção no centro de várias galáxias e a visualização de suas sombras através da imagem reconstruída apresentada pela primeira vez há apenas alguns meses. pela iniciativa global EHT (https://resonancefdn.oldrsf.com/the-first-image-of-a-black-hole-is-finally-here/). Agora, pensa-se que toda galáxia hospeda uma BH em seu núcleo. Quando os primeiros BHs foram inferidos a partir de observações cosmológicas, acreditávamos que eles eram um comportamento excepcional extravagante no universo. Desde então, eles se mostraram não tão excepcionais quanto são detectados com maior frequência, mas continuam sendo uma extravagância, e não pelas mesmas razões.

 

O ESO 495-21 é uma galáxia com apenas 3.000 anos-luz de diâmetro, muito pequena em comparação com os quase 53.000 da nossa Via Láctea. Localizado a 30 milhões de anos-luz de distância na constelação de Pyxis, apresenta duas características contrastantes em relação à nossa galáxia; forma um grande número de estrelas e abriga uma enorme BH em seu centro, muito maior do que o que seria esperado pelo seu tamanho galáctico.

 

As galáxias que formam estrelas com taxas excepcionalmente altas - berçários estrelados - criam recém-nascidos estelares até 1000 vezes mais rápidos que a nossa galáxia e são chamados de galáxias Starburst. O ESO 495-21 é uma galáxia anã de explosão estelar porque é pequena em tamanho. Normalmente, esperaríamos que quanto maior a galáxia mais massiva a BH em seu centro. Se nossa galáxia hospedar Sagitário A *, um BH supermassivo com mais de quatro milhões de vezes a massa do nosso Sol, seria de esperar que Henize 2-10 - o BH no centro do ESO - seja muito menor. Mas, a segunda observação intrigante é que a galáxia ESO 495-21 - um tamanho de 3% da nossa galáxia - hospeda uma BH supermassiva em seu núcleo, milhões de vezes mais massiva que o Sol também!

 

Esse cenário extremamente incomum levanta questões sobre nossos modelos astrofísicos atuais e a relação entre buracos negros, galáxias e o universo. Essa descoberta é uma forte indicação de que os buracos negros podem ter surgido primeiro e que as galáxias se formam e evoluem ao seu redor. A questão é como?

 

as galáxias formam primeiro e depois esmagam o material em seus centros em buracos negros, ou os buracos negros pré-existentes reúnem galáxias ao seu redor? Eles evoluem juntos - ou a resposta poderia ser algo completamente diferente?

- Centro de Informações da ESA / Hubble

 

A NASA / ESA estudou as explosões de atividades e explorou as regiões muito densas com alguns milhões de anos de idade no ESO 495-21, e os dados que compõem as imagens foram coletados pelo Telescópio Espacial Hubble com a câmera avançada para pesquisas e a Câmera Planetária de Campo Largo 2)

 

RSF em perspectiva:

 

Esta descoberta é uma forte indicação de que os Buracos Negros vieram primeiro, então resta uma pergunta ... como uma galáxia pode se formar e evoluir em torno dela, se acreditamos que os BHs devoram monstros? A teoria unificada desenvolvida por Nassim Haramein descobre que os BHs não apenas vieram primeiro, mas também são os responsáveis ​​pela matéria e pela formação de galáxias posteriores, como ele afirma há mais de 25 anos. Felizmente, as observações astronômicas não apenas foram incapazes de descartar suas descobertas e, pelo contrário, apontam na mesma direção. Nesse sentido, poderíamos literalmente dizer que a BH no núcleo é o coração pulsante da galáxia.

Buracos Negros ... Sóis Negros?

96.jpg

27 Jun 2019

por Inés Urdaneta, cientista pesquisador da Resonance Science Foundation

 

Imagem da ESA

 

As estrelas eram consideradas o componente principal e mais importante para a vida prosperar ... até agora. Pesquisadores da Universidade de Harvard explicam que a radiação vinda dos buracos negros pode fazer o mesmo!

 

As zonas habitáveis ​​no espaço sideral foram definidas com relação às estrelas (sóis), como regiões onde a radiação e a energia das estrelas são adequadas para o surgimento da vida. Mais perto ou mais longe dessa fonte de energia, a temperatura seria muito fria ou muito quente para que a água líquida existisse na superfície do planeta. As zonas onde a água é líquida e a oportunidade biológica podem ocorrer são conhecidas como “zona Cachinhos Dourados”.

 

Um novo estudo publicado no The Astrophysical Journal descobriu essas zonas ao redor de buracos negros supermassivos também. Isso é bastante surpreendente, já que o ambiente de um buraco negro, constituído por discos de gás e poeira chamados Núcleos Galácticos Ativos - AGN-, emitem enormes quantidades de radiação (principalmente raios-x, gama e luz ultravioleta) que podem destruir planetas próximos. ´ atmosferas, criando uma zona morta ao redor da BH.

 

Após simulações numéricas usando programas que modelam AGNs, os pesquisadores foram capazes de identificar essas regiões ao redor das BHs e concluíram que o regime de destruição estava superestimado. Por exemplo, a zona danificadora está localizada a 100 anos-luz de distância, uma distância muito menor do que os 3.200 anos-luz previstos por estudos anteriores para o supermassivo BH- de Sagitário A * - Via Láctea. Enquanto isso, sua região de Goldilocks se estende por 140 anos-luz a partir do centro do buraco negro.

 

Sendo a distância perigosa da região AGN mais estreita que a extensão total da zona AGN, se colocada dentro da região AGN restante, a atmosfera de um planeta pode permanecer intacta enquanto, ao mesmo tempo, a radiação dos núcleos ativos pode quebrar moléculas para criar os blocos de construção biológicos que são lipídios, proteínas e DNA. Para uma galáxia como a nossa, a região de fotossíntese movida a AGN se estenderia até 1.100 anos-luz a partir do centro da galáxia. Ao mesmo tempo, a luz que emana do AGN poderia facilitar a fotossíntese, um fato particularmente importante para os planetas flutuantes que se acredita não terem nenhuma fonte de energia luminosa ao seu redor.

 

"Os astrônomos estimaram que poderia haver cerca de 1 bilhão de planetas desonestos à deriva na zona dos Cachinhos Dourados de uma galáxia semelhante à Via Láctea" de acordo com Manasvi.

 

Em relação aos efeitos prejudiciais da radiação ultravioleta e de raios X nessas zonas, os cientistas afirmam que as bactérias da Terra criaram biofilmes para se protegerem dos raios ultravioletas, e que os raios X e raios gama também são facilmente absorvidos pelas atmosferas semelhantes à Terra. , reduzindo consideravelmente seu impacto.

 

RSF em perspectiva:

 

Assim como a recém descoberta zona de anéis dourados da AGN, o astrofísico já havia reavaliado e ampliado a zona de habitabilidade devido a estrelas tipo M. O aumento da habitabilidade continua crescendo, o que implica uma probabilidade exponencial de vida no espaço sideral e, portanto, uma alta probabilidade de vida inteligente. Provavelmente não estamos sozinhos na galáxia. Por outro lado, se os buracos negros estão tão diretamente relacionados aos sóis, a outra direção não se aplica? Sóis não se comportariam ou seriam buracos brancos?

Pesquisadores de bioengenharia descobrem novo tipo de comunicação celular

97.jpg

15 Jul 2019

por William Brown, biofísico da Resonance Science Foundation

Comunicação intercelular coletiva através de ondas-gatilho hidrodinâmicas ultra-rápidas:

Pesquisadores que estudam um dos maiores organismos unicelulares - Spirostomum ambiguum - que pode crescer até 4 mm (um organismo unicelular observável a olho nu) descobriram que também é uma das células mais rápidas já documentadas. O protista gigantesco pode contrair seu corpo comprido em 60% em milissegundos, experimentando uma força de aceleração de até 14g.

98.jpg

O comportamento contrátil protege o organismo unicelular dos possíveis predadores, pois pequenos vacúolos ao longo da membrana celular que contêm toxinas são dispersos quando submetidos às forças g extremas da contração. Notavelmente, os pesquisadores descobriram que as contrações também geram fluxos de vórtice de longo alcance que funcionam como sinais hidrodinâmicos para outros Spirostomum.

Essa é a primeira vez que a sinalização celular hidrodinâmica foi documentada e abre a porta para investigar outros casos em que as células estão se comunicando através de sinais hidrodinâmicos vorticulares de longo alcance.

RSF - em perspectiva:

RSF - em perspectiva: os componentes subcelulares que permitem esse movimento contrátil incrivelmente rápido são microtúbulos. Microtúbulos são uma faceta central das teorias atuais da consciência quântica e processamento de informações celulares, produzindo memória e comportamento inteligente.

Como tal, talvez não seja tão surpreendente que o comportamento inteligente e a comunicação via sinalização hidrodinâmica da contração rápida por esse organismo unicelular envolvam microtúbulos.

99.jpg

Dentro do misterioso elétron

100.jpg

19 Jul 2019

por Resonance Science Foundation

Por mais surpreendente que possa parecer, ninguém sabe realmente o que é um elétron. Para responder à pergunta “O que é um elétron?”, Você pensaria que o primeiro passo seria observá-lo. No entanto, isso é mais fácil dizer do que fazer. Portanto, embora não possamos observar um elétron, podemos observar seu comportamento - mais especificamente sua energia.

Artigo completo do Dr. Amira Val Baker, cientista da RSF Research em eletrônica popular:

https://popularelectronics.technicacuriosa.com/2019/07/29/inside-the-mysterious-electron/

Dentro do misterioso elétron

Por Amira Val Baker

As interações entre correntes elétricas e ímãs são descritas pelas equações de Maxwell, que, desde sua derivação no século 19, estabeleceram a base para todos os fenômenos eletrodinâmicos. No entanto, nossa compreensão do eletromagnetismo permanece limitada pela nossa compreensão do elétron.

Por mais surpreendente que possa parecer, ninguém sabe realmente o que é um elétron. E é esse mistério fundamental que tem sido a força motriz de grande parte da física moderna e o que acabou levando ao desenvolvimento da teoria quântica de campos.

Para responder à pergunta “O que é um elétron?”, Você pensaria que o primeiro passo seria observá-lo. No entanto, isso é mais fácil dizer do que fazer. Os elétrons são simplesmente pequenos demais para serem observados - a menor coisa que podemos observar é um átomo, e mesmo isso não pode ser observado com um microscópio tradicional.

Portanto, embora não possamos observar um elétron, podemos observar seu comportamento - mais especificamente sua energia. Atualmente, isso é feito com armadilhas de Penning - um dispositivo especial desenvolvido na década de 1970 com o objetivo de reter partículas por longos períodos de tempo, para que medições precisas possam ser feitas.

Armadilha Penning