Título: Dynamic Zoom Simulations: a fast, adaptive algorithm for simulating lightcones
Autores: Enrico Garaldi, Matteo Nori, Marco Baldi
Instituição do primeiro autor: Max Planck Institute for Astrophysics, Garching, Germany
Status: Submetido para publicação no MNRAS
Simulações cosmológicas: ferramentas valorosas, porém dispendiosas
Astronomia extragaláctica e Cosmologia modernas se baseiam em simulações numéricas cosmológicas. Estas simulações recriam o Universo no computador. Matéria é modelada por partículas, tanto matéria escura como bárions, cujas posições iniciais são ajustadas pela radiação cósmica de fundo de micro-ondas. As partículas se movem e interagem de acordo com um modelo cosmológico e equações hidrodinâmicas. Desta forma, teóricos podem testar vários modelos diferentes de processos físicos, tais como a expansão cosmológica e a formação de galáxias. Comparando as previsões das simulações com observações reais, astrônomos podem deduzir quais modelos melhor descrevem o Universo.
Contudo, criar estas simulações tem um custo alto. Elas exigem um tempo computacional e memória significativos. Por exemplo, uma realização da simulação IllustrisTNG precisou de 90 milhões de horas de tempo computacional de CPU, e seu resultado tem 128 TB de tamanho. Para colocar estes números em contexto, um disco rígido de um laptop típico pode armazenar 500 GB. Então, precisaríamos de 256 laptops para armazenar o resultado final desta simulação. Quanto maior o volume simulado, e quanto mais alta for a resolução exigida, mais tempo e memória são necessários para guardar as posições das partículas. É muito caro, portanto, produzir várias simulações diferentes de grande volume a fim de testar muitos modelos, o que será necessário para analisar projetos futuros de grande cobertura celeste como o LSST e Euclid.
Mas não se preocupe: os autores do artigo de hoje têm uma ideia sobre como lidar com este problema. A abordagem deles? Reduzir o “lixo” das simulações cosmológicas.
O desperdício das simulações cosmológicas
Simulações numéricas simulam muitas partículas em posições não observáveis. Considerando o quão caras estas simulações são, isto é um desperdício. Como a luz viaja a uma velocidade finita c, podemos apenas observar uma fonte luminosa emitida em um tempo t se a sua distância até nós for d=c*t. Tal objeto está em nosso cone de luz passado — e podemos inferir informação apenas sobre objetos em nosso cone luz, enquanto objetos fora dele estariam completamente fora de alcance. As simulações, contudo, normalmente calculam e armazenam as propriedades das partículas no volume completo em todas as épocas. Assim, muita da informação não é útil para comparações no mundo real.
A figura 1 ilustra este efeito. O observador pode apenas ver partículas que estão na linha sólida. Se uma partícula situa-se dentro da área cinza, o observador será capaz de vê-la em algum momento. Contudo, se ela está fora desta área, o observador não pode mais observá-la, porque está longe demais. A simulação, de todo modo, ainda calcula o movimento completo de todas as partículas.

Então, se não podemos observar estas partículas fora do cone de luz, por que não descartá-las completamente? Esta abordagem é seguida por alguns códigos de simulações numéricas, por exemplo, na Euclid Flagship Simulation. Porém, esta técnica não é totalmente correta, uma vez que estas partículas fora do cone de luz podem ainda influenciar o movimento daqueles que estão dentro dele. Portanto, descartá-las completamente é algo problemático.
Zoom dinâmico no que realmente queremos simular
Os autores do artigo de hoje seguem uma abordagem diferente. Eles continuam simulando partículas fora do cone de luz, mas eles baixam a resolução por um método chamado “zoom dinâmico”.
Em cada passo, o algoritmo procura por todas as partículas. Se elas estão fora do cone de luz e correspondem a um certo critério de “des-refinamento”, elas são colapsadas com suas partículas vizinhas. O próximo passo computacional utiliza o objeto colapsado com a posição, velocidade e massa média das partículas originais. Quanto mais longe elas estiverem do cone de luz, mais partículas são combinadas e mais baixa é a resolução final. Desta maneira, o volume fora do cone de luz ainda é simulado, porém exige muito menos memória e poder computacional.
A rapidez desta abordagem é impressionante: Comparada a uma simulação padrão, o tempo computacional é reduzido em 50%, e os autores esperam uma rapidez ainda maior para simulações maiores e mais complexas.
Mas os resultados são confiáveis?
Claro, a rapidez deste método de simulacão seria inútil se o resultado final fosse completamente diferente da simulação padrão. Os autores, então, comparam a distribuição de densidade de matéria nas duas simulações.
A figura 2 mostra a distribuição de matéria na simulação padrão e na simulação com o zoom dinâmico, junto com a diferença fracional entre elas. As duas distribuições de matérias são quase idênticas. A diferença na densidade de matéria é menos de 0,15% em todas as posições. Além disto, o número de halos de matérias escuras por massa de halo previstos pela simulação com zoom dinâmico está em acordo com a simulação padrão dentro de 0,02%. Consequentemente, calcular a média das partículas fora do cone de luz não impacta as previsões científicas das simulações e ainda permite acelerar os cálculos enormemente.

Então, resumindo, zoom dinâmico parece uma técnica promissora para simulações futuras do Universo. Ela desperdiça menos informação comparada a uma simulação cosmológica padrão porque apenas partículas observáveis são simuladas em alta resolução, sendo assim mais rápida e exigindo menos de memória computacional. Ao mesmo tempo, suas previsões são acuradas como aquelas das simulações padrão. Consequentemente, esta técnica pode ajudar a criar novas simulações cosmológicas para serem comparadas com missões observacionais!
Adaptado de Speeding up cosmological simulations by zooming on what’s important, escrito por Laila Linke.