Ознакомительная версия. Доступно 12 страниц из 60
Бо́льшая часть тепло-горячих межгалактических сред состоит из водорода; кислород и другие тяжелые элементы, задействованные в работе линии поглощения, – просто следовые загрязнения. Единственное место, где могли возникнуть эти тяжелые микроэлементы, – внутри звезд. Таким образом, эти «загрязнители», должно быть, каким-то образом «сбежали» из галактик, в которых они были сформированы, и теперь находятся в этих тепло-горячих межгалактических средах. Это еще одно доказательство циркуляции газа внутри галактик и за их пределами – барионного цикла. Но как насчет большей части тепло-горячих межгалактических сред: как они туда попали? Ответ на этот вопрос лучше всего моделируется в компьютерных симуляциях – мощных инструментах, необходимых для развития нашего понимания Вселенной и ее содержания.
Игрушечная Вселенная
В наше время астрономы часто пользуются компьютерами. В моих исследованиях бо́льшая часть работы связана с анализом данных телескопов. Из «сырых» изображений неба мы стремимся создать откалиброванный продукт из данных научного уровня (скажем, глубокое изображение или спектр), а затем собрать его для получения интересной информации. Необходимая для этого обработка опирается на все более мощное программное обеспечение, поскольку объем данных, создаваемых телескопами, постоянно растет, и требуются более вместительные средства хранения цифровой информации, большая вычислительная мощность и оперативная память. С другой стороны, для теоретиков наиболее важной в использовании компьютеров становится возможность создания симуляции работы Вселенной или, по крайней мере, ее приличного фрагмента. Как и наблюдатели, работающие с телескопами, создающие симуляции теоретики ограничены возможностями программного обеспечения. Всегда есть потребность в более быстрых машинах, большей памяти и большем количестве процессоров, и чтобы все это стоило как можно дешевле. Как и наблюдатели, стремящиеся видеть дальше и яснее, теоретики всегда стараются создать симуляции лучшего качества и с самым высоким разрешением.
Возможно, наиболее важные типы имитации крупномасштабных свойств Вселенной, которые мы имеем, – симуляции N-тела, где N – это количество частиц. Самая простая симуляция N-тела называется проблемой двух тел, которую можно сделать на листе бумаги. Нарисуйте сетку из линий – это ваша модель Вселенной, ограниченная двумя измерениями. Пронумеруйте ячейки, а затем выберите две случайные и нарисуйте в них точку – это два тела из проблемы двух тел. Мы пометим их как A и B. Что мы собираемся сделать? Смоделировать их эволюцию исходя из того, что они подчиняются законам физики. В этом случае мы просто учтем гравитацию.
Представим простейший случай, когда частицы А и В изначально находятся в состоянии покоя и каждая имеет единичную массу. Если мы предположим, что гравитация может быть описана в определениях Ньютона (классический взгляд), тогда каждая частица испытывает силу, которая равна ее массе, умноженной на постоянный фактор (называемый G – универсальная гравитационная постоянная; точные ее цифры в этой модели значения не имеют) и разделенной на квадрат расстояния между частицами. Каждая частица испытывает воздействие этой силы и вынуждена двигаться, потому что сила вызывает ускорение в направлении другой частицы; величина ускорения равна силе гравитации, разделенной на массу частицы (один из законов движения Ньютона).
Далее возьмем еще один листок, перерисуем сетку и затем вычислим местоположение этих частиц, предполагая, что прошел некоторый интервал времени. Мы можем сделать этот интервал настолько длинным или коротким, насколько захотим, но чем он короче, тем точнее мы можем отслеживать положение частиц. Затем мы повторяем процесс: вычисляем силу для каждой частицы, ускорение, добавляем это к текущей скорости каждой частицы и т. д. В этом примере результаты скучны: две частицы просто притягиваются друг к другу и, следовательно, ускоряются навстречу друг другу, что приводит к установившемуся состоянию, когда частицы оказываются сцепленными между собой – наше моделирование ничего не знает о физике столкновений между частицами.
Все становится значительно интереснее, когда мы добавляем другую частицу – теперь мы имеем дело с проблемой трех тел. Поскольку гравитация действует на все объекты с массой, мы должны рассчитать общую силу для каждой тестовой частицы, заданную векторной суммой гравитационной силы между каждой парой: A – B, A – C, B – A, B – C, C – A и C – B. И внезапно это стало немного сложнее с точки зрения количества вычислений, которые нам нужно сделать для предсказания эволюции системы. Теперь вместо того чтобы работать в двух измерениях, давайте рассмотрим все то же самое в трех. И вместо трех тестовых частиц будем использовать миллионы. Именно здесь нам и понадобятся суперкомпьютеры.
Космологические симуляции N-тела не направлены на моделирование эволюции каждой частицы во Вселенной. Вместо этого отдельная частица может представлять довольно большой кусок массы, и если ваша цель состоит в моделировании эволюции крупномасштабной структуры Вселенной, то такое грубое «разрешение» вполне уместно: оно позволяет замаскировать тонкие структурные детали, скажем, отдельной галактики или солнечной системы. Если вы действительно хотите смоделировать в мельчайших деталях что-то похожее на отдельную галактику, то с эквивалентным количеством частиц это сделать можно, но ценой отказа от имитации остальной части Вселенной, потому что теперь вы должны работать с гораздо меньшим объемом. Общее число частиц, которые могут быть смоделированы, зависит от мощности компьютера: для эффективного расчета сил, действующих на каждую частицу, были разработаны умные алгоритмы, например «древовидные коды» и «метод частиц в ячейках» без использования метода полного перебора (или «грубой силы»).
Одна из самых известных и успешных в последние годы симуляций темной материи в N-теле называется «Моделирование “Миллениум”» – это проект, который реализует международная группа университетов под названием «Консорциум Девы» во главе с Институтом вычислительной космологии Даремского университета в Великобритании и Институтом астрофизики имени Макса Планка в Гархинге (Германия). Многие исследовательские группы проводят собственные симуляции, но проект «Моделирование “Миллениум”» стал одним из самых известных. Цель проекта – моделирование эволюции темной материи на большом участке игрушечной «Вселенной»– коробке размером 500 Мпк – с использованием 10 млрд частиц для представления темной материи, причем масса каждой в 90 млн раз больше массы Солнца. Таким образом, в этом моделировании отдельная галактика может содержать 100 или более частиц. Гало темной материи, которое может находиться в галактике, определяется как сгусток темной материи, в пределах которого плотность превышает некоторое пороговое значение, обычно принимаемое за 200 с лишним единиц от средней плотности Вселенной. Такое разделение на гало – удобный способ описания структуры во Вселенной, по крайней мере в моделируемой Вселенной.
«Моделирование “Миллениум”» было самой большой из когда-либо проводившихся симуляций N-тела. Проект работал почти месяц в режиме реального времени на 512 процессорных ядрах суперкомпьютера IBM, что эквивалентно 350 000 часов или почти четырем годам времени работы процессора. Моделирование использовало 1000 Гб физической памяти, выполнило почти миллиард миллиардов операций с плавающей запятой и собрало 20 Тб данных. Суть проекта – увидеть, как смоделированная Вселенная, состоящая только из темной материи, будет из начальных условий развиваться в соответствии с физикой входных данных, что было нашим лучшим предположением, учитывая параметры модели «Лямбда-CDM». Как формируется структура от почти плавного распределения материи в начале Вселенной до сложной сети в наши дни? Как растут гало темной материи? Каково распределение масс гало темной материи и как оно развивается? Моделирование дает нам способ визуализировать теорию и исследовать ее предсказания так, как мы никогда не сможем, вооружившись лишь ручкой и бумагой.
Ознакомительная версия. Доступно 12 страниц из 60