Climate Predictions

Steeply

Skynet
Эксперименты с распределёнными вычислениями обречены. Обречены на то, чтобы стать повсеместным явлением, на то, чтобы сделать исключительно ресурсоёмкие вычисления общим и местом... и делом. Пока таких проектов, впрочем, мало. Но полку прибыло: встречайте Climate Predictions.
Если совсем кратко: ClimatePredictions.net — это проект распределённых вычислений по прогнозированию изменений климата Земли.


"Мембрана" уже рассказывала о двух проектах распределённых вычислений. Первый — это наиболее успешный (или, по крайней мере, популярный) из всех ныне существующих — http://www.membrana.ru/articles/technic/20.../12/200200.html — проект по поиску сигналов от разумной внеземной жизни.


Более-менее успешным можно назвать предприятие Google Compute. Благодаря этой программе, поставляющейся вместе с надстройкой для Internet Explorer Google Toolbar, Стэнфордский университет (Stanford University) использует простаивающие без дела компьютеры для вычислений, связанных с моделированием фундаментальных процессов в живых организмах (подробности — здесь).


Наконец, писали мы и про пиринговый поисковик Grub.org, и про его главную проблему: для его эффективной работы требуется большое количество участников. Очень большое.


Вот и у ClimatePredictions та же проблема: нужны вычислительные мощности.


Зачем? Дело в том, что все современные системы по прогнозированию климатических изменений не могут даже претендовать на точность. Причина тут очень проста: даже если в деле замешан суперкомпьютер, вычисления настолько ресурсоёмки, что в ходе сеанса симуляции одновременно можно изменять лишь один или два параметра.

Распределённая система же позволит запустить сразу множество симуляций одновременно, с различными параметрами.


Иными словами, каждому предполагаемому "помощнику" — владельцу мало-мальски мощного компьютера, подключённого к Сети, предлагается скачать версию клиентской программы, в которую с центрального сервера загрузят свой уникальный набор параметров, исходя из которых, машина медленно и усердно будет свёрстывать свою версию прогноза изменений климатических условий на Земле.


Каждая программа-клиент проработает несколько месяцев, прежде чем отправит обработанные данные обратно на центральный сервер.


Сопоставляя полученные различными программами-клиентами результаты, инициаторы эксперимента надеются получить самые точные прогнозы развития событий в XXI веке.


Это особенно актуально для Межправительственного совета по изменениям климата (Intergovernmental Panel on Climate Change — IPCC). Именно эта организация должна давать мало-мальски точные прогнозы по изменению климата (в частности, по глобальному потеплению) и именно это никак не получается сделать.


В настоящее время пределом точности оказалось следующее "предсказание": в XXI веке средняя температура поверхности Земли повысится в диапазоне от 1,4 до 5,8oC. Разница между крайними значениями весьма существенная, не правда ли?

А между тем, виноватых тут искать бессмысленно. Как сообщает ABC Online, в климатических вычислениях может фигурировать до 100 миллионов переменных (!). Как уже сказано, "перемолоть" их все сразу ни один суперкомпьютер не сможет.


В настоящее время организаторы эксперимента планируют ограничиться двумя миллионами участников — если их вообще удастся привлечь. В таких проектах самым трудным эпизодом является обеспечение должного уровня publicity. О начале проекта (а стартовал он буквально 12 сентября 2003 года) постарались сообщить все информационные агентства мира, но достаточно ли этого, чтобы привлечь два миллиона человек? И убедить их установить на свои компьютеры программу, которая будет "неизвестно что скачивать, неизвестно что вычислять и неизвестно куда отправлять"?


Кстати, если уж говорить о том, кто является конкретными организаторами эксперимента, то это Оксфордский университет (Oxford University), Университет Рединга (University of Reading), Метеорологическое управление Великобритании (UK Met Office) — которая, кстати, и является основным разработчиком климатической модели, предложенной для скачивания, — а также Открытый университет (Open University), лаборатория Рузерфорда-Эпплтона (Rutherford-Appleton Laboratory) и компания Tessella Support Services.


Я тоже решил поучавствовать в программе.
Прога весит 5 метров и примерно 1-1,5м задание (для 1 программы), Таких программ вы можете использовать несолько штук.

А вы что думаете?
 

Timophey

Уже освоился
Я тоже решил поучавствовать в программе.
Прога весит 5 метров и примерно 1-1,5м задание (для 1 программы), Таких программ вы можете использовать несолько штук.

А вы что думаете?
ну дело хорошее конечно
гораздо дешевле соединить кучу персоналок, по тойже гегабитной сети, чем мастырить какойнибудь суперкомпьютер
 

gumpas

CD и не DVD меня...
ну дело хорошее конечно
гораздо дешевле соединить кучу персоналок, по тойже гегабитной сети, чем мастырить какойнибудь суперкомпьютер
но все же существуют и дорогущие суперкомпьютеры - значит есть причина для их создания и эксплуатации... иначе на кой тада тратить кучу денег, када мона сделать задешево...
видимо есть какие-то подводные камни - сложность управления распределенными вычислениями, временной фактор да мало ли каких еще может быть причин!
 

Phobos

Пользователь
но все же существуют и дорогущие суперкомпьютеры - значит есть причина для их создания и эксплуатации... иначе на кой тада тратить кучу денег, када мона сделать задешево...
видимо есть какие-то подводные камни - сложность управления распределенными вычислениями, временной фактор да мало ли каких еще может быть причин!
смотря для каких целей применять, если в обработки информации необходимо каждому сегменту вычислителной системы часто связоватся с другими сегментами т.е. выполнять сравнительно непродолжительные операции, то без суперкомпьютера не обойтись, но если необходима обработка большого количества информации, которую можно поделить на независемые куски и обрабатывать отдельно, то вариант представленный выше будет более оптимальным
 

SLoNiCK

Новичок
gumpas

Ну еще и скорость работы с памятью. У песледнего Nec'овского векторника SX9 в 1 ноде на 16 процессоров общий канал оперативной памяти в 4 терабайта/сек, т.е. 256 ГБ/с на процессор. А, скажем, шина "ядро - кэш L1" в Core 2 Duo 3ГГц - (256/8)*3000~=96ГБ/с. (Их, конечно, впрямую сравнивать не стоит, но просто порядок цифр интересен)
 

gumpas

CD и не DVD меня...
gumpas

Ну еще и скорость работы с памятью. У песледнего Nec'овского векторника SX9 в 1 ноде на 16 процессоров общий канал оперативной памяти в 4 терабайта/сек, т.е. 256 ГБ/с на процессор. А, скажем, шина "ядро - кэш L1" в Core 2 Duo 3ГГц - (256/8)*3000~=96ГБ/с. (Их, конечно, впрямую сравнивать не стоит, но просто порядок цифр интересен)
дык я не спорю - там такой порядок цифр - закачаешься!!!
одни гигафлопы чего стоят!!! :(
 
Сверху