Дата-центр емкостью 120 петабайт: исполнитель – IBM, заказчик – неизвестен

Самый крупный в мире дата центр будет создан компанией IBM. Его емкость составит рекордные 120 петабайт, что в 8 раз превышает аналогичный показатель у самых мощных из существующих центров обработки данных (ЦОД).

Разработку этого гиганта доверили ученым из научно-исследовательского центра Almaden компании IBM, расположенного в Сан-Хосе, штат Калифорния. Согласно подсчетам, емкости нового дата-центра с легкостью хватит для хранения более чем 24 миллиардов файлов в формате MP3, либо 60 полных копий архива глобальной сети Wayback Machine, содержащего, на текущий момент, 150 миллиардов страниц. При этом только для записи и хранения служебных данных файлов такой системе понадобится 2 петабайта памяти.

Новый дата-центр смог бы хранить все данные о пользователях Facebook в течение 13 лет. Естественно, при учете неизменности потока информации – по статистике, пользователи социальной сети загружают 25 терабайт информации ежедневно. Масштаб задуманного легко представить, если принять во внимание, что самый большой из существующих ЦОД имеет емкость «всего лишь» в 15 петабайт.

Заказчик этого колосса не разглашается. Со слов руководителей IBM известно только, что цель создания подобного дата-центра – это симуляция сложных событий, имеющих глобальных масштаб. В частности, возможна работа над решением задач прогнозирования землетрясений, погоды и исследованием живых организмов на клеточном уровне.

В качестве накопителя информации были выбраны обычные жесткие диски. При этом в единый массив необходимо будет собрать более 200 тысяч устройств. Для этого учеными были сконструированы более широкие стойки повышенной вместимости, а так же принято решение о применении водного охлаждения вместо традиционного воздушного.

Для обеспечения отказоустойчивости системы было применено стандартное резервирование информации на нескольких винчестерах. Но специалисты компании ввели новые алгоритмы, позволяющие обеспечить стабильную производительность даже при выходе из строя одного или нескольких накопителей. Происходит это благодаря постепенному восстановлению данных на новом диске, который будет установлен взамен отказавшего. Главную цель всех этих новшеств сложно назвать скромной: Брюс Хиллсберг, руководитель этого проекта, требует от системы ни много ни мало – надежной работы бесконечно долго.

Еще одно новшество – использование в проекте GPFS. Эта файловая система, которую IBM разработала еще в конце 90-х, обладает возможностью дробить один файл на несколько винчестеров. Вследствие этого, процесс его записи и чтения может быть разделен на большое количество параллельных операций. Как утверждает Хиллсберг, именно программные новинки позволяют строить подобные системы, поскольку производительность жестких дисков повысить сложнее, нежели разработать специализированный алгоритм.

И, хотя строительство такого дата-центра – процесс уникальный и единичный, технологии, разработанные для него, обязательно обретут свою вторую жизнь в небольших коммерческих системах.


Поделиться информацией

Вы можете послать эту статью или новость коллеге или знакомому по email со своим комментарием, пригласить обсудить ее. Просто нажмите на иконку конверта --->


Сообщения, вопросы и ответы

Вы можете задать вопрос, написать комментарий, обсудить данную новость или статью.

Ваше сообщение (вопрос, ответ, комментарий)