Open Compute Project

Материал из Википедии — свободной энциклопедии
Это старая версия этой страницы, сохранённая 91.78.3.209 (обсуждение) в 07:23, 24 ноября 2020 (Структура проекта). Она может серьёзно отличаться от текущей версии.
Перейти к навигации Перейти к поиску
Open Compute Project
Тип организации Промышленная торговая группа
Основание
Дата основания 2011
Отрасль IT
Сайт opencompute.org

Open Compute Project (OCP) — это концепция, сообщество и организация, в рамках которых участники в форме открытого диалога делятся разработками в сфере программного, аппаратного и физического проектировании современных дата-центров (ЦОД) и оборудования для них. Основной задачей проекта является снижение CAPEX и OPEX инфраструктуры крупномасштабных ЦОД. Объединение включает в себя такие компании, как Facebook, IBM, Intel, AMD, Nokia, Google, Huawei, Microsoft, Seagate Technology, Western Digital, Dell, Rackspace, Cisco, Goldman Sachs, Lenovo, Alibaba Group, Schneider Electric, Samsung и многие другие. Из российских компаний участвуют Delta Solutions[1], Gagar>In[1], ранее присутствовала Yandex.[2][3]

Структура проекта

В апреле 2011 Джонатан Хайлигер (Facebook) объявил об инициативе открыто делиться наработками в области разработок продукции для дата-центров. [4] Эта идея появилась, как результат работы над модернизацией ЦОД Facebook в Прайнвилле, Орегон.[5][6]. В скором времени эта инициатива была положительно принята IT средой. В результате сформировалось сообщество, состоящее из компаний, поддержавших такую инициативу.

Open Compute Project – это некоммерческая организация, зарегистрированная в штате Делавэр. Генеральный директор фонда – Роки Баллок. В состав совета директоров входят 7 членов в лице 6 организаций и 1 физического лица (Энди Бехтольсхайма[англ.]). Марк Рёнигк (Facebook) является президентом и председателем фонда. Помимо Марка Рёнигка, который представляет Facbeook, в совет Open Compute входят следующие организации: Intel (Джейсон Уаксман), Goldman Sachs (Джошуа Матеус), Rackspace (Джим Хоукинс) и Microsoft (Майк Нил).[7]

Проекты OCP

Разработчики, участвующие в деятельности сообщества, стремятся достичь универсальности и простоты масштабирования инфраструктуры и вычислетельных мощностей. При этом манипуляции, производимые над оборудованием, должны минимально влиять на его работоспособность, производиться в режиме горячей замены и задействовать минимальное количество обслуживающего персонала, а также автоматизировать мониторинг потребляемых ресурсов и наблюдать статистику сбоев. Стойка OCP v2 и оборудование на YouTube. Фонд Open Compute Project поддерживает ряд проектов OCP, таких как:

Архитектура сервера

Сервер Open Compute V2

Через два года после старта работы над Open Compute Project, принимая во внимание стремление к максимально модульной конструкции, основатели признавали, что «новая концепция ещё далека от реальных требований дата-центров».[8] Тем не менее, некоторые обнародованные идеи были использованы в ЦОД Facebook в Прайнвилле для улучшения энергоэффективности, согласно измерениям PUE[англ.], параметра, разработанного The Green Grid[англ.].[9]

Разработки по совершенствованию конструкции вычислительных узлов проводились с использованием процессоров Intel и AMD. В 2013 Calxeda представила топологию с процессорами ARM архитектуры. С тех пор были представлены несколько поколений архитектур серверов OCP: Freedom (Intel), Spitfire (AMD), Windmill (Intel E5-2600), Watermark (AMD), Winterfall (Intel E5-2600 v2) и Leopard (Intel E5-2600 v3).[10][11]

Хранилище данных

Лоток с дисками Open Compute V2, 2-й нижний лоток выдвинут

Конструктивные блоки хранилищ Oven Vault обеспечивают высокую плотность дисков , благодаря 30 дискам, вмещающимся в корпус 2U Open Rack[англ.], разработанном для легкой замены жестких дисков. 3.5-дюймовые диски хранятся в двух ящиках, по пять в поперечнике и по три в глубину в каждом ящике, с подключением посредством SAS интерфейса. Это хранилище также называется Knox, и существует также холодный вариант хранилища, где незанятые диски отключаются для снижения энергопотребления.[12] Другая концепция дизайна была представлена Hyve Solutions, подразделением Synnex[англ.], в 2012. На OCP Summit 2016 Facebook совместно с тайваньским отделением ODM Wistron, Wiwynn, представили Lightning, гибкий NVMe JBOF (“just a bunch of flash”), основанный на существующем дизайне Open Vault (Knox).[13]

Конструкция стойки

Согласно обнародованным чертежам монтажные стойки имеют такую же наружную ширину (600мм) и глубину, что и стандартные 19-дюймовые стойки, но позволяют осуществлять установку более широких шасси с шириной 537мм (около 21 дюйма). Это позволяет разместить больше оборудования в том же самом объеме и улучшить прохождение потока воздуха. Размеры вычислительных шасси определяются как кратные OpenU[англ.], что составляет 48мм, немного более, чем у обычного телекоммуникационного юнита.

Энергоэффективные дата-центры

OCP опубликовала проекты дата-центров с улучшенным КПД, описывавшее распределение питания 277В переменного тока, что исключает одну из стадий преобразования напряжения в типовых ЦОД. Система питания с единым выходным напряжением (12,5В постоянного тока) предназначена для работы с входным напряжением 277В и включает в себя 48В аккумуляторные батареи.[9] В последствии уровни напряжения были адаптированы под различные региональные стандарты энергосетей, в том числе и принятые в России.

В первых поколениях серверов было решено отказаться от резервирования встроенных блоков питания и использовать по одному высокоэффективному преобразователю (80 PLUS), разработанному Power-One (принадлежит Bel Power Solutions), вместо традиционных двух. Это снижало надежность оборудования, но улучшало CAPEX и OPEX ЦОД, т.к. помимо затрат на вспомогательные блоки, устранялось и энергопотребление «спящих» в резерве единиц. В дальнейшем этот подход эволюционировал в использование вынесенных в отдельные юниты модульных источников питания, т.н. Power Shelf. Всё полезное оборудование в стойке в данном случае подключено к 12В шине. С этого момента питание стоек было организовано напрямую от трёхфазной сети (реже от высоковольтной шины 300В постоянного тока). Дальнейшим развитием архитектуры стало избавление от отдельно стоящих ИБП и внедрению 48В аккумуляторных батарей горячей замены BBU (Battery Back-Up Unit) в состав силовых полок (Open Rack V2). Параллельное развитие получили решения с шиной 48В постоянного напряжения вместо 12В, которые позволяют достичь еще более высокого КПД, но имеют и свои трудности.[14] Помимо того, шина 48В оказалась востребованной операторами сотовой связи при модернизации своей инфраструктуры под вычислительные требования сетей 5G и виртуализации.

В марте 2015 Facebook сообщила, что использование OCP позволило им сэкономить 2 млрд $ в течение последних 3 лет[15] и достичь внушительных показателей PUE в пределах 1.05-1.10. В качестве подтверждения Facebook выложила в Интернете онлайн отчеты в реальном времени со своих дата-центров в Прайнвилле и Форест Сити.[16][17]

Open сетевые коммутаторы

8 мая 2013 была предпринята попытка определить требования к Open сетевому коммутатору.[18] Задача заключалась в том, чтобы Facebook могла загружать в коммутатор собственную операционную систему. СМИ считали, что более дорогие и высокопроизводительные коммутаторы будут по-прежнему поставляться с собственным программным обеспечением, в то время, как менее дорогостоящие продукты, которые принято считать ширпотребными (обычно обозначаются с использованием модного слова «top-of-rack”), могут принять это предложение.[19]

Первая попытка создать Open сетевой коммутатор от Facebook была предпринята совместно с тайваньской ODM Accton[англ.] с использованием Broadcom Trident II и называется Wedge, а версия ОС Linux, на которой работает это устройство, называется FBOSS.[20][21][22] Более поздние разработки носят название «6-pack» и Wedge-100 и основаны на чипах Broadcom Tomahawk.[23] Аналогичные конструкции аппаратного обеспечения были представлены компаниями Edge-Core Networks Corporation (отделение Accton), Mellanox Technologies, Interface Masters Technologies и Agema Systems.[24], способные работать в Open Network Install Environment[англ.] (ONIE) совместимых сетевых операционнх системах, таких, как Cumulus Linux, Switch Light OS от Big Switch Networks[англ.] или PICOS от Pica8[англ.]. Ходили слухи, что аналогичный пользовательский коммутатор для платформы Google[англ.] разрабатывался с использованием протокола OpenFlow.

Судебный процесс

В марте 2015[25] BladeRoom Group Limited и Bripco (UK) Limited подали в суд на Facbook, Emerson Electric Co. и др., утверждая, что Facebook раскрыла торговые секреты BladeRoom и Bripco в области предсобранных дата-центров в Open Compute Project.[26] Facebook ходатайствовала об отклонении иска,[27] но в 2017 оно было отклонено.[28] Конфиденциальное урегулирование в середине судебного процесса было согласовано в апреле 2018.[29]

Развитие

В 2017 объем рынка, охваченного технологиями OCP составил 1,16млрд $. В 2018 c 2,56млрд$ он удвоился, достигнув почти 1% от всего рынка ЦОД, с учетом снижения общего объема в сегменте с 137 до 127 млрд$. По прогнозам в 2022 объем рынка OCP должен составить более 10млрд $, иными словами 5% от всего рынка дата-центров. С развитием сетей 5G и потребностей в виртуализации ожидается преодоление операторами связи объема сделок в этом сегменте, осуществляемымого операторами крупномасштабных дата-центров[англ.]. Преимущественное развитие отводится рынкам Америки и в меньшей степени стран Азиатско-Тахоокеанского региона[англ.].

Примечания

  1. 1 2 Membership Directory.
  2. Chayanov, Peter Изобретая серверы — Open Compute Project (14 сентября 2015).
  3. Chayanov, Peter Серверы для телекома: оптимизированные решения для современных ЦОДов (17 февраля 2016).
  4. Miller, Rich Will Open Compute Alter the Data Center Market? Data Center Knowledge (14 апреля 2011). Дата обращения: 9 июля 2013.
  5. Heiliger, Jonathan Building Efficient Data Centers with the Open Compute Project. Facebook Engineering's notes (7 апреля 2011). Дата обращения: 9 июля 2013.
  6. Bort, Julie How Facebook is eating the $140 billion hardware market. Business Insider. Дата обращения: 19 августа 2019.
  7. Board Members. Дата обращения: 19 августа 2019.
  8. Metz, Cade (January 16, 2013). "Facebook Shatters the Computer Server Into Tiny Pieces". Wired. Дата обращения: 9 июля 2013.
  9. 1 2 Michael, Amir Facebook's Open Compute Project. Stanford EE Computer Systems Colloquium. Stanford University (15 февраля 2012). (video archive)
  10. Data Center Knowledge. Guide to Facebook’s Open Source Data Center Hardware (28 апреля 2016). Дата обращения: 13 мая 2016.
  11. Register, The Facebook rolls out new web and database server designs (17 января 2013). Дата обращения: 13 мая 2016.
  12. Under the hood: Facebook’s cold storage system (4 мая 2015). Дата обращения: 13 мая 2016.
  13. Petersen, Chris Introducing Lightning: A flexible NVMe JBOF (9 марта 2016). Дата обращения: 13 мая 2016.
  14. Rack and Power (5 сентября 2019).
  15. Facebook nets billions in savings from Open Compute Project (11 марта 2015).
  16. Prineville, OR Data Center (5 сентября 2019).
  17. Forest City, NC Data Center (5 сентября 2019).
  18. Jay Hauser for Frank Frankovsky. Up next for the Open Compute Project: The Network. Open Compute blog (8 мая 2013). Дата обращения: 16 июня 2019.
  19. Chernicoff, David (May 9, 2013). "Can Open Compute change network switching?". ZDNet. Дата обращения: 9 июля 2013.
  20. Facebook Open Switching System (FBOSS) from Facebook. SDxCentral. Дата обращения: 5 сентября 2019. Архивировано из оригинала 1 октября 2018 года.
  21. Introducing "Wedge" and "FBOSS," the next steps toward a disaggregated network. Meet the engineers who code Facebook (18 июня 2014). Дата обращения: 13 мая 2016.
  22. Facebook Open Switching System ("FBOSS") and Wedge in the open. Meet the engineers who code Facebook (10 марта 2015). Дата обращения: 13 мая 2016.
  23. Opening designs for 6-pack and Wedge 100. Meet the engineers who code Facebook (9 марта 2016). Дата обращения: 13 мая 2016.
  24. Accepted or shared hardware specifications. Open Compute. Дата обращения: 13 мая 2016.
  25. BladeRoom Group Limited et al v. Facebook, Inc. Justia. Дата обращения: 18 февраля 2017.
  26. ORDER granting in part and denying in part 128 Motion to Dismiss. Justia. Дата обращения: 18 февраля 2017.
  27. Greene, Kat (10 May 2016). "Facebook Wants Data Center Trade Secrets Suit Tossed". Law360. Дата обращения: 8 марта 2017.
  28. SVERDLIK, YEVGENIY (17 February 2017). "Court Throws Out Facebook's Motion to Dismiss Data Center Design Lawsuit". Data center Knowledge. Дата обращения: 8 марта 2017.
  29. Facebook settles $365m modular datacentre IP theft case with UK-based BladeRoom Group. Computer Weekly (11 апреля 2018). Дата обращения: 15 марта 2019.

Ссылки