Open Compute Project: различия между версиями

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
[непроверенная версия][отпатрулированная версия]
Содержимое удалено Содержимое добавлено
 
(не показано 9 промежуточных версий 5 участников)
Строка 7: Строка 7:
}}
}}


'''Open Compute Project''' (''OCP'') — проект по созданию открытых стандартов для инженерных систем и аппаратного обеспечения, ориентированный на снижение [[Капитальные расходы|капитальных]] и [[Операционные затраты|операционных]] затрат на построение крупномасштабных [[Дата-центр|центров обработки данных]].
'''Open Compute Project''' (OCP) — это концепция, сообщество и организация, в рамках которых участники в форме открытого диалога делятся разработками в сфере программного, аппаратного и физического проектирования современных [[Дата-центр|центров обработки данных]] ({{аббр|ЦОД||0}}) и оборудования для них. Основной задачей проекта является снижение [[Капитальные расходы|CAPEX]] и [[Операционные затраты|OPEX]] инфраструктуры крупномасштабных ЦОД. Объединение включает в себя такие компании, как [[Facebook]], [[IBM]], [[Intel]], [[AMD]], [[Nokia]], [[Google (компания)|Google]], [[Huawei]], [[Microsoft]], [[Seagate Technology]], [[Western Digital]], [[Dell]], [[Rackspace]], [[Cisco]], [[Goldman Sachs]], [[Lenovo]], [[Alibaba Group]], [[Schneider Electric]], [[Samsung]] и многие другие. Из российских компаний участвуют [http://www.deltasolutions.ru/ Delta Solutions] {{Wayback|url=http://www.deltasolutions.ru/ |date=20190909215202 }}<ref name="автоссылка1">{{cite web|url=https://www.opencompute.org/membership/membership-organizational-directory/|title=Membership Directory|access-date=2019-09-05|archive-date=2019-08-20|archive-url=https://web.archive.org/web/20190820161644/https://www.opencompute.org/membership/membership-organizational-directory|deadlink=no}}</ref>, [http://gagar-in.com/ Gagar>In] {{Wayback|url=http://gagar-in.com/ |date=20200324013826 }}<ref name="автоссылка1" />, ранее присутствовала [[Yandex]].<ref>{{cite web |url=https://habr.com/ru/company/hostkey/blog/266835/ |title=Изобретая серверы — Open Compute Project |date=2015-09-14 |first=Peter |last=Chayanov |access-date=2019-09-05 |archive-date=2021-01-16 |archive-url=https://web.archive.org/web/20210116124400/https://habr.com/ru/company/hostkey/blog/266835/ |deadlink=no }}</ref><ref>{{cite web |url=https://www.osp.ru/lan/2016/05/13049350/ |title=Серверы для телекома: оптимизированные решения для современных ЦОДов |date=2016-02-17 |first=Peter |last=Chayanov |access-date=2019-09-05 |archive-date=2021-06-13 |archive-url=https://web.archive.org/web/20210613120554/https://www.osp.ru/lan/2016/05/13049350 |deadlink=no }}</ref>


Создан в результате инициативы Facebook в апреле 2011 года, предполагавшей готовность корпорации открыто делиться наработками по итогам проекта модернизации центра в Прайнвилле (Орегон)<ref>{{cite web |url= http://www.datacenterknowledge.com/archives/2011/04/14/will-open-compute-alter-the-data-center-market/ |title= Will Open Compute Alter the Data Center Market? |date= 2011-04-14 |first= Rich |last= Miller |work= Data Center Knowledge |accessdate= 2013-07-09 |archive-date= 2020-11-12 |archive-url= https://web.archive.org/web/20201112031300/https://www.datacenterknowledge.com/archives/2011/04/14/will-open-compute-alter-the-data-center-market/ |deadlink= no }}</ref><ref>{{Cite web|url=https://www.businessinsider.com/facebook-open-compute-project-history-2015-6|title=How Facebook is eating the $140 billion hardware market|last=Bort|first=Julie|website=Business Insider|access-date=2019-08-19|archive-date=2019-08-19|archive-url=https://web.archive.org/web/20190819164011/https://www.businessinsider.com/facebook-open-compute-project-history-2015-6|deadlink=no}}</ref>. В скором времени была учреждена некоммерческая организация с регистрацией в Дэлавере, членами которой стали многие крупные корпорации, в том числе [[Facebook]], [[IBM]], [[Intel]], [[AMD]]. Генеральный директор фонда — Роки Баллок. В состав совета директоров входят 7 членов в лице 6 организаций и 1 физического лица ({{iw|Бехтольсхайм, Энди|Энди Бехтольсхайма|en|Andy Bechtolsheim}}). Марк Рёнигк (Facebook) является президентом и председателем фонда. Помимо Марка Рёнигка, который представляет Facebook, в совет Open Compute входят следующие организации: Intel (Джейсон Уаксман), Goldman Sachs (Джошуа Матеус), Rackspace (Джим Хоукинс) и Microsoft (Майк Нил)<ref>{{Cite web|url=https://www.opencompute.org/about/board|title=Board Members|access-date=2019-08-19|archive-date=2019-06-16|archive-url=https://web.archive.org/web/20190616101154/https://www.opencompute.org/about/board|deadlink=no}}</ref>.
== Структура проекта ==
В апреле 2011 Джонатан Хайлигер (Facebook) объявил об инициативе открыто делиться наработками в области разработок продукции для центров обработки данных (ЦОД).<ref>{{cite web |url= http://www.datacenterknowledge.com/archives/2011/04/14/will-open-compute-alter-the-data-center-market/ |title= Will Open Compute Alter the Data Center Market? |date= 2011-04-14 |first= Rich |last= Miller |work= Data Center Knowledge |accessdate= 2013-07-09 |archive-date= 2020-11-12 |archive-url= https://web.archive.org/web/20201112031300/https://www.datacenterknowledge.com/archives/2011/04/14/will-open-compute-alter-the-data-center-market/ |deadlink= no }}</ref> Эта идея появилась, как результат работы над модернизацией ЦОД Facebook в Прайнвилле, Орегон.<ref>{{Cite web |url= http://www.facebook.com/notes/facebook-engineering/building-efficient-data-centers-with-the-open-compute-project/10150144039563920 |title= Building Efficient Data Centers with the Open Compute Project |first= Jonathan |last= Heiliger |date= 2011-04-07 |work= Facebook Engineering's notes |accessdate= 2013-07-09 |archive-date= 2019-08-31 |archive-url= https://web.archive.org/web/20190831232845/https://www.facebook.com/notes/facebook-engineering/building-efficient-data-centers-with-the-open-compute-project/10150144039563920 |deadlink= no }}</ref><ref>{{Cite web|url=https://www.businessinsider.com/facebook-open-compute-project-history-2015-6|title=How Facebook is eating the $140 billion hardware market|last=Bort|first=Julie|website=Business Insider|access-date=2019-08-19|archive-date=2019-08-19|archive-url=https://web.archive.org/web/20190819164011/https://www.businessinsider.com/facebook-open-compute-project-history-2015-6|deadlink=no}}</ref>. В скором времени эта инициатива была положительно принята IT средой. В результате сформировалось сообщество, состоящее из компаний, поддержавших такую инициативу.


Основная цель — достичь универсальности и простоты масштабирования инфраструктуры и вычислительных мощностей. При этом манипуляции, производимые над оборудованием, должны минимально влиять на его работоспособность, производиться в режиме [[Горячая замена|горячей замены]] и задействовать минимальное количество обслуживающего персонала, а также автоматизировать мониторинг потребляемых ресурсов и наблюдать статистику сбоев<ref>{{YouTube|id=2l6gI-ksdKs|title=Стойка OCP v2 и оборудование}}</ref>.
Open Compute Project это некоммерческая организация, зарегистрированная в штате Делавэр. Генеральный директор фонда Роки Баллок. В состав совета директоров входят 7 членов в лице 6 организаций и 1 физического лица ({{iw|Бехтольсхайм, Энди|Энди Бехтольсхайма|en|Andy Bechtolsheim}}). Марк Рёнигк (Facebook) является президентом и председателем фонда. Помимо Марка Рёнигка, который представляет Facebook, в совет Open Compute входят следующие организации: Intel (Джейсон Уаксман), Goldman Sachs (Джошуа Матеус), Rackspace (Джим Хоукинс) и Microsoft (Майк Нил).<ref>{{Cite web|url=https://www.opencompute.org/about/board|title=Board Members|access-date=2019-08-19|archive-date=2019-06-16|archive-url=https://web.archive.org/web/20190616101154/https://www.opencompute.org/about/board|deadlink=no}}</ref>


== Проекты OCP ==
== Серверы ==
Разработчики, участвующие в деятельности сообщества, стремятся достичь универсальности и простоты масштабирования инфраструктуры и вычислительных мощностей. При этом манипуляции, производимые над оборудованием, должны минимально влиять на его работоспособность, производиться в режиме [[Горячая замена|горячей замены]] и задействовать минимальное количество обслуживающего персонала, а также автоматизировать мониторинг потребляемых ресурсов и наблюдать статистику сбоев. {{YouTube|id=2l6gI-ksdKs|title=Стойка OCP v2 и оборудование}}.
Фонд Open Compute Project поддерживает ряд проектов OCP, таких как:

=== Архитектура сервера ===
[[Файл:Open Compute Server Front.jpg|мини|Сервер Open Compute V2]]
[[Файл:Open Compute Server Front.jpg|мини|Сервер Open Compute V2]]
Через два года после старта работы над Open Compute Project, принимая во внимание стремление к максимально модульной конструкции, основатели признавали, что «новая концепция ещё далека от реальных требований центров обработки данных».<ref>{{Cite news |title= Facebook Shatters the Computer Server Into Tiny Pieces |date= 2013-01-16 |first= Cade |last= Metz |work= Wired |url= https://www.wired.com/wiredenterprise/2013/01/facebook-server-pieces/ |accessdate= 2013-07-09 |archivedate= 2014-03-15 |archiveurl= https://web.archive.org/web/20140315082451/http://www.wired.com/wiredenterprise/2013/01/facebook-server-pieces }}</ref> Тем не менее, некоторые обнародованные идеи были использованы в ЦОД Facebook в Прайнвилле для улучшения энергоэффективности, согласно измерениям {{iw|PUE|PUE|en|Power usage effectiveness}}, параметра, разработанного {{iw|The Green Grid|The Green Grid|en|The Green Grid}}.<ref name="Stanford">{{Cite web |title= Facebook's Open Compute Project |work= Stanford EE Computer Systems Colloquium |date= 2012-02-15 |url= http://www.stanford.edu/class/ee380/Abstracts/120215.html |first= Amir |last= Michael |publisher= [[Stanford University]] |access-date= 2019-09-05 |archive-date= 2013-01-19 |archive-url= https://web.archive.org/web/20130119074757/http://www.stanford.edu/class/ee380/Abstracts/120215.html |deadlink= no }} ([http://ee380.stanford.edu/cgi-bin/videologger.php?target=120215-ee380-300.asx video archive])</ref>
Через два года после старта работы над Open Compute Project, принимая во внимание стремление к максимально модульной конструкции, основатели признавали, что «новая концепция ещё далека от реальных требований центров обработки данных».<ref>{{Cite news |title= Facebook Shatters the Computer Server Into Tiny Pieces |date= 2013-01-16 |first= Cade |last= Metz |work= Wired |url= https://www.wired.com/wiredenterprise/2013/01/facebook-server-pieces/ |accessdate= 2013-07-09 |archivedate= 2014-03-15 |archiveurl= https://web.archive.org/web/20140315082451/http://www.wired.com/wiredenterprise/2013/01/facebook-server-pieces }}</ref> Тем не менее, некоторые обнародованные идеи были использованы в ЦОД Facebook в Прайнвилле для улучшения энергоэффективности, согласно измерениям {{iw|PUE|PUE|en|Power usage effectiveness}}, параметра, разработанного {{iw|The Green Grid|The Green Grid|en|The Green Grid}}<ref name="Stanford">{{Cite web |title= Facebook's Open Compute Project |work= Stanford EE Computer Systems Colloquium |date= 2012-02-15 |url= http://www.stanford.edu/class/ee380/Abstracts/120215.html |first= Amir |last= Michael |publisher= [[Stanford University]] |access-date= 2019-09-05 |archive-date= 2013-01-19 |archive-url= https://web.archive.org/web/20130119074757/http://www.stanford.edu/class/ee380/Abstracts/120215.html |deadlink= no }} ([http://ee380.stanford.edu/cgi-bin/videologger.php?target=120215-ee380-300.asx video archive])</ref>.


Разработки по совершенствованию конструкции вычислительных узлов проводились с использованием процессоров Intel и AMD. В 2013 [[Calxeda]] представила топологию с процессорами [[ARM (архитектура)|ARM архитектуры]]. С тех пор были представлены несколько поколений архитектур серверов OCP: Freedom (Intel), Spitfire (AMD), Windmill (Intel E5-2600), Watermark (AMD), Winterfall (Intel E5-2600 v2) и Leopard (Intel E5-2600 v3).<ref>{{Cite web|title=Guide to Facebook’s Open Source Data Center Hardware|author=Data Center Knowledge|date=2016-04-28|url=http://www.datacenterknowledge.com/archives/2016/04/28/guide-to-facebooks-open-source-data-center-hardware/|accessdate=2016-05-13|archive-date=2019-08-15|archive-url=https://web.archive.org/web/20190815012641/https://www.datacenterknowledge.com/archives/2016/04/28/guide-to-facebooks-open-source-data-center-hardware/|deadlink=no}}</ref><ref>{{Cite web|title=Facebook rolls out new web and database server designs|first=The|last=Register|date=2013-01-17|url=https://www.theregister.co.uk/2013/01/17/open_compute_facebook_servers/|accessdate=2016-05-13|archive-date=2017-02-01|archive-url=https://web.archive.org/web/20170201103738/http://www.theregister.co.uk/2013/01/17/open_compute_facebook_servers/|deadlink=no}}</ref>
Разработки по совершенствованию конструкции вычислительных узлов проводились с использованием процессоров Intel и AMD. В 2013 году [[Calxeda]] представила топологию с процессорами архитектуры [[ARM (архитектура)|ARM]]. С тех пор были представлены несколько поколений архитектур серверов OCP: Freedom (Intel), Spitfire (AMD), Windmill (Intel E5-2600), Watermark (AMD), Winterfall (Intel E5-2600 v2) и Leopard (Intel E5-2600 v3).<ref>{{Cite web|title=Guide to Facebook’s Open Source Data Center Hardware|author=Data Center Knowledge|date=2016-04-28|url=http://www.datacenterknowledge.com/archives/2016/04/28/guide-to-facebooks-open-source-data-center-hardware/|accessdate=2016-05-13|archive-date=2019-08-15|archive-url=https://web.archive.org/web/20190815012641/https://www.datacenterknowledge.com/archives/2016/04/28/guide-to-facebooks-open-source-data-center-hardware/|deadlink=no}}</ref><ref>{{Cite web|title=Facebook rolls out new web and database server designs|first=The|last=Register|date=2013-01-17|url=https://www.theregister.co.uk/2013/01/17/open_compute_facebook_servers/|accessdate=2016-05-13|archive-date=2017-02-01|archive-url=https://web.archive.org/web/20170201103738/http://www.theregister.co.uk/2013/01/17/open_compute_facebook_servers/|deadlink=no}}</ref>


=== Хранилище данных ===
=== Системы хранения ===
[[Файл:Open Compute 1U Drive Tray Bent.jpg|мини|Лоток с дисками Open Compute V2, 2-й нижний лоток выдвинут]]
[[Файл:Open Compute 1U Drive Tray Bent.jpg|мини|Лоток с дисками Open Compute V2, 2-й нижний лоток выдвинут]]
Конструктивные блоки хранилищ Oven Vault обеспечивают высокую плотность дисков , благодаря 30 дискам, вмещающимся в корпус 2U {{iw|Open Rack|Open Rack|en|Open Rack}}, разработанном для лёгкой замены [[Жёсткий диск|жёстких дисков]]. 3.5-дюймовые диски хранятся в двух ящиках, по пять в поперечнике и по три в глубину в каждом ящике, с подключением посредством [[Serial Attached SCSI|SAS]] интерфейса. Это хранилище также называется Knox, и существует также холодный вариант хранилища, где незанятые диски отключаются для снижения энергопотребления.<ref>{{Cite web|title=Under the hood: Facebook’s cold storage system|date=2015-05-04|url=https://code.facebook.com/posts/1433093613662262/-under-the-hood-facebook-s-cold-storage-system-/|accessdate=2016-05-13|archive-date=2020-11-08|archive-url=https://web.archive.org/web/20201108133651/https://code.facebook.com/posts/1433093613662262/-under-the-hood-facebook-s-cold-storage-system-/|deadlink=no}}</ref> Другая концепция архитектуры была представлена Hyve Solutions, подразделением {{iw|Synnex|Synnex|en|Synnex}}, в 2012. На OCP Summit 2016 Facebook совместно с тайваньским отделением ODM Wistron, Wiwynn, представили Lightning, гибкий NVMe JBOF (“just a bunch of flash”), основанный на существующей архитектуре Open Vault (Knox).<ref>{{Cite web|title=Introducing Lightning: A flexible NVMe JBOF|first=Chris|last=Petersen|date=2016-03-09|url=https://code.facebook.com/posts/989638804458007/introducing-lightning-a-flexible-nvme-jbof/|accessdate=2016-05-13|archive-date=2017-07-18|archive-url=https://web.archive.org/web/20170718150712/https://code.facebook.com/posts/989638804458007/introducing-lightning-a-flexible-nvme-jbof/|deadlink=no}}</ref>
Конструктивные блоки систем хранения Oven Vault (Knox) обеспечивают высокую плотность — 30 накопителей в корпусе 2 монтажных единицы {{iw|Open Rack|Open Rack|en|Open Rack}}, разработанном для удобной горячей замены. Накопители размером 3,5 дюймов располагаются в двух ящиках, по пять в поперечнике и по три в глубину в каждом ящике, с подключением посредством [[Serial Attached SCSI|SAS]]-интерфейса. Существует также холодный вариант системы, где незанятые накопители отключаются для снижения энергопотребления<ref>{{Cite web|title=Under the hood: Facebook’s cold storage system|date=2015-05-04|url=https://code.facebook.com/posts/1433093613662262/-under-the-hood-facebook-s-cold-storage-system-/|accessdate=2016-05-13|archive-date=2020-11-08|archive-url=https://web.archive.org/web/20201108133651/https://code.facebook.com/posts/1433093613662262/-under-the-hood-facebook-s-cold-storage-system-/|deadlink=no}}</ref>. Другая концепция — разработка {{iw|Synnex|Synnex|en|Synnex}} (2012).


== Стойка ==
=== Конструкция стойки ===
Согласно обнародованным чертежам монтажные стойки имеют такую же наружную ширину (600мм) и глубину, что и стандартные [[Телекоммуникационная стойка|19-дюймовые стойки]], но позволяют осуществлять установку более широких шасси с шириной 537мм (около 21 дюйма). Это позволяет разместить больше оборудования в том же самом объёме и улучшить прохождение потока воздуха. Размеры вычислительных шасси определяются как кратные {{iw|Open Rack|OpenU|en|Open Rack}}, что составляет 48мм, немного более, чем у обычного [[Монтажная единица|телекоммуникационного юнита]].
Монтажные стойки OCP имеют такую же наружную ширину (600 мм) и глубину, что и стандартные [[Телекоммуникационная стойка|19-дюймовые стойки]], но позволяют осуществлять установку более широких шасси с шириной 537 мм (около 21 дюйма). Это позволяет разместить больше оборудования в том же самом объёме и улучшить прохождение потока воздуха. Размеры вычислительных шасси определяются как кратные {{iw|Open Rack|OpenU|en|Open Rack}}, что составляет 48 мм, немного более, чем у обычного [[Монтажная единица|монтажной единицы]].


== Энергопотребление ==
=== Энергоэффективные центры обработки данных ===
OCP опубликовала проекты центров обработки данных с улучшенным КПД, описывавшее распределение питания 277В [[Переменный ток|переменного тока]], что исключает одну из стадий преобразования напряжения в типовых ЦОД. Система питания с единым выходным напряжением (12, постоянного тока) предназначена для работы со входным напряжением 277В и включает в себя 48В аккумуляторные батареи.<ref name="Stanford" /> Впоследствии уровни напряжения были адаптированы под различные региональные стандарты [[Трёхфазная система электроснабжения|энергосетей]], в том числе и принятые в России.
OCP опубликовала проекты центров обработки данных с улучшенным КПД, описывавшее распределение питания 277 В [[Переменный ток|переменного тока]], что исключает одну из стадий преобразования напряжения в типовых ЦОД. Система питания с единым выходным напряжением (12,5 В постоянного тока) предназначена для работы со входным напряжением 277В и включает в себя 48В аккумуляторные батареи.<ref name="Stanford" /> Впоследствии уровни напряжения были адаптированы под различные региональные стандарты [[Трёхфазная система электроснабжения|энергосетей]], в том числе и принятые в России.


В первых поколениях серверов было решено отказаться от резервирования встроенных блоков питания и использовать по одному высокоэффективному преобразователю ([[80 PLUS]]), разработанному Power-One (принадлежит [https://belfuse.com/open-compute-data-center-solutions Bel Power Solutions] {{Wayback|url=https://belfuse.com/open-compute-data-center-solutions |date=20200915173936 }}), вместо традиционных двух. Это снижало надёжность оборудования, но улучшало CAPEX и OPEX ЦОД, т.к. помимо затрат на вспомогательные блоки, устранялось и энергопотребление «спящих» в резерве единиц.
В первых поколениях серверов было решено отказаться от резервирования встроенных блоков питания и использовать по одному высокоэффективному преобразователю ([[80 PLUS]]), разработанному Power-One (принадлежит Bel Power Solutions), вместо традиционных двух. Это снижало надёжность оборудования, но улучшало показатели капитальных и операционных затрат ЦОД, так как помимо затрат на вспомогательные блоки, устранялось и энергопотребление «спящих» в резерве единиц.
В дальнейшем этот подход эволюционировал в использование вынесенных в отдельные узлы модульных источников питания, т.н. Power Shelf. Всё полезное оборудование в стойке в данном случае подключено к 12В шине. С этого момента питание стоек было организовано напрямую от [[Трёхфазная система электроснабжения|трёхфазной сети]] (реже от высоковольтной шины 300В [[Постоянный ток|постоянного тока]]). Дальнейшим развитием архитектуры стало избавление от отдельно стоящих [[ИБП]] и внедрению 48В аккумуляторных батарей горячей замены BBU (Battery Back-Up Unit) в состав силовых полок (Open Rack V2). Параллельное развитие получили решения с шиной 48В постоянного напряжения вместо 12В, которые позволяют достичь ещё более высокого КПД, но имеют и свои трудности.<ref>{{Cite web|url=https://www.opencompute.org/wiki/Rack_&_Power|title=Rack and Power|date=2019-09-05|access-date=2022-03-15|archive-date=2021-05-18|archive-url=https://web.archive.org/web/20210518084248/https://www.opencompute.org/wiki/Rack_%26_Power|deadlink=no}}</ref> Помимо того, шина 48В оказалась востребованной операторами сотовой связи при модернизации своей инфраструктуры под вычислительные требования сетей [[5G]] и [[Виртуализация|виртуализации]].
В дальнейшем этот подход эволюционировал в использование вынесенных в отдельные узлы модульных источников питания, так называемых Power Shelf. Всё полезное оборудование в стойке в данном случае подключено к 12В шине. С этого момента питание стоек было организовано напрямую от [[Трёхфазная система электроснабжения|трёхфазной сети]] (реже от высоковольтной шины 300В [[Постоянный ток|постоянного тока]]). Дальнейшим развитием архитектуры стало избавление от отдельно стоящих [[ИБП]] и внедрению 48В аккумуляторных батарей горячей замены BBU (Battery Back-Up Unit) в состав силовых полок (Open Rack V2). Параллельное развитие получили решения с шиной 48В постоянного напряжения вместо 12В, которые позволяют достичь ещё более высокого КПД, но имеют и свои трудности.<ref>{{Cite web|url=https://www.opencompute.org/wiki/Rack_&_Power|title=Rack and Power|date=2019-09-05|access-date=2022-03-15|archive-date=2021-05-18|archive-url=https://web.archive.org/web/20210518084248/https://www.opencompute.org/wiki/Rack_%26_Power|deadlink=no}}</ref> Помимо того, шина 48В оказалась востребованной операторами сотовой связи при модернизации своей инфраструктуры под вычислительные требования сетей [[5G]] и [[Виртуализация|виртуализации]].


В марте 2015 Facebook сообщила, что использование OCP позволило им сэкономить 2 млрд $ в течение последних 3 лет<ref>{{Cite web|url=https://www.infoworld.com/article/2895067/facebook-open-compute-project-billions-in-savings.html|title=Facebook nets billions in savings from Open Compute Project|date=2015-03-11|access-date=2019-09-05|archive-date=2020-08-12|archive-url=https://web.archive.org/web/20200812205718/https://www.infoworld.com/article/2895067/facebook-open-compute-project-billions-in-savings.html|deadlink=no}}</ref> и достичь внушительных показателей PUE в пределах 1.05-1.10. В качестве подтверждения Facebook выложила в Интернете онлайн отчёты в реальном времени со своих центров обработки данных в Прайнвилле и Форест Сити.<ref>{{Cite web|url=https://www.facebook.com/PrinevilleDataCenter/app/399244020173259/|title=Prineville, OR Data Center|date=2019-09-05|access-date=2019-09-05|archive-date=2019-10-26|archive-url=https://web.archive.org/web/20191026161755/https://www.facebook.com/PrinevilleDataCenter/app/399244020173259/|deadlink=no}}</ref><ref>{{Cite web|url=https://www.facebook.com/ForestCityDataCenter/app/288655784601722/|title=Forest City, NC Data Center|date=2019-09-05|access-date=2019-09-05|archive-date=2019-11-19|archive-url=https://web.archive.org/web/20191119071417/https://www.facebook.com/ForestCityDataCenter/app/288655784601722/|deadlink=no}}</ref>
В марте 2015 году Facebook сообщила, что использование OCP позволило им сэкономить $2 млрд в течение последних 3 лет<ref>{{Cite web|url=https://www.infoworld.com/article/2895067/facebook-open-compute-project-billions-in-savings.html|title=Facebook nets billions in savings from Open Compute Project|date=2015-03-11|access-date=2019-09-05|archive-date=2020-08-12|archive-url=https://web.archive.org/web/20200812205718/https://www.infoworld.com/article/2895067/facebook-open-compute-project-billions-in-savings.html|deadlink=no}}</ref> и достичь внушительных показателей PUE в пределах 1,05—1,10. В качестве подтверждения Facebook выложила в Интернете отчёты в реальном времени со своих центров обработки данных в Прайнвилле и Форест Сити<ref>{{Cite web|url=https://www.facebook.com/PrinevilleDataCenter/app/399244020173259/|title=Prineville, OR Data Center|date=2019-09-05|access-date=2019-09-05|archive-date=2019-10-26|archive-url=https://web.archive.org/web/20191026161755/https://www.facebook.com/PrinevilleDataCenter/app/399244020173259/|deadlink=no}}</ref><ref>{{Cite web|url=https://www.facebook.com/ForestCityDataCenter/app/288655784601722/|title=Forest City, NC Data Center|date=2019-09-05|access-date=2019-09-05|archive-date=2019-11-19|archive-url=https://web.archive.org/web/20191119071417/https://www.facebook.com/ForestCityDataCenter/app/288655784601722/|deadlink=no}}</ref>.


=== Open сетевые коммутаторы ===
== Сетевые коммутаторы ==
{{машинный перевод}}
{{машинный перевод}}
8 мая 2013 была предпринята попытка определить требования к Open [[Сетевой коммутатор|сетевому коммутатору]].<ref>{{Cite web|url=https://www.opencompute.org/news/up-next-for-the-open-compute-project-the-network|title=Up next for the Open Compute Project: The Network|author=Jay Hauser for Frank Frankovsky|first=|date=2013-05-08|work=Open Compute blog|archive-url=https://web.archive.org/web/20190616101137/https://www.opencompute.org/news/up-next-for-the-open-compute-project-the-network|archive-date=2019-06-16|accessdate=2019-06-16|deadlink=no}}</ref> Задача заключалась в том, чтобы Facebook могла загружать в коммутатор собственную [[Операционная система|операционную систему]]. СМИ считали, что более дорогие и высокопроизводительные коммутаторы будут по-прежнему поставляться с собственным программным обеспечением, в то время, как менее дорогостоящие продукты, которые принято считать [[Биржевой товар|ширпотребными]] (обычно обозначаются с использованием [[Модные слова|модного слова]] «top-of-rack”), могут принять это предложение.<ref>{{Cite news |title= Can Open Compute change network switching? |first= David |last= Chernicoff |work= ZDNet |date= 2013-05-09 |url= http://www.zdnet.com/can-open-compute-change-network-switching-7000015141/ |accessdate= 2013-07-09 |archivedate= 2014-02-02 |archiveurl= https://web.archive.org/web/20140202123345/http://www.zdnet.com/can-open-compute-change-network-switching-7000015141/ }}</ref>
8 мая 2013 была предпринята попытка определить требования к [[Сетевой коммутатор|сетевому коммутатору]] с открытой архитектурой.<ref>{{Cite web|url=https://www.opencompute.org/news/up-next-for-the-open-compute-project-the-network|title=Up next for the Open Compute Project: The Network|author=Jay Hauser for Frank Frankovsky|first=|date=2013-05-08|work=Open Compute blog|archive-url=https://web.archive.org/web/20190616101137/https://www.opencompute.org/news/up-next-for-the-open-compute-project-the-network|archive-date=2019-06-16|accessdate=2019-06-16|deadlink=no}}</ref> Перед Facebook стояла задача установить на коммутатор собственную [[Операционная система|операционную систему]]. СМИ считали, что более дорогие и высокопроизводительные коммутаторы будут по-прежнему поставляться с собственным программным обеспечением, в то время, как менее дорогостоящие продукты, которые принято считать [[Биржевой товар|широкоупотребительными]] (обычно обозначаются с использованием [[Модные слова|модного слова]] «top-of-rack»), могут принять это предложение.<ref>{{Cite news |title= Can Open Compute change network switching? |first= David |last= Chernicoff |work= ZDNet |date= 2013-05-09 |url= http://www.zdnet.com/can-open-compute-change-network-switching-7000015141/ |accessdate= 2013-07-09 |archivedate= 2014-02-02 |archiveurl= https://web.archive.org/web/20140202123345/http://www.zdnet.com/can-open-compute-change-network-switching-7000015141/ }}</ref>


Первая попытка создать Open сетевой коммутатор от Facebook была предпринята совместно с тайваньской ODM {{iw|Accton Technology Corporation|Accton|en|Accton Technology Corporation}} с использованием [[Broadcom Corporation|Broadcom]] Trident II и называется Wedge, а версия ОС Linux, на которой работает это устройство, называется FBOSS.<ref>{{cite web|title=Facebook Open Switching System (FBOSS) from Facebook|url=https://www.sdxcentral.com/projects/facebook-open-switching-system-fboss/reports/2017/open-source-networking/|website=[[SDxCentral]]|archive-url=https://web.archive.org/web/20181001142442/https://www.sdxcentral.com/projects/facebook-open-switching-system-fboss/reports/2017/open-source-networking/|archive-date=2018-10-01|accessdate=2019-09-05|deadlink=yes}}</ref><ref>{{cite web|url=https://code.facebook.com/posts/681382905244727/introducing-wedge-and-fboss-the-next-steps-toward-a-disaggregated-network/|title=Introducing "Wedge" and "FBOSS," the next steps toward a disaggregated network|website=Meet the engineers who code Facebook|date=2014-06-18|accessdate=2016-05-13|archive-date=2016-04-26|archive-url=https://web.archive.org/web/20160426173334/https://code.facebook.com/posts/681382905244727/introducing-wedge-and-fboss-the-next-steps-toward-a-disaggregated-network/|deadlink=no}}</ref><ref>{{cite web|url=https://code.facebook.com/posts/843620439027582/facebook-open-switching-system-fboss-and-wedge-in-the-open/|title=Facebook Open Switching System ("FBOSS") and Wedge in the open|website=Meet the engineers who code Facebook|date=2015-03-10|accessdate=2016-05-13|archive-date=2016-07-02|archive-url=https://web.archive.org/web/20160702024729/https://code.facebook.com/posts/843620439027582/facebook-open-switching-system-fboss-and-wedge-in-the-open/|deadlink=no}}</ref> Более поздние разработки носят название «6-pack» и Wedge-100 и основаны на чипах Broadcom Tomahawk.<ref>{{cite web|url=https://code.facebook.com/posts/203733993317833/opening-designs-for-6-pack-and-wedge-100/|title=Opening designs for 6-pack and Wedge 100|website=Meet the engineers who code Facebook|date=2016-03-09|accessdate=2016-05-13|archive-date=2016-04-14|archive-url=https://web.archive.org/web/20160414140010/https://code.facebook.com/posts/203733993317833/opening-designs-for-6-pack-and-wedge-100/|deadlink=no}}</ref> Аналогичные конструкции аппаратного обеспечения были представлены компаниями Edge-Core Networks Corporation (отделение Accton), [[Mellanox|Mellanox Technologies]], Interface Masters Technologies и Agema Systems.<ref>{{cite web|url=http://www.opencompute.org/wiki/Networking/SpecsAndDesigns|title=Accepted or shared hardware specifications|website=Open Compute|accessdate=2016-05-13|archive-date=2016-05-14|archive-url=https://web.archive.org/web/20160514070908/http://www.opencompute.org/wiki/Networking/SpecsAndDesigns|deadlink=no}}</ref>, способные работать в {{iw|Open Network Install Environment|Open Network Install Environment|en|Open Network Install Environment}} (ONIE) [[Сетевая операционная система|совместимых сетевых операционных системах]], таких, как [[Cumulus Linux]], Switch Light OS от {{iw|Big Switch Networks|Big Switch Networks|en|Big Switch Networks}} или PICOS от {{iw|Pica8|Pica8|en|Pica8}}. Ходили слухи, что аналогичный пользовательский коммутатор для {{iw|ЦОД Google|платформы Google|en|Google data centers}} разрабатывался с использованием протокола [[OpenFlow]].
Первая попытка создать сетевой коммутатор с открытой архитектурой была предпринята Facebook совместно с тайваньской ODM {{iw|Accton Technology Corporation|Accton|en|Accton Technology Corporation}} с использованием [[Broadcom Corporation|Broadcom]] Trident II и называется Wedge, а версия ОС Linux, на которой работает это устройство, называется FBOSS.<ref>{{cite web|title=Facebook Open Switching System (FBOSS) from Facebook|url=https://www.sdxcentral.com/projects/facebook-open-switching-system-fboss/reports/2017/open-source-networking/|website=[[SDxCentral]]|archive-url=https://web.archive.org/web/20181001142442/https://www.sdxcentral.com/projects/facebook-open-switching-system-fboss/reports/2017/open-source-networking/|archive-date=2018-10-01|accessdate=2019-09-05|deadlink=yes}}</ref><ref>{{cite web|url=https://code.facebook.com/posts/681382905244727/introducing-wedge-and-fboss-the-next-steps-toward-a-disaggregated-network/|title=Introducing "Wedge" and "FBOSS," the next steps toward a disaggregated network|website=Meet the engineers who code Facebook|date=2014-06-18|accessdate=2016-05-13|archive-date=2016-04-26|archive-url=https://web.archive.org/web/20160426173334/https://code.facebook.com/posts/681382905244727/introducing-wedge-and-fboss-the-next-steps-toward-a-disaggregated-network/|deadlink=no}}</ref><ref>{{cite web|url=https://code.facebook.com/posts/843620439027582/facebook-open-switching-system-fboss-and-wedge-in-the-open/|title=Facebook Open Switching System ("FBOSS") and Wedge in the open|website=Meet the engineers who code Facebook|date=2015-03-10|accessdate=2016-05-13|archive-date=2016-07-02|archive-url=https://web.archive.org/web/20160702024729/https://code.facebook.com/posts/843620439027582/facebook-open-switching-system-fboss-and-wedge-in-the-open/|deadlink=no}}</ref> Более поздние разработки носят название «6-pack» и Wedge-100 и основаны на чипах Broadcom Tomahawk.<ref>{{cite web|url=https://code.facebook.com/posts/203733993317833/opening-designs-for-6-pack-and-wedge-100/|title=Opening designs for 6-pack and Wedge 100|website=Meet the engineers who code Facebook|date=2016-03-09|accessdate=2016-05-13|archive-date=2016-04-14|archive-url=https://web.archive.org/web/20160414140010/https://code.facebook.com/posts/203733993317833/opening-designs-for-6-pack-and-wedge-100/|deadlink=no}}</ref> Аналогичные конструкции аппаратного обеспечения были представлены компаниями Edge-Core Networks Corporation (отделение Accton), [[Mellanox|Mellanox Technologies]], Interface Masters Technologies и Agema Systems.<ref>{{cite web|url=http://www.opencompute.org/wiki/Networking/SpecsAndDesigns|title=Accepted or shared hardware specifications|website=Open Compute|accessdate=2016-05-13|archive-date=2016-05-14|archive-url=https://web.archive.org/web/20160514070908/http://www.opencompute.org/wiki/Networking/SpecsAndDesigns|deadlink=no}}</ref>, способные работать в {{iw|Open Network Install Environment|Open Network Install Environment|en|Open Network Install Environment}} (ONIE) [[Сетевая операционная система|совместимых сетевых операционных системах]], таких, как [[Cumulus Linux]], Switch Light OS от {{iw|Big Switch Networks|Big Switch Networks|en|Big Switch Networks}} или PICOS от {{iw|Pica8|Pica8|en|Pica8}}. Комментаторы предполагали, что аналогичный пользовательский коммутатор для {{iw|ЦОД Google|платформы Google|en|Google data centers}} разрабатывался с использованием протокола [[OpenFlow]].


=== OCP Experience Center ===
== OCP Experience Center ==
В 2019 году совместными усилиями участников сообщества был открыт европейский [https://circleb.eu/ocp-xc/ OCP Experience Center] {{Wayback|url=https://circleb.eu/ocp-xc/ |date=20201229095136 }} в Амстердаме.OCP Experience Center позволяет не только продемонстрировать участникам свои продукты, но также и увидеть программно-аппаратные решения, которые демонстрируют преимущества данной платформы.
В 2019 году совместными усилиями участников сообщества был открыт европейский Центр опыта OCP (OCP Experience Center) в Амстердаме. OCP Experience Center позволяет не только продемонстрировать участникам свои продукты, но также и увидеть программно-аппаратные решения, которые демонстрируют преимущества данной платформы.


== Судебный процесс ==
В декабре 2020 года в центре Москвы открывает свои двери первая Российская [https://ocplab.ru/ OCP Experience Lab]. И отличие в названии очень точно отражает цели, которые тут были поставлены – не просто показать, дать возможность «пощупать» продукты ведущих производителей OCP, а возможность собрать тестовый стенд для "обкатки" целевого промышленного программного обеспечения на серийных серверах в оптимальной конфигурации.
В марте 2015<ref>{{cite web|title=BladeRoom Group Limited et al v. Facebook, Inc.|url=https://dockets.justia.com/docket/california/candce/5:2015cv01370/286012|website=Justia|accessdate=2017-02-18|archive-date=2020-08-06|archive-url=https://web.archive.org/web/20200806100907/https://dockets.justia.com/docket/california/candce/5:2015cv01370/286012|deadlink=no}}</ref> BladeRoom Group Limited и Bripco (UK) Limited подали в суд на Facebook, [[Emerson Electric|Emerson Electric Co.]] и др., утверждая, что Facebook раскрыла торговые секреты BladeRoom и Bripco в области предсобранных центров обработки данных в Open Compute Project.<ref>{{cite web|title=ORDER granting in part and denying in part 128 Motion to Dismiss|url=https://docs.justia.com/cases/federal/district-courts/california/candce/5:2015cv01370/286012/193|website=Justia|accessdate=2017-02-18|archive-date=2020-08-06|archive-url=https://web.archive.org/web/20200806013923/https://docs.justia.com/cases/federal/district-courts/california/candce/5:2015cv01370/286012/193|deadlink=no}}</ref> Facebook ходатайствовала об отклонении иска<ref>{{cite news|last1=Greene|first1=Kat|title=Facebook Wants Data Center Trade Secrets Suit Tossed|url=https://www.law360.com/ip/articles/794537/facebook-wants-data-center-trade-secrets-suit-tossed|accessdate=2017-03-08|publisher=Law360|date=2016-05-10|archivedate=2020-08-06|archiveurl=https://web.archive.org/web/20200806034740/https://www.law360.com/ip/articles/794537/facebook-wants-data-center-trade-secrets-suit-tossed}}</ref>, но в 2017 году оно было отклонено.<ref>{{cite news|last1=SVERDLIK|first1=YEVGENIY|title=Court Throws Out Facebook’s Motion to Dismiss Data Center Design Lawsuit|url=http://www.datacenterknowledge.com/archives/2017/02/17/court-throws-facebooks-motion-dismiss-data-center-design-lawsuit/|accessdate=2017-03-08|publisher=Data center Knowledge|date=2017-02-17|archivedate=2018-10-06|archiveurl=https://web.archive.org/web/20181006155209/https://www.datacenterknowledge.com/archives/2017/02/17/court-throws-facebooks-motion-dismiss-data-center-design-lawsuit}}</ref>. Конфиденциальное урегулирование в середине судебного процесса было согласовано в апреле 2018<ref>{{cite web|title=Facebook settles $365m modular datacentre IP theft case with UK-based BladeRoom Group|url=https://www.computerweekly.com/news/252438774/Facebook-settles-365m-modular-datacentre-IP-theft-case-with-UK-based-BladeRoom-Group|website=Computer Weekly|date=2018-04-11|accessdate=2019-03-15|archive-date=2020-08-07|archive-url=https://web.archive.org/web/20200807221421/https://www.computerweekly.com/news/252438774/Facebook-settles-365m-modular-datacentre-IP-theft-case-with-UK-based-BladeRoom-Group|deadlink=no}}</ref>.

=== Судебный процесс ===
В марте 2015<ref>{{cite web|title=BladeRoom Group Limited et al v. Facebook, Inc.|url=https://dockets.justia.com/docket/california/candce/5:2015cv01370/286012|website=Justia|accessdate=2017-02-18|archive-date=2020-08-06|archive-url=https://web.archive.org/web/20200806100907/https://dockets.justia.com/docket/california/candce/5:2015cv01370/286012|deadlink=no}}</ref> BladeRoom Group Limited и Bripco (UK) Limited подали в суд на Facebook, [[Emerson Electric|Emerson Electric Co.]] и др., утверждая, что Facebook раскрыла торговые секреты BladeRoom и Bripco в области предсобранных центров обработки данных в Open Compute Project.<ref>{{cite web|title=ORDER granting in part and denying in part 128 Motion to Dismiss|url=https://docs.justia.com/cases/federal/district-courts/california/candce/5:2015cv01370/286012/193|website=Justia|accessdate=2017-02-18|archive-date=2020-08-06|archive-url=https://web.archive.org/web/20200806013923/https://docs.justia.com/cases/federal/district-courts/california/candce/5:2015cv01370/286012/193|deadlink=no}}</ref> Facebook ходатайствовала об отклонении иска,<ref>{{cite news|last1=Greene|first1=Kat|title=Facebook Wants Data Center Trade Secrets Suit Tossed|url=https://www.law360.com/ip/articles/794537/facebook-wants-data-center-trade-secrets-suit-tossed|accessdate=2017-03-08|publisher=Law360|date=2016-05-10|archivedate=2020-08-06|archiveurl=https://web.archive.org/web/20200806034740/https://www.law360.com/ip/articles/794537/facebook-wants-data-center-trade-secrets-suit-tossed}}</ref> но в 2017 оно было отклонено.<ref>{{cite news|last1=SVERDLIK|first1=YEVGENIY|title=Court Throws Out Facebook’s Motion to Dismiss Data Center Design Lawsuit|url=http://www.datacenterknowledge.com/archives/2017/02/17/court-throws-facebooks-motion-dismiss-data-center-design-lawsuit/|accessdate=2017-03-08|publisher=Data center Knowledge|date=2017-02-17|archivedate=2018-10-06|archiveurl=https://web.archive.org/web/20181006155209/https://www.datacenterknowledge.com/archives/2017/02/17/court-throws-facebooks-motion-dismiss-data-center-design-lawsuit}}</ref> Конфиденциальное урегулирование в середине судебного процесса было согласовано в апреле 2018.<ref>{{cite web|title=Facebook settles $365m modular datacentre IP theft case with UK-based BladeRoom Group|url=https://www.computerweekly.com/news/252438774/Facebook-settles-365m-modular-datacentre-IP-theft-case-with-UK-based-BladeRoom-Group|website=Computer Weekly|date=2018-04-11|accessdate=2019-03-15|archive-date=2020-08-07|archive-url=https://web.archive.org/web/20200807221421/https://www.computerweekly.com/news/252438774/Facebook-settles-365m-modular-datacentre-IP-theft-case-with-UK-based-BladeRoom-Group|deadlink=no}}</ref>


== Развитие ==
== Развитие ==
В 2017 объём рынка, охваченного технологиями OCP составил 1,16млрд $. В 2018 c 2,56млрд$ он удвоился, достигнув почти 1% от всего рынка ЦОД, с учётом снижения общего объёма в сегменте с 137 до 127 млрд$. По прогнозам в 2022 объём рынка OCP должен составить более 10млрд $, иными словами 5% от всего рынка ЦОД. С развитием сетей 5G и потребностей в [[Виртуализация|виртуализации]] ожидается преодоление [[Оператор связи|операторами связи]] объёма сделок в этом сегменте, осуществляемых {{iw|Оператор крупномасштабного центра обработки данных|операторами крупномасштабных центров обработки данных|en|Hyperscale computing}}. Преимущественное развитие отводится рынкам [[Америка|Америки]] и в меньшей степени стран {{iw|APAC|Азиатско-Тахоокеанского региона|en|APAC}}.
В 2017 году объём рынка, охваченного технологиями OCP составил $1,16 млрд. В 2018 году c $2,56 млрд он удвоился, достигнув почти 1 % от всего рынка ЦОД, с учётом снижения общего объёма в сегменте с 137 до $127 млрд. По прогнозам в 2022 объём рынка OCP должен составить более $10 млрд — 5 % от всего рынка ЦОД. С развитием сетей 5G и потребностей в [[Виртуализация|виртуализации]] ожидается преодоление [[Оператор связи|операторами связи]] объёма сделок в этом сегменте, осуществляемых {{iw|Оператор крупномасштабного центра обработки данных|операторами крупномасштабных центров обработки данных|en|Hyperscale computing}}. Преимущественное развитие отводится рынкам [[Америка|Америки]] и в меньшей степени стран {{iw|APAC|Азиатско-Тахоокеанского региона|en|APAC}}.


== Примечания ==
== Примечания ==

{{примечания}}
{{примечания}}


{{вс}}
== Ссылки ==


[[Категория:Открытое аппаратное обеспечение]]
* {{iw|Novena (вычислительная платформа)|Novena (вычислительная платформа)|en|Novena (computing platform)}}
[[Категория:Серверы]]
* {{iw|OpenBMC|OpenBMC|en|OpenBMC}}
[[Категория:Дата-центры]]
* {{iw|Open-source computing hardware|Open-source computing hardware|en|Open-source computing hardware}}
* {{iw|OpenPOWER Foundation|OpenPOWER Foundation|en|OpenPOWER Foundation}}
* {{iw|Telecom Infra Project|Telecom Infra Project|en|Telecom Infra Project}} – сестринская компания [[Facebook]], сфокусированная на {{iw|Оптические Сети|оптических|en|Optical networking}} [[Широкополосный доступ в Интернет|широкополосных сетях]] и открытых [[Сотовая связь|сотовых сетях]]

{{вс}}

Текущая версия от 12:19, 11 октября 2024

Open Compute Project
Тип организации Общественная организация
Основание
Дата основания 2011
Отрасль IT
Сайт opencompute.org

Open Compute Project (OCP) — проект по созданию открытых стандартов для инженерных систем и аппаратного обеспечения, ориентированный на снижение капитальных и операционных затрат на построение крупномасштабных центров обработки данных.

Создан в результате инициативы Facebook в апреле 2011 года, предполагавшей готовность корпорации открыто делиться наработками по итогам проекта модернизации центра в Прайнвилле (Орегон)[1][2]. В скором времени была учреждена некоммерческая организация с регистрацией в Дэлавере, членами которой стали многие крупные корпорации, в том числе Facebook, IBM, Intel, AMD. Генеральный директор фонда — Роки Баллок. В состав совета директоров входят 7 членов в лице 6 организаций и 1 физического лица (Энди Бехтольсхайма[англ.]). Марк Рёнигк (Facebook) является президентом и председателем фонда. Помимо Марка Рёнигка, который представляет Facebook, в совет Open Compute входят следующие организации: Intel (Джейсон Уаксман), Goldman Sachs (Джошуа Матеус), Rackspace (Джим Хоукинс) и Microsoft (Майк Нил)[3].

Основная цель — достичь универсальности и простоты масштабирования инфраструктуры и вычислительных мощностей. При этом манипуляции, производимые над оборудованием, должны минимально влиять на его работоспособность, производиться в режиме горячей замены и задействовать минимальное количество обслуживающего персонала, а также автоматизировать мониторинг потребляемых ресурсов и наблюдать статистику сбоев[4].

Сервер Open Compute V2

Через два года после старта работы над Open Compute Project, принимая во внимание стремление к максимально модульной конструкции, основатели признавали, что «новая концепция ещё далека от реальных требований центров обработки данных».[5] Тем не менее, некоторые обнародованные идеи были использованы в ЦОД Facebook в Прайнвилле для улучшения энергоэффективности, согласно измерениям PUE[англ.], параметра, разработанного The Green Grid[англ.][6].

Разработки по совершенствованию конструкции вычислительных узлов проводились с использованием процессоров Intel и AMD. В 2013 году Calxeda представила топологию с процессорами архитектуры ARM. С тех пор были представлены несколько поколений архитектур серверов OCP: Freedom (Intel), Spitfire (AMD), Windmill (Intel E5-2600), Watermark (AMD), Winterfall (Intel E5-2600 v2) и Leopard (Intel E5-2600 v3).[7][8]

Системы хранения

[править | править код]
Лоток с дисками Open Compute V2, 2-й нижний лоток выдвинут

Конструктивные блоки систем хранения Oven Vault (Knox) обеспечивают высокую плотность — 30 накопителей в корпусе 2 монтажных единицы Open Rack[англ.], разработанном для удобной горячей замены. Накопители размером 3,5 дюймов располагаются в двух ящиках, по пять в поперечнике и по три в глубину в каждом ящике, с подключением посредством SAS-интерфейса. Существует также холодный вариант системы, где незанятые накопители отключаются для снижения энергопотребления[9]. Другая концепция — разработка Synnex[англ.] (2012).

Монтажные стойки OCP имеют такую же наружную ширину (600 мм) и глубину, что и стандартные 19-дюймовые стойки, но позволяют осуществлять установку более широких шасси с шириной 537 мм (около 21 дюйма). Это позволяет разместить больше оборудования в том же самом объёме и улучшить прохождение потока воздуха. Размеры вычислительных шасси определяются как кратные OpenU[англ.], что составляет 48 мм, немного более, чем у обычного монтажной единицы.

Энергопотребление

[править | править код]

OCP опубликовала проекты центров обработки данных с улучшенным КПД, описывавшее распределение питания 277 В переменного тока, что исключает одну из стадий преобразования напряжения в типовых ЦОД. Система питания с единым выходным напряжением (12,5 В постоянного тока) предназначена для работы со входным напряжением 277В и включает в себя 48В аккумуляторные батареи.[6] Впоследствии уровни напряжения были адаптированы под различные региональные стандарты энергосетей, в том числе и принятые в России.

В первых поколениях серверов было решено отказаться от резервирования встроенных блоков питания и использовать по одному высокоэффективному преобразователю (80 PLUS), разработанному Power-One (принадлежит Bel Power Solutions), вместо традиционных двух. Это снижало надёжность оборудования, но улучшало показатели капитальных и операционных затрат ЦОД, так как помимо затрат на вспомогательные блоки, устранялось и энергопотребление «спящих» в резерве единиц. В дальнейшем этот подход эволюционировал в использование вынесенных в отдельные узлы модульных источников питания, так называемых Power Shelf. Всё полезное оборудование в стойке в данном случае подключено к 12В шине. С этого момента питание стоек было организовано напрямую от трёхфазной сети (реже от высоковольтной шины 300В постоянного тока). Дальнейшим развитием архитектуры стало избавление от отдельно стоящих ИБП и внедрению 48В аккумуляторных батарей горячей замены BBU (Battery Back-Up Unit) в состав силовых полок (Open Rack V2). Параллельное развитие получили решения с шиной 48В постоянного напряжения вместо 12В, которые позволяют достичь ещё более высокого КПД, но имеют и свои трудности.[10] Помимо того, шина 48В оказалась востребованной операторами сотовой связи при модернизации своей инфраструктуры под вычислительные требования сетей 5G и виртуализации.

В марте 2015 году Facebook сообщила, что использование OCP позволило им сэкономить $2 млрд в течение последних 3 лет[11] и достичь внушительных показателей PUE в пределах 1,05—1,10. В качестве подтверждения Facebook выложила в Интернете отчёты в реальном времени со своих центров обработки данных в Прайнвилле и Форест Сити[12][13].

Сетевые коммутаторы

[править | править код]

8 мая 2013 была предпринята попытка определить требования к сетевому коммутатору с открытой архитектурой.[14] Перед Facebook стояла задача установить на коммутатор собственную операционную систему. СМИ считали, что более дорогие и высокопроизводительные коммутаторы будут по-прежнему поставляться с собственным программным обеспечением, в то время, как менее дорогостоящие продукты, которые принято считать широкоупотребительными (обычно обозначаются с использованием модного слова «top-of-rack»), могут принять это предложение.[15]

Первая попытка создать сетевой коммутатор с открытой архитектурой была предпринята Facebook совместно с тайваньской ODM Accton[англ.] с использованием Broadcom Trident II и называется Wedge, а версия ОС Linux, на которой работает это устройство, называется FBOSS.[16][17][18] Более поздние разработки носят название «6-pack» и Wedge-100 и основаны на чипах Broadcom Tomahawk.[19] Аналогичные конструкции аппаратного обеспечения были представлены компаниями Edge-Core Networks Corporation (отделение Accton), Mellanox Technologies, Interface Masters Technologies и Agema Systems.[20], способные работать в Open Network Install Environment[англ.] (ONIE) совместимых сетевых операционных системах, таких, как Cumulus Linux, Switch Light OS от Big Switch Networks[англ.] или PICOS от Pica8[англ.]. Комментаторы предполагали, что аналогичный пользовательский коммутатор для платформы Google[англ.] разрабатывался с использованием протокола OpenFlow.

OCP Experience Center

[править | править код]

В 2019 году совместными усилиями участников сообщества был открыт европейский Центр опыта OCP (OCP Experience Center) в Амстердаме. OCP Experience Center позволяет не только продемонстрировать участникам свои продукты, но также и увидеть программно-аппаратные решения, которые демонстрируют преимущества данной платформы.

Судебный процесс

[править | править код]

В марте 2015[21] BladeRoom Group Limited и Bripco (UK) Limited подали в суд на Facebook, Emerson Electric Co. и др., утверждая, что Facebook раскрыла торговые секреты BladeRoom и Bripco в области предсобранных центров обработки данных в Open Compute Project.[22] Facebook ходатайствовала об отклонении иска[23], но в 2017 году оно было отклонено.[24]. Конфиденциальное урегулирование в середине судебного процесса было согласовано в апреле 2018[25].

В 2017 году объём рынка, охваченного технологиями OCP составил $1,16 млрд. В 2018 году c $2,56 млрд он удвоился, достигнув почти 1 % от всего рынка ЦОД, с учётом снижения общего объёма в сегменте с 137 до $127 млрд. По прогнозам в 2022 объём рынка OCP должен составить более $10 млрд — 5 % от всего рынка ЦОД. С развитием сетей 5G и потребностей в виртуализации ожидается преодоление операторами связи объёма сделок в этом сегменте, осуществляемых операторами крупномасштабных центров обработки данных[англ.]. Преимущественное развитие отводится рынкам Америки и в меньшей степени стран Азиатско-Тахоокеанского региона[англ.].

Примечания

[править | править код]
  1. Miller, Rich Will Open Compute Alter the Data Center Market? Data Center Knowledge (14 апреля 2011). Дата обращения: 9 июля 2013. Архивировано 12 ноября 2020 года.
  2. Bort, Julie How Facebook is eating the $140 billion hardware market. Business Insider. Дата обращения: 19 августа 2019. Архивировано 19 августа 2019 года.
  3. Board Members. Дата обращения: 19 августа 2019. Архивировано 16 июня 2019 года.
  4. Стойка OCP v2 и оборудование на YouTube
  5. Metz, Cade (2013-01-16). "Facebook Shatters the Computer Server Into Tiny Pieces". Wired. Архивировано 15 марта 2014. Дата обращения: 9 июля 2013.
  6. 1 2 Michael, Amir Facebook's Open Compute Project. Stanford EE Computer Systems Colloquium. Stanford University (15 февраля 2012). Дата обращения: 5 сентября 2019. Архивировано 19 января 2013 года. (video archive)
  7. Data Center Knowledge. Guide to Facebook’s Open Source Data Center Hardware (28 апреля 2016). Дата обращения: 13 мая 2016. Архивировано 15 августа 2019 года.
  8. Register, The Facebook rolls out new web and database server designs (17 января 2013). Дата обращения: 13 мая 2016. Архивировано 1 февраля 2017 года.
  9. Under the hood: Facebook’s cold storage system (4 мая 2015). Дата обращения: 13 мая 2016. Архивировано 8 ноября 2020 года.
  10. Rack and Power (5 сентября 2019). Дата обращения: 15 марта 2022. Архивировано 18 мая 2021 года.
  11. Facebook nets billions in savings from Open Compute Project (11 марта 2015). Дата обращения: 5 сентября 2019. Архивировано 12 августа 2020 года.
  12. Prineville, OR Data Center (5 сентября 2019). Дата обращения: 5 сентября 2019. Архивировано 26 октября 2019 года.
  13. Forest City, NC Data Center (5 сентября 2019). Дата обращения: 5 сентября 2019. Архивировано 19 ноября 2019 года.
  14. Jay Hauser for Frank Frankovsky. Up next for the Open Compute Project: The Network. Open Compute blog (8 мая 2013). Дата обращения: 16 июня 2019. Архивировано 16 июня 2019 года.
  15. Chernicoff, David (2013-05-09). "Can Open Compute change network switching?". ZDNet. Архивировано 2 февраля 2014. Дата обращения: 9 июля 2013.
  16. Facebook Open Switching System (FBOSS) from Facebook. SDxCentral. Дата обращения: 5 сентября 2019. Архивировано из оригинала 1 октября 2018 года.
  17. Introducing "Wedge" and "FBOSS," the next steps toward a disaggregated network. Meet the engineers who code Facebook (18 июня 2014). Дата обращения: 13 мая 2016. Архивировано 26 апреля 2016 года.
  18. Facebook Open Switching System ("FBOSS") and Wedge in the open. Meet the engineers who code Facebook (10 марта 2015). Дата обращения: 13 мая 2016. Архивировано 2 июля 2016 года.
  19. Opening designs for 6-pack and Wedge 100. Meet the engineers who code Facebook (9 марта 2016). Дата обращения: 13 мая 2016. Архивировано 14 апреля 2016 года.
  20. Accepted or shared hardware specifications. Open Compute. Дата обращения: 13 мая 2016. Архивировано 14 мая 2016 года.
  21. BladeRoom Group Limited et al v. Facebook, Inc. Justia. Дата обращения: 18 февраля 2017. Архивировано 6 августа 2020 года.
  22. ORDER granting in part and denying in part 128 Motion to Dismiss. Justia. Дата обращения: 18 февраля 2017. Архивировано 6 августа 2020 года.
  23. Greene, Kat (2016-05-10). "Facebook Wants Data Center Trade Secrets Suit Tossed". Law360. Архивировано 6 августа 2020. Дата обращения: 8 марта 2017.
  24. SVERDLIK, YEVGENIY (2017-02-17). "Court Throws Out Facebook's Motion to Dismiss Data Center Design Lawsuit". Data center Knowledge. Архивировано 6 октября 2018. Дата обращения: 8 марта 2017.
  25. Facebook settles $365m modular datacentre IP theft case with UK-based BladeRoom Group. Computer Weekly (11 апреля 2018). Дата обращения: 15 марта 2019. Архивировано 7 августа 2020 года.