CUDA: различия между версиями
[отпатрулированная версия] | [отпатрулированная версия] |
Спасено источников — 1, отмечено мёртвыми — 0. Сообщить об ошибке. См. FAQ.) #IABot (v2.0.9.5 |
|||
(не показано 220 промежуточных версий, сделанных более чем 100 участниками) | |||
Строка 1: | Строка 1: | ||
{{Программа |
|||
'''CUDA''' ({{lang-en|Compute Unified Device Architecture}}) — программно-аппаратная архитектура, позволяющая производить вычисления с использованием [[Графический процессор|графических процессоров]] [[NVIDIA]], поддерживающих технологию [[GPGPU]] (произвольных вычислений на видеокартах). Архитектура CUDA впервые появились на рынке с выходом [[GeForce 8|чипа NVIDIA восьмого поколения]] — G80 и присутствует во всех последующих сериях графических чипов, которые используются в семействах ускорителей [[GeForce]], [[Nvidia Quadro|Quadro]] и [[NVidia Tesla|Tesla]]. |
|||
| name = CUDA |
|||
| screenshot = |
|||
| caption = A parallel computing platform and programming model |
|||
| developer = [[NVIDIA Corporation]] |
|||
| operating_system = [[Windows]], [[Linux]] |
|||
| platform = [[#Поддерживаемые GPU и графические ускорители|Поддерживаемые GPU]] |
|||
| последняя версия = 12.4<ref>{{Cite web|url=https://developer.nvidia.com/cuda-downloads|title=CUDA Toolkit 12.4 Downloads|publisher=NVIDIA|lang=en|access-date=2024-03-25|archive-date=2024-03-24|archive-url=https://web.archive.org/web/20240324061334/https://developer.nvidia.com/cuda-downloads|url-status=live}}</ref> |
|||
| genre = [[GPGPU]] |
|||
| дата последней версии = |
|||
| license = [[бесплатное программное обеспечение]] |
|||
| website = https://developer.nvidia.com/cuda-zone |
|||
}} |
|||
'''CUDA''' (изначально аббр. от {{lang-en|Compute Unified Device Architecture}}) — программно-аппаратная архитектура [[параллельные вычисления|параллельных вычислений]], которая позволяет существенно увеличить вычислительную производительность благодаря использованию [[Графический процессор|графических процессоров]] фирмы [[Nvidia]]. |
|||
CUDA SDK позволяет программистам реализовывать на |
CUDA [[SDK]] позволяет программистам реализовывать на специальных упрощённых диалектах языков программирования [[Си (язык программирования)|Си]], [[C++]] и [[Фортран]] алгоритмы, выполнимые на графических и тензорных процессорах Nvidia<ref>[https://developer.nvidia.com/language-solutions Language Solutions] {{Wayback|url=https://developer.nvidia.com/language-solutions |date=20181016165001 }} / NVIDIA,{{ref-en}}</ref>. Архитектура CUDA даёт разработчику возможность по своему усмотрению организовывать доступ к набору инструкций графического или тензорного ускорителя и управлять его памятью. Функции, ускоренные при помощи CUDA, можно вызывать из различных языков, в том числе [[Python]]<ref>{{Cite web |url=https://developer.nvidia.com/pycuda |title=PyCUDA {{!}} NVIDIA Developer |access-date=2018-10-16 |archive-date=2018-10-17 |archive-url=https://web.archive.org/web/20181017042921/https://developer.nvidia.com/pycuda |deadlink=no }}</ref>, [[MATLAB]]<ref>{{Cite web |url=https://www.mathworks.com/solutions/gpu-computing.html |title=MATLAB GPU Computing Support for NVIDIA CUDA-Enabled GPUs |access-date=2020-09-01 |archive-date=2020-08-09 |archive-url=https://web.archive.org/web/20200809150754/https://www.mathworks.com/solutions/gpu-computing.html |deadlink=no }}</ref> и т. п. |
||
== Программная архитектура == |
== Программная архитектура == |
||
Первоначальная версия CUDA [[SDK]] была представлена [[15 февраля]] [[2007 год]]а. В основе [[Интерфейс программирования приложений|интерфейса программирования приложений]] CUDA лежит язык [[Си (язык программирования)|Си]] с некоторыми расширениями. Для успешной трансляции кода на этом языке в состав CUDA SDK входит собственный Си-компилятор командной строки '''nvcc''' компании Nvidia. Компилятор '''nvcc''' создан на основе открытого компилятора [[Open64]] и предназначен для трансляции host-кода (главного, управляющего кода) и device-кода (аппаратного кода) (файлов с расширением <tt>.cu</tt>) в объектные файлы, пригодные в процессе сборки конечной программы или библиотеки в любой среде программирования. |
|||
В архитектуре CUDA используется модель памяти [[грид]], [[Кластер (группа компьютеров)|кластерное моделирование]] [[Многопоточность|потоков]] и [[SIMD]]-инструкции. Применима не только для высокопроизводительных графических вычислений, но и для научных вычислений с использованием видеокарт nVidia. Учёные и исследователи используют CUDA таких областях, как [[астрофизика]], [[вычислительная биология]] и [[Вычислительная химия|химия]], [[Моделирование жидкости|моделирование динамики жидкостей]], [[Электромагнитное взаимодействие|электромагнитные взаимодействия]], [[компьютерная томография]], [[сейсмический анализ]] и др. В CUDA имеется возможность подключения к приложениям, использующим [[OpenGL]] и [[Direct3D]]. CUDA — [[кроссплатформенное программное обеспечение]] с поддержкой [[операционная система|операционных систем]] [[Linux]], [[Mac OS X]] и [[Windows]]. |
|||
Первоначальная версия CUDA [[SDK]] была представлена [[15 февраля]] [[2007 год]]а. В основе CUDA API лежит язык Си с некоторыми ограничениями. Для успешной трансляции кода на этом языке, в состав CUDA SDK входит собственный Си-компилятор командной строки '''nvcc''' компании Nvidia. Компилятор '''nvcc''' создан на основе открытого компилятора [[Open64]] и предназначен для трансляции host-кода (главного, управляющего кода) и device-кода (аппаратного кода) (файлов с расширением <tt>.cu</tt>) в объектные файлы, пригодные в процессе сборки конечной программы или библиотеки в любой среде программирования, например в [http://netbeans.org/ NetBeans]. |
|||
22 марта 2010 года nVidia выпустила CUDA Toolkit 3.0 с поддержкой [[OpenCL]]<ref>{{cite web|url=http://www.brightsideofnews.com/news/2010/3/22/nvidia-launches-cuda-toolkit-302c-expands-opencl.aspx|title=nVidia Launches CUDA Toolkit 3.0, expands OpenCL|author=Theo Valich|publisher=[[Bright Side Of News]]|datepublished=2010-03-22|accessdate=2010-04-05|lang=en|archiveurl=https://www.webcitation.org/65tfxtFWz?url=http://www.brightsideofnews.com/default.aspx|archivedate=2012-03-03}}</ref>. |
|||
Использует grid-модель памяти, кластерное моделирование потоков и [[SIMD]] инструкции. Применим в основном для высокопроизводительных графических вычислений и разработок NVIDIA-совместимого графического API. Включена возможность подключения к приложениям, использующим [[OpenGL]] и [[Direct3D|Microsoft Direct3D 9]]. Создан в версиях для [[Linux]], [[Mac OS X]], [[Windows]]. |
|||
22 марта 2010 года nVidia выпустила CUDA Toolkit 3.0, который содержал поддержку [[OpenCL]].<ref>{{cite web|url= http://www.brightsideofnews.com/news/2010/3/22/nvidia-launches-cuda-toolkit-302c-expands-opencl.aspx |title= nVidia Launches CUDA Toolkit 3.0, expands OpenCL |author=Theo Valich |publisher= [[Bright Side Of News]] |datepublished= 22 марта 2010 года |accessdate= 5 апреля 2010 |lang= en}}</ref> |
|||
== Оборудование == |
== Оборудование == |
||
Платформа CUDA впервые появились на рынке с выходом [[GeForce 8|чипа NVIDIA восьмого поколения]] G80 и стала присутствовать во всех последующих сериях графических чипов, которые используются в семействах ускорителей [[GeForce]], [[Nvidia Quadro|Quadro]] и [[NVidia Tesla]]. |
|||
Первая серия оборудования, поддерживающая CUDA SDK, G8x, имела 32-битный [[векторный процессор]] [[Число одинарной точности|одинарной точности]], использующий CUDA SDK как API (CUDA поддерживает тип <code>[[Число двойной точности|double]]</code> языка Си, однако сейчас его точность понижена до 32-битного с [[Числа с плавающей запятой|плавающей запятой]]). Более поздние процессоры GT200 имеют поддержку 64-битной точности (только для SFU), но производительность значительно хуже, чем для 32-битной точности (из-за того что SFU всего 2 на каждый потоковый мультипроцессор, а скалярных процессоров 8). Графический процессор организует аппаратную многопоточность, что позволяет задействовать все ресурсы графического процессора. Таким образом, открывается перспектива переложить функции [[Физический ускоритель|физического ускорителя]] на графический ускоритель (пример реализации — [[PhysX SDK (движок)|nVidia PhysX]]). Также открываются широкие возможности использования графического оборудования компьютера для выполнения сложных неграфических вычислений: например, в [[Вычислительная биология|вычислительной биологии]] и в иных отраслях науки. |
|||
Первая серия оборудования, поддерживающая CUDA SDK, G8x, имела 32-битный [[векторный процессор]] [[Число одинарной точности|одинарной точности]], использующий CUDA SDK как API (CUDA поддерживает тип <code>[[Число двойной точности|double]]</code> языка Си, однако сейчас его точность понижена до 32-битного с [[Числа с плавающей запятой|плавающей запятой]]). Более поздние процессоры GT200 имеют поддержку 64-битной точности (только для SFU), но производительность значительно хуже, чем для 32-битной точности (из-за того, что SFU всего два на каждый потоковый мультипроцессор, а скалярных процессоров — восемь). Графический процессор организует аппаратную многопоточность, что позволяет задействовать все ресурсы графического процессора. Таким образом, открывается перспектива переложить функции [[Физический ускоритель|физического ускорителя]] на графический ускоритель (пример реализации — [[PhysX]]). Также открываются широкие возможности использования графического оборудования компьютера для выполнения сложных неграфических вычислений: например, в [[Вычислительная биология|вычислительной биологии]] и в иных отраслях науки. |
|||
== Преимущества == |
== Преимущества == |
||
По сравнению с традиционным подходом к организации вычислений общего назначения посредством возможностей графических API, у архитектуры CUDA отмечают следующие преимущества в этой области: |
По сравнению с традиционным подходом к организации вычислений общего назначения посредством возможностей графических API, у архитектуры CUDA отмечают следующие преимущества в этой области: |
||
* Интерфейс программирования приложений CUDA (CUDA API) основан на стандартном языке программирования Си с некоторыми ограничениями. По мнению разработчиков, это должно упростить и сгладить процесс изучения архитектуры CUDA<ref>См. Официальное руководство по программированию на CUDA, вер. 1.1 // [http://developer.download.nvidia.com/compute/cuda/1_1/NVIDIA_CUDA_Programming_Guide_1.1.pdf CUDA Programming Guide]. Chapter 1. Introduction to CUDA → 1.2 CUDA: A New Architecture for Computing on the GPU</ref> |
* [[Интерфейс программирования приложений]] CUDA (CUDA API) основан на стандартном языке программирования Си с некоторыми ограничениями. По мнению разработчиков, это должно упростить и сгладить процесс изучения архитектуры CUDA<ref>См. Официальное руководство по программированию на CUDA, вер. 1.1 // [http://developer.download.nvidia.com/compute/cuda/1_1/NVIDIA_CUDA_Programming_Guide_1.1.pdf CUDA Programming Guide] {{Wayback|url=http://developer.download.nvidia.com/compute/cuda/1_1/NVIDIA_CUDA_Programming_Guide_1.1.pdf |date=20081006104000 }}. Chapter 1. Introduction to CUDA → 1.2 CUDA: A New Architecture for Computing on the GPU</ref>; |
||
* Разделяемая между потоками память (shared memory) размером в 16 Кб может быть использована под организованный пользователем кэш с более широкой полосой пропускания, чем при выборке из обычных текстур |
* Разделяемая между потоками память (shared memory) размером в 16 Кб может быть использована под организованный пользователем кэш с более широкой полосой пропускания, чем при выборке из обычных текстур; |
||
* Более эффективные транзакции между памятью центрального процессора и видеопамятью |
* Более эффективные транзакции между памятью центрального процессора и видеопамятью; |
||
* Полная аппаратная поддержка целочисленных и побитовых операций |
* Полная аппаратная поддержка целочисленных и побитовых операций; |
||
* Поддержка компиляции кода GPU средствами открытого проекта [[Low Level Virtual Machine|LLVM]]<ref>{{Cite web |url=http://www.opennet.ru/opennews/art.shtml?num=33800 |title=NVIDIA передала CUDA Compiler в руки сообщества LLVM — opennet.ru |access-date=2012-05-13 |archive-date=2012-05-13 |archive-url=https://web.archive.org/web/20120513054726/http://www.opennet.ru/opennews/art.shtml?num=33800 |deadlink=no }}</ref>. |
|||
== Ограничения == |
== Ограничения == |
||
* Все функции, выполнимые на устройстве, не поддерживают рекурсии (в версии CUDA Toolkit 3.1 поддерживает указатели и рекурсию) и имеют некоторые другие ограничения |
* Все функции, выполнимые на устройстве, не поддерживают рекурсии (в версии CUDA Toolkit 3.1 поддерживает указатели и рекурсию) и имеют некоторые другие ограничения. |
||
* Архитектуру CUDA поддерживает и развивает только производитель NVidia |
|||
== Поддерживаемые GPU и графические ускорители |
== Поддерживаемые GPU и графические ускорители == |
||
Перечень устройств от производителя оборудования Nvidia с заявленной полной поддержкой технологии CUDA приведён на официальном сайте Nvidia<ref>[http://www.nvidia.com/object/cuda_learn_products.html CUDA-Enabled GPU Products] {{Wayback|url=http://www.nvidia.com/object/cuda_learn_products.html |date=20080405105317 }}{{ref-en}}</ref><ref>{{Cite web |url=http://www.nvidia.ru/object/cuda_learn_products_ru.html |title=Продукты с поддержкой CUDA — NVIDIA |accessdate=2010-02-26 |archiveurl=https://web.archive.org/web/20100226083058/http://www.nvidia.ru/object/cuda_learn_products_ru.html |archivedate=2010-02-26 |deadlink=no }}</ref>. |
|||
Совместимость систем разработчика CUDA с поколениями вычислителей: |
|||
Перечень устройств от производителя оборудования Nvidia с заявленной полной поддержкой технологии CUDA приведён на официальном сайте Nvidia: [http://www.nvidia.com/object/cuda_learn_products.html CUDA-Enabled GPU Products]{{ref-en}}. |
|||
* CUDA SDK 6.0 поддерживает версии 1.0 — 3.5 (Tesla, Fermi, Kepler). |
|||
* CUDA SDK 6.5 поддерживает версии 1.0 — 5.x (Tesla, Fermi, Kepler, Maxwell). |
|||
* CUDA SDK 7.5 поддерживает версии 2.0 — 5.x (Fermi, Kepler, Maxwell). |
|||
* CUDA SDK 8.0 поддерживает версии 2.0 — 6.x (Fermi, Kepler, Maxwell, Pascal). |
|||
* CUDA SDK 9.0/9.1/9.2 поддерживает версии 3.0 — 7.2 (Kepler, Maxwell, Pascal, Volta) |
|||
* CUDA SDK 10.0 поддерживает версии 3.0 — 7.5 (Kepler, Maxwell, Pascal, Volta, Turing) |
|||
В настоящее время на рынке аппаратных средств для ПК поддержку технологии CUDA обеспечивают следующие периферийные устройства: |
|||
Фактически же, в настоящее время на рынке аппаратных средств для ПК поддержку технологии CUDA обеспечивают следующие периферийные устройства<ref name="GPU с CUDA" />: |
|||
{| class="wikitable" style="font-size: 85%; text-align: center; width: auto;" |
{| class="wikitable" style="font-size: 85%; text-align: center; width: auto;" |
||
|- |
|- |
||
! Версия |
|||
! Compute <br /> capability<br /> (version) |
|||
спецификации |
|||
! GPUs |
|||
! Архитектура |
|||
! GPU |
|||
! Видеокарты семейства GeForce |
|||
! Видеокарты семейства Quadro, NVS |
|||
! Видеокарты семейства Tesla |
|||
! Видеокарты семейства |
|||
Tegra,<br>Jetson,<br>DRIVE |
|||
|- |
|- |
||
|1.0 |
| 1.0 |
||
| rowspan="4" | Tesla |
|||
|G80 |
|||
| G80 |
|||
|GeForce 8800 Ultra, GeForce 8800 GTX, GeForce 8800 GTS(G80) |
|||
|Quadro FX 5600, Quadro FX 4600, Quadro Plex 2100 S4 |
|||
|Tesla C870, Tesla D870, Tesla S870 |
|||
| |
|||
|- |
|- |
||
|1.1 |
| 1.1 |
||
| |
|G92, G94, G96, G98, G84, G86 |
||
|GeForce GTS 250, GeForce 9800 GX2, GeForce 9800 GTX, GeForce 9800 GT, GeForce 8800 GTS(G92), GeForce 8800 GT, GeForce 9600 GT, GeForce 9500 GT, GeForce 9400 GT, GeForce 8600 GTS, GeForce 8600 GT, GeForce 8500 GT,<br>GeForce G110M, GeForce 9300M GS, GeForce 9200M GS, GeForce 9100M G, GeForce 8400M GT, GeForce G105M |
|||
|Quadro FX 4700 X2, Quadro FX 3700, Quadro FX 1800, Quadro FX 1700, Quadro FX 580, Quadro FX 570, Quadro FX 470, Quadro FX 380, Quadro FX 370, Quadro FX 370 Low Profile, Quadro NVS 450, Quadro NVS 420, Quadro NVS 290, Quadro NVS 295, Quadro Plex 2100 D4,<br>Quadro FX 3800M, Quadro FX 3700M, Quadro FX 3600M, Quadro FX 2800M, Quadro FX 2700M, Quadro FX 1700M, Quadro FX 1600M, Quadro FX 770M, Quadro FX 570M, Quadro FX 370M, Quadro FX 360M, Quadro NVS 320M, Quadro NVS 160M, Quadro NVS 150M, Quadro NVS 140M, Quadro NVS 135M, Quadro NVS 130M, Quadro NVS 450, Quadro NVS 420, Quadro NVS 295 |
|||
| |
|||
| |
|||
|- |
|- |
||
|1.2 |
|1.2 |
||
|GT218, GT216, GT215 |
|GT218, GT216, GT215 |
||
|GeForce GT 340*, GeForce GT 330*, GeForce GT 320*, GeForce 315*, GeForce 310*, GeForce GT 240, GeForce GT 220, GeForce 210,<br>GeForce GTS 360M, GeForce GTS 350M, GeForce GT 335M, GeForce GT 330M, GeForce GT 325M, GeForce GT 240M, GeForce G210M, GeForce 310M, GeForce 305M |
|||
|Quadro FX 380 Low Profile, Nvidia NVS 300, Quadro FX 1800M, Quadro FX 880M, Quadro FX 380M, Nvidia NVS 300, NVS 5100M, NVS 3100M, NVS 2100M, ION |
|||
| |
|||
| |
|||
|- |
|- |
||
|1.3 |
|1.3 |
||
|GT200, GT200b |
|GT200, GT200b |
||
|GeForce GTX 295, GTX 285, GTX 280, GeForce GTX 275, GeForce GTX 260 |
|||
|Quadro FX 5800, Quadro FX 4800, Quadro FX 4800 for Mac, Quadro FX 3800, Quadro CX, Quadro Plex 2200 D2 |
|||
|Tesla C1060, Tesla S1070, Tesla M1060 |
|||
| |
|||
|- |
|- |
||
|2.0 |
|2.0 |
||
| rowspan="2" | Fermi |
|||
|GF100, GF110 |
|GF100, GF110 |
||
|GeForce GTX 590, GeForce GTX 580, GeForce GTX 570, GeForce GTX 480, GeForce GTX 470, GeForce GTX 465, GeForce GTX 480M |
|||
|Quadro 6000, Quadro 5000, Quadro 4000, Quadro 4000 for Mac, Quadro Plex 7000, Quadro 5010M, Quadro 5000M |
|||
|Tesla C2075, Tesla C2050/C2070, Tesla M2050/M2070/M2075/M2090 |
|||
| |
|||
|- |
|- |
||
|2.1 |
|2.1 |
||
| |
|GF104, GF106 GF108, GF114, GF116, GF117, GF119 |
||
|GeForce GTX 560 Ti, GeForce GTX 550 Ti, GeForce GTX 460, GeForce GTS 450, GeForce GTS 450*, GeForce GT 640 (GDDR3), GeForce GT 630, GeForce GT 620, GeForce GT 610, GeForce GT 520, GeForce GT 440, GeForce GT 440*, GeForce GT 430, GeForce GT 430*, GeForce GT 420*,<br>GeForce GTX 675M, GeForce GTX 670M, GeForce GT 635M, GeForce GT 630M, GeForce GT 625M, GeForce GT 720M, GeForce GT 620M, GeForce 710M, GeForce 610M, GeForce 820M, GeForce GTX 580M, GeForce GTX 570M, GeForce GTX 560M, GeForce GT 555M, GeForce GT 550M, GeForce GT 540M, GeForce GT 525M, GeForce GT 520MX, GeForce GT 520M, GeForce GTX 485M, GeForce GTX 470M, GeForce GTX 460M, GeForce GT 445M, GeForce GT 435M, GeForce GT 420M, GeForce GT 415M, GeForce 710M, GeForce 410M, GeForce GT 730 (DDR3 128-bit) |
|||
|Quadro 2000, Quadro 2000D, Quadro 600, Quadro 410, Quadro 4000M, Quadro 3000M, Quadro 2000M, Quadro 1000M, NVS 310, NVS 315, NVS 5400M, NVS 5200M, NVS 4200M |
|||
| |
|||
| |
|||
|- |
|||
|3.0 |
|||
| rowspan="4" | Kepler |
|||
|GK104, GK106, GK107 |
|||
|GeForce GTX 770, GeForce GTX 760, GeForce GT 740, GeForce GTX 690, GeForce GTX 680, GeForce GTX 670, GeForce GTX 660 Ti, GeForce GTX 660, GeForce GTX 650 Ti BOOST, GeForce GTX 650 Ti, GeForce GTX 650,<br>GeForce GTX 880M, GeForce GTX 780M, GeForce GTX 770M, GeForce GTX 765M, GeForce GTX 760M, GeForce GTX 680MX, GeForce GTX 680M, GeForce GTX 675MX, GeForce GTX 670MX, GeForce GTX 660M, GeForce GT 750M, GeForce GT 650M, GeForce GT 745M, GeForce GT 645M, GeForce GT 740M, GeForce GT 730M, GeForce GT 640M, GeForce GT 640M LE, GeForce GT 735M, GeForce GT 730M |
|||
|Quadro K5000, Quadro K4200, Quadro K4000, Quadro K2000, Quadro K2000D, Quadro K600, Quadro K500M, Quadro K510M, Quadro K610M, Quadro K1000M, Quadro K2000M, Quadro K1100M, Quadro K2100M, Quadro K3000M, Quadro K3100M, Quadro K4000M, Quadro K5000M, Quadro K4100M, Quadro K5100M, NVS 510 |
|||
|Tesla K10, GRID K340, GRID K520 |
|||
| |
|||
|- |
|||
|3.2 |
|||
|GK20A |
|||
| |
|||
| |
|||
| |
|||
|Tegra K1,<br>Jetson TK1 |
|||
|- |
|||
|3.5 |
|||
|GK110, GK208 |
|||
|GeForce GTX Titan Z, GeForce GTX Titan Black, GeForce GTX Titan, GeForce GTX 780 Ti, GeForce GTX 780, GeForce GT 640 (GDDR5), GeForce GT 630 v2, GeForce GT 730, GeForce GT 720, GeForce GT 710, GeForce GT 740M (64-bit, DDR3), GeForce GT 920M |
|||
|Quadro K6000, Quadro K5200 |
|||
|Tesla K40, Tesla K20x, Tesla K20 |
|||
| |
|||
|- |
|||
|3.7 |
|||
|GK210 |
|||
| |
|||
| |
|||
| Tesla K80 |
|||
| |
|||
|- |
|||
|5.0 |
|||
| rowspan="3" | Maxwell |
|||
|GM107, GM108 |
|||
|GeForce GTX 750 Ti, GeForce GTX 750, GeForce GTX 960M, GeForce GTX 950M, GeForce 940M, GeForce 930M, GeForce GTX 860M, GeForce GTX 850M, GeForce 845M, GeForce 840M, GeForce 830M |
|||
|Quadro K420, Quadro K620, Quadro K1200, Quadro K2200, Quadro M2000M, Quadro M1000M, Quadro M600M, Quadro K620M, NVS 810 |
|||
|Tesla M10 |
|||
| |
|||
|- |
|||
|5.2 |
|||
|GM200, GM204, GM206 |
|||
|GeForce GTX Titan X, GeForce GTX 980 Ti, GeForce GTX 980, GeForce GTX 970, GeForce GTX 960, GeForce GTX 950, GeForce GTX 750 SE, GeForce GTX 980M, GeForce GTX 970M, GeForce GTX 965M |
|||
|Quadro M6000 24GB, Quadro M6000, Quadro M5000, Quadro M4000, Quadro M2000, Quadro M5500, Quadro M5000M, Quadro M4000M, Quadro M3000M |
|||
|Tesla M4, Tesla M40, Tesla M6, Tesla M60 |
|||
| |
|||
|- |
|||
|5.3 |
|||
|GM20B |
|||
| |
|||
| |
|||
| |
|||
|Tegra X1,<br>Jetson TX1,<br>DRIVE CX,<br>DRIVE PX |
|||
|- |
|||
|6.0 |
|||
| rowspan="3" |Pascal |
|||
|GP100 |
|||
| |
|||
| Quadro GP100 |
|||
| Tesla P100 |
|||
| |
|||
|- |
|||
|6.1 |
|||
|GP102, GP104, GP106, GP107, GP108 |
|||
|Nvidia TITAN Xp, Titan X, GeForce GTX 1080 Ti, GTX 1080, GTX 1070, GTX 1060, GTX 1050 Ti, GTX 1050, GT 1030, MX150 |
|||
|Quadro P6000, Quadro P5000, Quadro P4000, Quadro P2000, Quadro P1000, Quadro P600, Quadro P400, Quadro P5000(Mobile), Quadro P4000(Mobile), Quadro P3000(Mobile) |
|||
|Tesla P40, Tesla P6, Tesla P4 |
|||
| |
|||
|- |
|||
|6.2 |
|||
|GP10B<ref>{{cite web|url=http://www.phoronix.com/scan.php?page=news_item&px=Tegra-X2-Nouveau-Support|title=NVIDIA Rolls Out Tegra X2 GPU Support In Nouveau|last=Larabel|first=Michael|author-link=Michael Larabel|publisher=[[Phoronix]]|date=2017-03-29|access-date=2017-08-08|archive-date=2017-08-09|archive-url=https://web.archive.org/web/20170809090937/http://www.phoronix.com/scan.php?page=news_item&px=Tegra-X2-Nouveau-Support|deadlink=no}}</ref> |
|||
| |
|||
| |
|||
| |
|||
|Drive PX2 with Tegra X2 (T186)<ref>{{cite web|url=https://github.com/torch/cutorch/issues/571|title=Discussion of LUA compilation on Drive PX2|work=Bernhard Schuster|publisher=GitHub|access-date=2017-11-09|archive-date=2020-09-06|archive-url=https://web.archive.org/web/20200906212804/https://github.com/torch/cutorch/issues/571|deadlink=no}}</ref> Jetson TX2 |
|||
|- |
|||
|7.0 |
|||
| rowspan="2" |Volta |
|||
|GV100 |
|||
|Nvidia TITAN V |
|||
|Quadro GV100 |
|||
|Tesla V100, |
|||
Tesla V100S |
|||
| |
|||
|- |
|||
|7.2 |
|||
|GV10B<ref>[https://www.techpowerup.com/gpudb/3232/xavier Nvidia Xavier Specs] {{Wayback|url=https://www.techpowerup.com/gpudb/3232/xavier |date=20180821093922 }} on TechPowerUp (preliminary)</ref> |
|||
| |
|||
| |
|||
| |
|||
|Jetson Xavier, DRIVE PX Xavier/Pegasus<br>with Xavier SoC |
|||
|- |
|||
|7.5 |
|||
||Turing |
|||
|TU102, TU104, TU106 |
|||
|NVIDIA TITAN RTX, |
|||
GeForce RTX 2080 Ti, RTX 2080 Super, RTX 2080, RTX 2070 Super, RTX 2070, RTX 2060 Super, RTX 2060, |
|||
GeForce GTX 1660 Ti, GTX 1660 Super, GTX 1660, GTX 1650 Super, GTX 1650 |
|||
|Quadro RTX 8000, Quadro RTX 6000, Quadro RTX 5000, Quadro RTX 4000, Quadro RTX 3000, |
|||
Quadro T2000, Quadro T1000, Quadro T600 |
|||
|Tesla T4 |
|||
| |
|||
|- |
|||
|8.0 |
|||
| rowspan="2" |[[Ampere (микроархитектура)|Ampere]] |
|||
|GA100 |
|||
| |
|||
| |
|||
|A100 80GB, A100 40GB |
|||
| |
|||
|- |
|||
|8.6 |
|||
|GA102, GA104, GA106, GA107 |
|||
|GeForce RTX 3090 Ti, RTX 3090, RTX 3080 Ti, RTX 3080, RTX 3070 Ti, RTX 3070, RTX 3060 Ti, RTX 3060, RTX 3050 Ti, RTX 3050 |
|||
|RTX A6000 |
|||
|A2, A10, A16, A40 |
|||
| |
|||
|- |
|||
|8.9 |
|||
|Ada Lovelace |
|||
|AD102, AD103, AD104, AD106, AD107 |
|||
|GeForce RTX 4090, RTX 4080, RTX 4070 Ti, RTX 4070, RTX 4060 Ti, RTX 4060 |
|||
|RTX 6000 (Ada Generation) |
|||
|L40, L4 |
|||
| |
|||
|} |
|} |
||
{| |
{| |
||
|valign="top"| |
|||
| |
|||
{| class=" |
{| class="simple" |
||
![[GeForce|Nvidia GeForce |
![[GeForce|Nvidia GeForce для настольных компьютеров]] |
||
|- |
|||
|GeForce GTX TITAN, X, Z, Black |
|||
|- |
|||
|GeForce RTX 4060/Ti, RTX 4070/Ti, RTX 4080, RTX 4090 |
|||
|- |
|||
|GeForce RTX 3050, RTX 3060/Ti, RTX 3070/Ti, |
|||
RTX 3080/Ti, RTX 3090/Ti |
|||
|- |
|||
|GeForce RTX 2060/Super, RTX 2070/Super, RTX 2080/Super/Ti |
|||
|- |
|||
|GeForce GTX 1650/Super, GTX 1660/Super/Ti |
|||
|- |
|||
|GeForce GTX 1050/Ti, 1060, 1070, 1080/Ti |
|||
|- |
|||
|GeForce GTX 950, 960, 970, 980/Ti |
|||
|- |
|||
|GeForce GTX 750/Ti, 760, 770, 780/Ti |
|||
|- |
|||
|GeForce GTX 650/Ti, 660/Ti, 670, 680, 690 |
|||
|- |
|||
|GeForce GTX 520, 550 Ti, 560/Ti, 570, 580, 590 |
|||
|- |
|||
|GeForce GTX 450, 460, 465, 470, 480 |
|||
|- |
|||
|GeForce GTX 210, 220, 240, 260, 275, 280, 285, 295 |
|||
|- |
|||
|GeForce GT120, GT130, GTS 150 |
|||
|- |
|||
|GeForce 9600 GSO, 9800 GTX, 9800 GTX+, 9800 GX2 |
|||
|- |
|||
|GeForce 9400 GT, 9500 GT, 9600 GT, 9800 GT |
|||
|- |
|||
|GeForce 9300 mGPU, 9400 mGPU |
|||
|- |
|||
|GeForce 8800 GT, 8800 GTS 512 |
|||
|- |
|||
|GeForce 8400 GS, 8500 GT, 8600 GT, 8600 GTS |
|||
|- |
|||
|} |
|||
| || |
|||
|valign="top"| |
|||
{| class="simple" |
|||
![[GeForce|Nvidia GeForce для мобильных компьютеров]] |
|||
|- |
|- |
||
|GeForce GTX |
|GeForce GTX 580M |
||
|- |
|- |
||
|GeForce GTX |
|GeForce GTX 570M |
||
|- |
|- |
||
|GeForce GTX |
|GeForce GTX 560M |
||
|- |
|- |
||
|GeForce |
|GeForce GT 555M |
||
|- |
|- |
||
|GeForce |
|GeForce GT 540M |
||
|- |
|- |
||
|GeForce |
|GeForce GT 525M |
||
|- |
|- |
||
|GeForce |
|GeForce GT 520M |
||
|- |
|||
|GeForce GTS 450 |
|||
|- |
|||
|GeForce GTX 295 |
|||
|- |
|||
|GeForce GTX 285 |
|||
|- |
|||
|GeForce GTX 280 |
|||
|- |
|||
|GeForce GTX 275 |
|||
|- |
|||
|GeForce GTX 260 |
|||
|- |
|||
|GeForce GTS 250 |
|||
|- |
|||
|GeForce GT 240 |
|||
|- |
|||
|GeForce GT 220 |
|||
|- |
|||
|GeForce 210 |
|||
|- |
|||
|GeForce GTS 150 |
|||
|- |
|||
|GeForce GT 130 |
|||
|- |
|||
|GeForce GT 120 |
|||
|- |
|||
|GeForce G100 |
|||
|- |
|||
|GeForce 9800 GX2 |
|||
|- |
|||
|GeForce 9800 GTX+ |
|||
|- |
|||
|GeForce 9800 GTX |
|||
|- |
|||
|GeForce 9800 GT |
|||
|- |
|||
|GeForce 9600 GSO |
|||
|- |
|||
|GeForce 9600 GT |
|||
|- |
|||
|GeForce 9500 GT |
|||
|- |
|||
|GeForce 9400 GT |
|||
|- |
|||
|GeForce 9400 mGPU |
|||
|- |
|||
|GeForce 9300 mGPU |
|||
|- |
|||
|GeForce 8800 GTS 512 |
|||
|- |
|||
|GeForce 8800 GT |
|||
|- |
|||
|GeForce 8600 GTS |
|||
|- |
|||
|GeForce 8600 GT |
|||
|- |
|||
|GeForce 8500 GT |
|||
|- |
|||
|GeForce 8400 GS |
|||
|} |
|||
| || |
|||
| |
|||
{| class="standard" |
|||
![[GeForce|Nvidia GeForce mobile products]] |
|||
|- |
|- |
||
|GeForce GTX 485M |
|GeForce GTX 485M |
||
Строка 166: | Строка 323: | ||
|- |
|- |
||
|GeForce GTS 350M |
|GeForce GTS 350M |
||
|- |
|||
|GeForce GTS 250M |
|||
|- |
|- |
||
|GeForce GTS 160M |
|GeForce GTS 160M |
||
Строка 180: | Строка 339: | ||
|- |
|- |
||
|GeForce GT 130M |
|GeForce GT 130M |
||
|- |
|||
|GeForce G210M |
|||
|- |
|- |
||
|GeForce G110M |
|GeForce G110M |
||
Строка 230: | Строка 391: | ||
|} |
|} |
||
| || |
| || |
||
|valign="top"| |
|||
| |
|||
{| class=" |
{| class="simple" |
||
![[Nvidia Tesla]] |
![[Nvidia Tesla]]'''*''' |
||
|- |
|- |
||
|Tesla C2050/C2070 |
|Tesla C2050/C2070 |
||
|- |
|- |
||
|Tesla M2050/M2070 |
|Tesla M2050/M2070/M2090 |
||
|- |
|- |
||
|Tesla S2050 |
|Tesla S2050 |
||
Строка 253: | Строка 414: | ||
|} |
|} |
||
| || |
| || |
||
|valign="top"| |
|||
| |
|||
{| class=" |
{| class="simple" |
||
![[Nvidia Quadro|Nvidia Quadro |
![[Nvidia Quadro#Quadro FX для рабочих станций|Nvidia Quadro для настольных компьютеров]] |
||
|- |
|- |
||
|Quadro 6000 |
|Quadro 6000 |
||
Строка 306: | Строка 467: | ||
|- |
|- |
||
|Quadro Plex 1000 Model IV |
|Quadro Plex 1000 Model IV |
||
|} |
|||
| || |
|||
|![[Nvidia Quadro|Nvidia Quadro mobile products]] |
|||
|valign="top"| |
|||
{| class="simple" |
|||
![[Nvidia Quadro|Nvidia Quadro для мобильных компьютеров]] |
|||
|- |
|||
|Quadro 5010M |
|||
|- |
|- |
||
|Quadro 5000M |
|Quadro 5000M |
||
|- |
|||
|Quadro 4000M |
|||
|- |
|||
|Quadro 3000M |
|||
|- |
|||
|Quadro 2000M |
|||
|- |
|||
|Quadro 1000M |
|||
|- |
|- |
||
|Quadro FX 3800M |
|Quadro FX 3800M |
||
Строка 324: | Строка 498: | ||
|- |
|- |
||
|Quadro FX 1700M |
|Quadro FX 1700M |
||
|- |
|||
|Quadro FX 1600M |
|||
|- |
|- |
||
|Quadro FX 880M |
|Quadro FX 880M |
||
Строка 338: | Строка 514: | ||
|- |
|- |
||
|Quadro NVS 5100M |
|Quadro NVS 5100M |
||
|- |
|||
|Quadro NVS 4200M |
|||
|- |
|- |
||
|Quadro NVS 3100M |
|Quadro NVS 3100M |
||
Строка 357: | Строка 535: | ||
|} |
|} |
||
Модели Tesla C1060, Tesla S1070, Tesla C2050/C2070, Tesla M2050/M2070, Tesla S2050 позволяют производить вычисления на GPU с двойной точностью. |
* Модели Tesla C1060, Tesla S1070, Tesla C2050/C2070, Tesla M2050/M2070, Tesla S2050 позволяют производить вычисления на GPU с двойной точностью. |
||
== Особенности и спецификации различных версий == |
|||
{| class="wikitable" style="font-size: 85%; text-align: center; width: auto;" |
|||
|- |
|||
! rowspan=2 | Feature support (unlisted features are <br> supported for all compute capabilities) |
|||
! colspan=5 style="text-align:center;" | Compute capability (version) |
|||
|- |
|||
! 1.0 |
|||
! 1.1 |
|||
! 1.2 |
|||
! 1.3 |
|||
! 2.x |
|||
|- |
|||
! style="text-align:left;"| Integer atomic functions operating on <br> 32-bit words in global memory |
|||
| colspan="1" rowspan="1" {{no}} |
|||
| colspan="4" rowspan="1" {{yes}} |
|||
|- |
|||
! style="text-align:left;"| Integer atomic functions operating on <br> 64-bit words in global memory |
|||
| colspan="2" rowspan="3" {{no}} |
|||
| colspan="3" rowspan="3" {{yes}} |
|||
|- |
|||
! style="text-align:left;"| Integer atomic functions operating on <br> 32-bit words in shared memory |
|||
|- |
|||
! style="text-align:left;"| Warp vote functions |
|||
|- |
|||
! style="text-align:left;"|Double-precision floating-point operations |
|||
| colspan="3" rowspan="1" {{no}} |
|||
| colspan="2" rowspan="1" {{yes}} |
|||
|- |
|||
! style="text-align:left;"| Floating-point atomic addition operating on <br> 32-bit words in global and shared memory |
|||
| colspan="4" rowspan="5" {{no}} |
|||
| colspan="1" rowspan="5" {{yes}} |
|||
|- |
|||
! style="text-align:left;"| _ballot() |
|||
|- |
|||
! style="text-align:left;"| _threadfence_system() |
|||
|- |
|||
! style="text-align:left;"| _syncthread_count(), <br> _syncthread_and(), <br> _syncthread_or() |
|||
|- |
|||
! style="text-align:left;"| Surface functions |
|||
|} |
|||
{| class="wikitable" style="font-size: 85%; text-align: center; width: auto;" |
|||
|- |
|||
! rowspan=2 | Technical specifications |
|||
! colspan=5 style="text-align:center;" | Compute capability (version) |
|||
|- |
|||
! 1.0 |
|||
! 1.1 |
|||
! 1.2 |
|||
! 1.3 |
|||
! 2.x |
|||
|- |
|||
! style="text-align:left;"| Maximum x- or y- dimensions of a grid of thread blocks |
|||
| colspan="5" rowspan="1" {{yes|65535}} |
|||
|- |
|||
! style="text-align:left;"| Maximum number of threads per block |
|||
| colspan="4" {{yes|512}} |
|||
| colspan="1" {{yes|1024}} |
|||
|- |
|||
! style="text-align:left;"| Maximum x- or y- dimension of a block |
|||
| colspan="4" {{yes|512}} |
|||
| colspan="1" {{yes|1024}} |
|||
|- |
|||
! style="text-align:left;"| Maximum z- dimension of a block |
|||
| colspan="5" {{yes|64}} |
|||
|- |
|||
! style="text-align:left;"| Warp size |
|||
| colspan="5" {{yes|32}} |
|||
|- |
|||
! style="text-align:left;"| Maximum number of resident blocks per multiprocessor |
|||
| colspan="5" {{yes|8}} |
|||
|- |
|||
! style="text-align:left;"| Maximum number of resident warps per multiprocessor |
|||
| colspan="2" {{yes|24}} |
|||
| colspan="2" {{yes|32}} |
|||
| colspan="1" {{yes|48}} |
|||
|- |
|||
! style="text-align:left;"| Maximum number of resident threads per multiprocessor |
|||
| colspan="2" {{yes|768}} |
|||
| colspan="2" {{yes|1024}} |
|||
| colspan="1" {{yes|1536}} |
|||
|- |
|||
! style="text-align:left;"| Number of 32-bit registers per multiprocessor |
|||
| colspan="2" {{yes|8 K}} |
|||
| colspan="2" {{yes|16 K}} |
|||
| colspan="1" {{yes|32 K}} |
|||
|- |
|||
! style="text-align:left;"| Maximum amount of shared memory per multiprocessor |
|||
| colspan="4" {{yes|16 KB}} |
|||
| colspan="1" {{yes|48 KB}} |
|||
|- |
|||
! style="text-align:left;"| Number of shared memory banks |
|||
| colspan="4" {{yes|16}} |
|||
| colspan="1" {{yes|32}} |
|||
|- |
|||
! style="text-align:left;"| Amount of local memory per thread |
|||
| colspan="4" {{yes|16 KB}} |
|||
| colspan="1" {{yes|512 KB}} |
|||
|- |
|||
! style="text-align:left;"| Constant memory size |
|||
| colspan="5" {{yes|64 KB}} |
|||
|- |
|||
! style="text-align:left;"| Cache working set per multiprocessor for constant memory |
|||
| colspan="5" {{yes|8 KB}} |
|||
|- |
|||
! style="text-align:left;"| Cache working set per multiprocessor for texture memory |
|||
| colspan="5" {{yes| Device dependent, between 6 KB and 8 KB}} |
|||
|- |
|||
! style="text-align:left;"| Maximum width for 1D texture <br> reference bound to a CUDA array |
|||
| colspan="4" {{yes|8192}} |
|||
| colspan="1" {{yes|32768}} |
|||
|- |
|||
! style="text-align:left;"| Maximum width for 1D texture <br> reference bound to linear memory |
|||
| colspan="5" {{yes| 2<sup>27</sup>}} |
|||
|- |
|||
! style="text-align:left;"| Maximum width and height for 2D <br> texture reference bound to <br> linear memory or a CUDA array |
|||
| colspan="4" {{yes|65536 x 32768}} |
|||
| colspan="1" {{yes|65536 x 65535}} |
|||
|- |
|||
! style="text-align:left;"| Maximum width, height and depth <br> for a 3D texture reference bound to linear <br> memory or a CUDA array |
|||
| colspan="5" {{yes|2048 x 2048 x 2048}} |
|||
|- |
|||
! style="text-align:left;"| Maximum number of textures that <br> can be bound to a kernel |
|||
| colspan="5" {{yes|128}} |
|||
|- |
|||
! style="text-align:left;"| Maximum width for a 1D surface <br> reference bound to a CUDA array |
|||
| colspan="4" rowspan="3" {{no|Not<br>supported}} |
|||
| colspan="1" {{yes|8192}} |
|||
|- |
|||
! style="text-align:left;"| Maximum width and height for a 2D <br> surface reference bound to a CUDA array |
|||
| colspan="1" {{yes|8192 x 8192}} |
|||
|- |
|||
! style="text-align:left;"| Maximum number of surfaces that <br> can be bound to a kernel |
|||
| colspan="1" {{yes|8}} |
|||
|- |
|||
! style="text-align:left;"| Maximum number of instructions per <br> kernel |
|||
| colspan="5" {{yes|2 million}} |
|||
|} |
|||
== Пример == |
== Пример == |
||
Этот пример кода на [[ |
Этот пример кода на [[C++]] загрузки текстур из изображения в массив на [[GPU]]: |
||
<source lang="c"> |
<source lang="c"> |
||
cudaArray* cu_array; |
cudaArray* cu_array; |
||
texture<float, 2> tex; |
texture<float, 2> tex; |
||
// Выделение памяти для массива |
|||
// Allocate array |
|||
cudaMalloc( &cu_array, cudaCreateChannelDesc<float>(), width, height ); |
cudaMalloc( &cu_array, cudaCreateChannelDesc<float>(), width, height ); |
||
// Копируем данные изображения в массив |
|||
// Copy image data to array |
|||
cudaMemcpy( cu_array, image, width*height, cudaMemcpyHostToDevice); |
cudaMemcpy( cu_array, image, width*height, cudaMemcpyHostToDevice); |
||
// Привязываем массив к текстуре |
|||
// Bind the array to the texture |
|||
cudaBindTexture( tex, cu_array); |
cudaBindTexture( tex, cu_array); |
||
// Запускаем ядро |
|||
// Run kernel |
|||
dim3 blockDim(16, 16, 1); |
dim3 blockDim(16, 16, 1); |
||
dim3 gridDim(width / blockDim.x, height / blockDim.y, 1); |
dim3 gridDim(width / blockDim.x, height / blockDim.y, 1); |
||
Строка 528: | Строка 567: | ||
</source> |
</source> |
||
Пример программы на языке [[Python]], перемножающий |
Пример программы на языке [[Python]], перемножающий элементы массива средствами GPU. |
||
Взаимодействие идёт с использованием PyCUDA |
Взаимодействие идёт с использованием PyCUDA |
||
<ref> |
<ref> |
||
{{cite web |
{{cite web|url=https://mathema.tician.de/software/pycuda|title=PyCUDA|archiveurl=https://www.webcitation.org/65tfzeDZn?url=https://mathema.tician.de/software/pycuda|archivedate=2012-03-03}} |
||
</ref> |
</ref> |
||
<source lang="python"> |
<source lang="python"> |
||
Строка 562: | Строка 601: | ||
</source> |
</source> |
||
== CUDA как предмет в вузах == |
|||
По состоянию на декабрь 2009 года, программная модель CUDA преподается в 269 университетах по всему миру. В России обучающие курсы по CUDA читаются в Санкт-Петербургском Политехническом Университете, Московском, Санкт-Петербургском, Казанском, Новосибирском и Пермском государственных университетах, [[Международный университет природы, общества и человека «Дубна»|Международном университете природы общества и человека «Дубна»]], [[ОИЯИ|Объединённом институте ядерных исследований]], [[МИЭТ|Московском институте электронной техники]], [[ИГЭУ|Ивановском государственном энергетическом университете]], [[БГТУ им. В. Г. Шухова]], [[МГТУ|МГТУ им. Баумана]], [[РХТУ|РХТУ им.Менделеева]], Российском научном центре «Курчатовский институт», Межрегиональном суперкомпьютерном центре РАН, [[ТТИ|Таганрогском технологическом институте (ТТИ ЮФУ)]].<ref name="educ1"/> Кроме того, в декабре 2009 года было объявлено о начале работы первого в России научно-образовательного центра «Параллельные вычисления», расположенного в городе [[Дубна]], в задачи которого входят обучение и консультации по решению сложных вычислительных задач на GPU.<ref name="educ1"/> |
|||
На Украине курсы по CUDA читаются в Киевском институте системного анализа.<ref name="educ1">{{cite web|url= http://www.3dnews.ru/news/v_dubne_budut_uchit_reshat_vichislitelnie_zadachi_na_gpu/ |title= В Дубне будут учить решать задачи на GPU и в среде CUDA |author= Арсений Герасименко |publisher= [[3DNews]] |datepublished= 28 декабря 2009 года |accessdate= 10 февраля 2010}}</ref> |
|||
== Ссылки == |
== Ссылки == |
||
=== Официальные ресурсы === |
=== Официальные ресурсы === |
||
* [http:// |
* [http://developer.nvidia.com/cuda-zone CUDA Zone]{{ref-en}} — официальный сайт CUDA |
||
* [http://forums.nvidia.com/index.php?showforum=62 CUDA GPU Computing]{{ref-en}} — официальные веб-форумы, посвящённые вычислениям CUDA |
* [http://forums.nvidia.com/index.php?showforum=62 CUDA GPU Computing]{{ref-en}} — официальные веб-форумы, посвящённые вычислениям CUDA |
||
* [http://www.nvidia.ru/object/cuda_state_university_courses_new_ru.html Курс лекций по CUDA]{{Недоступная ссылка|date=февраля 2021 |bot=InternetArchiveBot }}{{ref-ru}} — официальный сайт NVidia |
|||
=== Неофициальные ресурсы === |
=== Неофициальные ресурсы === |
||
'''[[Tom's Hardware]]''' |
|||
;[[Tom's Hardware]] |
|||
* {{cite web |
* {{cite web |
||
|url |
|url = http://www.thg.ru/graphic/nvidia_cuda/print.html |
||
|title |
|title = nVidia CUDA: вычисления на видеокарте или смерть CPU? |
||
|author |
|author = Дмитрий Чеканов. |
||
|publisher |
|publisher = Tom's Hardware |
||
|datepublished |
|datepublished = 2008-06-22 |
||
|accessdate |
|accessdate = 2009-01-20 |
||
|description |
|description = |
||
|archiveurl = |
|||
|archivedate = |
|||
}} |
}} |
||
* {{cite web |
* {{cite web |
||
|url |
|url = http://www.thg.ru/graphic/nvidia_cuda_test/print.html |
||
|title |
|title = nVidia CUDA: тесты приложений на GPU для массового рынка |
||
|author |
|author = Дмитрий Чеканов. |
||
|publisher |
|publisher = Tom's Hardware |
||
|datepublished |
|datepublished = 2009-05-19 |
||
|accessdate |
|accessdate = 2009-05-19 |
||
|description |
|description = |
||
|archiveurl = |
|||
|archivedate = |
|||
}} |
}} |
||
'''[[iXBT.com]]''' |
|||
* {{cite web |
* {{cite web |
||
|url |
|url = http://www.ixbt.com/video3/cuda-1.shtml |
||
|title |
|title = NVIDIA CUDA — неграфические вычисления на графических процессорах. Часть 1 |
||
|author |
|author = Алексей Берилло. |
||
|publisher |
|publisher = iXBT.com |
||
|datepublished |
|datepublished = 2008-09-23 |
||
|accessdate |
|accessdate = 2009-01-20 |
||
|description |
|description = |
||
}} |
}} |
||
* {{cite web |
* {{cite web |
||
|url |
|url = http://www.ixbt.com/video3/cuda-2.shtml |
||
|title |
|title = NVIDIA CUDA — неграфические вычисления на графических процессорах. Часть 2 |
||
|author |
|author = Алексей Берилло. |
||
|publisher |
|publisher = iXBT.com |
||
|datepublished |
|datepublished = 2008-10-22 |
||
|accessdate |
|accessdate = 2009-01-20 |
||
|description |
|description = Примеры внедрения NVIDIA CUDA |
||
}} |
}} |
||
'''Другие ресурсы''' |
|||
* {{cite web |
* {{cite web |
||
|url |
|url = http://www.steps3d.narod.ru/tutorials/cuda-tutorial.html |
||
|title |
|title = Основы CUDA |
||
|author |
|author = Боресков Алексей Викторович. |
||
|datepublished |
|datepublished = 2009-01-20 |
||
|accessdate |
|accessdate = 2009-01-20 |
||
|description |
|description = |
||
|archiveurl = |
|||
|archivedate = |
|||
}} |
}} |
||
* {{cite web |
* {{cite web |
||
|url |
|url = http://cgm.computergraphics.ru/issues/issue16/cuda |
||
|title |
|title = Введение в технологию CUDA |
||
|author |
|author = Владимир Фролов. |
||
|publisher |
|publisher = Сетевой журнал «Компьютерная графика и мультимедиа» |
||
|datepublished |
|datepublished = 2008-12-19 |
||
|accessdate |
|accessdate = 2009-10-28 |
||
|description |
|description = |
||
|archiveurl = https://www.webcitation.org/65tg9Hcl3?url=http://cgm.computergraphics.ru/issues/issue16/cuda |
|||
}} |
|||
|archivedate = 2012-03-03 |
|||
}} |
|||
* {{cite web |
* {{cite web |
||
|url |
|url = http://www.computerra.ru/interactive/423392/ |
||
|title |
|title = NVIDIA CUDA – доступный билет в мир больших вычислений |
||
|author = Игорь Осколков. |
|author = Игорь Осколков. |
||
|publisher = [[Компьютерра]] |
|publisher = [[Компьютерра]] |
||
|datepublished = |
|datepublished = 2009-04-30 |
||
|accessdate = |
|accessdate = 2009-05-03 |
||
|description = |
|description = |
||
|archiveurl = https://web.archive.org/web/20090505160249/http://www.computerra.ru/interactive/423392/ |
|||
}} |
|||
|archivedate = 2009-05-05 |
|||
|deadlink = yes |
|||
}} |
|||
* {{cite web |
* {{cite web |
||
|url |
|url = http://www.uraldev.ru/articles/id/33 |
||
|title |
|title = Введение в технологию CUDA |
||
|author |
|author = Владимир Фролов. |
||
|datepublished |
|datepublished = 2009-08-01 |
||
|accessdate |
|accessdate = 2010-04-03 |
||
|archiveurl = https://www.webcitation.org/65tgAbswT?url=http://www.uraldev.ru/articles/id/33 |
|||
}} |
|||
|archivedate = 2012-03-03 |
|||
* [http://www.gpgpu.ru GPGPU.ru]. Использование видеокарт для вычислений |
|||
}} |
|||
* [http://www.gpgpu.ru GPGPU.ru] {{Wayback|url=http://www.gpgpu.ru/ |date=20200831160725 }}. Использование видеокарт для вычислений (не обновляется с 2013 года). |
|||
* [http://parallelcompute.sourceforge.net/parcom_ru.php ParallelCompute.sourceforge.net]. Центр Параллельных Вычислений. |
|||
== Примечания == |
== Примечания == |
||
{{примечания}} |
{{примечания}} |
||
{{вс}} |
|||
== См. также == |
|||
* [[AMD FireStream]] |
|||
* [[Параллельные вычислительные системы]] |
|||
* [[SIMD]] |
|||
* [[OpenCL]] |
|||
{{Nvidia}} |
{{Nvidia}} |
||
{{compu-stub}} |
|||
[[Категория:API]] |
[[Категория:API]] |
||
[[Категория:GPGPU]] |
[[Категория:GPGPU]] |
||
[[Категория:Статьи с примерами кода Python]] |
[[Категория:Статьи с примерами кода Python]] |
||
[[Категория:Бесплатное программное обеспечение]] |
|||
[[Категория:Программное обеспечение Nvidia]] |
|||
[[af:CUDA]] |
|||
[[Категория:Программное обеспечение для Windows]] |
|||
[[ar:كودا]] |
|||
[[Категория:Программное обеспечение для Linux]] |
|||
[[de:Compute Unified Device Architecture]] |
|||
[[Категория:Программное обеспечение для macOS]] |
|||
[[en:CUDA]] |
|||
[[Категория:Язык программирования Си]] |
|||
[[es:CUDA]] |
|||
[[fi:CUDA]] |
|||
[[fr:Compute Unified Device Architecture]] |
|||
[[he:CUDA]] |
|||
[[it:CUDA]] |
|||
[[ja:CUDA]] |
|||
[[ko:쿠다]] |
|||
[[lt:Cuda]] |
|||
[[mk:CUDA]] |
|||
[[ml:ക്യൂഡ]] |
|||
[[nl:CUDA]] |
|||
[[pl:CUDA (informatyka)]] |
|||
[[pt:Compute Unified Device Architecture]] |
|||
[[sv:CUDA]] |
|||
[[tr:Cuda]] |
|||
[[uk:CUDA]] |
|||
[[vi:CUDA]] |
|||
[[zh:CUDA]] |
Текущая версия от 05:48, 11 декабря 2024
CUDA | |
---|---|
Тип | GPGPU |
Разработчик | NVIDIA Corporation |
Операционные системы | Windows, Linux |
Первый выпуск | 23 июня 2007 |
Аппаратная платформа | Поддерживаемые GPU |
Последняя версия | 12.4[1] |
Лицензия | бесплатное программное обеспечение |
Сайт | developer.nvidia.com/cud… |
Медиафайлы на Викискладе |
CUDA (изначально аббр. от англ. Compute Unified Device Architecture) — программно-аппаратная архитектура параллельных вычислений, которая позволяет существенно увеличить вычислительную производительность благодаря использованию графических процессоров фирмы Nvidia.
CUDA SDK позволяет программистам реализовывать на специальных упрощённых диалектах языков программирования Си, C++ и Фортран алгоритмы, выполнимые на графических и тензорных процессорах Nvidia[2]. Архитектура CUDA даёт разработчику возможность по своему усмотрению организовывать доступ к набору инструкций графического или тензорного ускорителя и управлять его памятью. Функции, ускоренные при помощи CUDA, можно вызывать из различных языков, в том числе Python[3], MATLAB[4] и т. п.
Программная архитектура
[править | править код]Первоначальная версия CUDA SDK была представлена 15 февраля 2007 года. В основе интерфейса программирования приложений CUDA лежит язык Си с некоторыми расширениями. Для успешной трансляции кода на этом языке в состав CUDA SDK входит собственный Си-компилятор командной строки nvcc компании Nvidia. Компилятор nvcc создан на основе открытого компилятора Open64 и предназначен для трансляции host-кода (главного, управляющего кода) и device-кода (аппаратного кода) (файлов с расширением .cu) в объектные файлы, пригодные в процессе сборки конечной программы или библиотеки в любой среде программирования.
В архитектуре CUDA используется модель памяти грид, кластерное моделирование потоков и SIMD-инструкции. Применима не только для высокопроизводительных графических вычислений, но и для научных вычислений с использованием видеокарт nVidia. Учёные и исследователи используют CUDA таких областях, как астрофизика, вычислительная биология и химия, моделирование динамики жидкостей, электромагнитные взаимодействия, компьютерная томография, сейсмический анализ и др. В CUDA имеется возможность подключения к приложениям, использующим OpenGL и Direct3D. CUDA — кроссплатформенное программное обеспечение с поддержкой операционных систем Linux, Mac OS X и Windows.
22 марта 2010 года nVidia выпустила CUDA Toolkit 3.0 с поддержкой OpenCL[5].
Оборудование
[править | править код]Платформа CUDA впервые появились на рынке с выходом чипа NVIDIA восьмого поколения G80 и стала присутствовать во всех последующих сериях графических чипов, которые используются в семействах ускорителей GeForce, Quadro и NVidia Tesla.
Первая серия оборудования, поддерживающая CUDA SDK, G8x, имела 32-битный векторный процессор одинарной точности, использующий CUDA SDK как API (CUDA поддерживает тип double
языка Си, однако сейчас его точность понижена до 32-битного с плавающей запятой). Более поздние процессоры GT200 имеют поддержку 64-битной точности (только для SFU), но производительность значительно хуже, чем для 32-битной точности (из-за того, что SFU всего два на каждый потоковый мультипроцессор, а скалярных процессоров — восемь). Графический процессор организует аппаратную многопоточность, что позволяет задействовать все ресурсы графического процессора. Таким образом, открывается перспектива переложить функции физического ускорителя на графический ускоритель (пример реализации — PhysX). Также открываются широкие возможности использования графического оборудования компьютера для выполнения сложных неграфических вычислений: например, в вычислительной биологии и в иных отраслях науки.
Преимущества
[править | править код]По сравнению с традиционным подходом к организации вычислений общего назначения посредством возможностей графических API, у архитектуры CUDA отмечают следующие преимущества в этой области:
- Интерфейс программирования приложений CUDA (CUDA API) основан на стандартном языке программирования Си с некоторыми ограничениями. По мнению разработчиков, это должно упростить и сгладить процесс изучения архитектуры CUDA[6];
- Разделяемая между потоками память (shared memory) размером в 16 Кб может быть использована под организованный пользователем кэш с более широкой полосой пропускания, чем при выборке из обычных текстур;
- Более эффективные транзакции между памятью центрального процессора и видеопамятью;
- Полная аппаратная поддержка целочисленных и побитовых операций;
- Поддержка компиляции кода GPU средствами открытого проекта LLVM[7].
Ограничения
[править | править код]- Все функции, выполнимые на устройстве, не поддерживают рекурсии (в версии CUDA Toolkit 3.1 поддерживает указатели и рекурсию) и имеют некоторые другие ограничения.
Поддерживаемые GPU и графические ускорители
[править | править код]Перечень устройств от производителя оборудования Nvidia с заявленной полной поддержкой технологии CUDA приведён на официальном сайте Nvidia[8][9].
Совместимость систем разработчика CUDA с поколениями вычислителей:
- CUDA SDK 6.0 поддерживает версии 1.0 — 3.5 (Tesla, Fermi, Kepler).
- CUDA SDK 6.5 поддерживает версии 1.0 — 5.x (Tesla, Fermi, Kepler, Maxwell).
- CUDA SDK 7.5 поддерживает версии 2.0 — 5.x (Fermi, Kepler, Maxwell).
- CUDA SDK 8.0 поддерживает версии 2.0 — 6.x (Fermi, Kepler, Maxwell, Pascal).
- CUDA SDK 9.0/9.1/9.2 поддерживает версии 3.0 — 7.2 (Kepler, Maxwell, Pascal, Volta)
- CUDA SDK 10.0 поддерживает версии 3.0 — 7.5 (Kepler, Maxwell, Pascal, Volta, Turing)
В настоящее время на рынке аппаратных средств для ПК поддержку технологии CUDA обеспечивают следующие периферийные устройства:
Версия
спецификации |
Архитектура | GPU | Видеокарты семейства GeForce | Видеокарты семейства Quadro, NVS | Видеокарты семейства Tesla | Видеокарты семейства
Tegra, |
---|---|---|---|---|---|---|
1.0 | Tesla | G80 | GeForce 8800 Ultra, GeForce 8800 GTX, GeForce 8800 GTS(G80) | Quadro FX 5600, Quadro FX 4600, Quadro Plex 2100 S4 | Tesla C870, Tesla D870, Tesla S870 | |
1.1 | G92, G94, G96, G98, G84, G86 | GeForce GTS 250, GeForce 9800 GX2, GeForce 9800 GTX, GeForce 9800 GT, GeForce 8800 GTS(G92), GeForce 8800 GT, GeForce 9600 GT, GeForce 9500 GT, GeForce 9400 GT, GeForce 8600 GTS, GeForce 8600 GT, GeForce 8500 GT, GeForce G110M, GeForce 9300M GS, GeForce 9200M GS, GeForce 9100M G, GeForce 8400M GT, GeForce G105M |
Quadro FX 4700 X2, Quadro FX 3700, Quadro FX 1800, Quadro FX 1700, Quadro FX 580, Quadro FX 570, Quadro FX 470, Quadro FX 380, Quadro FX 370, Quadro FX 370 Low Profile, Quadro NVS 450, Quadro NVS 420, Quadro NVS 290, Quadro NVS 295, Quadro Plex 2100 D4, Quadro FX 3800M, Quadro FX 3700M, Quadro FX 3600M, Quadro FX 2800M, Quadro FX 2700M, Quadro FX 1700M, Quadro FX 1600M, Quadro FX 770M, Quadro FX 570M, Quadro FX 370M, Quadro FX 360M, Quadro NVS 320M, Quadro NVS 160M, Quadro NVS 150M, Quadro NVS 140M, Quadro NVS 135M, Quadro NVS 130M, Quadro NVS 450, Quadro NVS 420, Quadro NVS 295 |
|||
1.2 | GT218, GT216, GT215 | GeForce GT 340*, GeForce GT 330*, GeForce GT 320*, GeForce 315*, GeForce 310*, GeForce GT 240, GeForce GT 220, GeForce 210, GeForce GTS 360M, GeForce GTS 350M, GeForce GT 335M, GeForce GT 330M, GeForce GT 325M, GeForce GT 240M, GeForce G210M, GeForce 310M, GeForce 305M |
Quadro FX 380 Low Profile, Nvidia NVS 300, Quadro FX 1800M, Quadro FX 880M, Quadro FX 380M, Nvidia NVS 300, NVS 5100M, NVS 3100M, NVS 2100M, ION | |||
1.3 | GT200, GT200b | GeForce GTX 295, GTX 285, GTX 280, GeForce GTX 275, GeForce GTX 260 | Quadro FX 5800, Quadro FX 4800, Quadro FX 4800 for Mac, Quadro FX 3800, Quadro CX, Quadro Plex 2200 D2 | Tesla C1060, Tesla S1070, Tesla M1060 | ||
2.0 | Fermi | GF100, GF110 | GeForce GTX 590, GeForce GTX 580, GeForce GTX 570, GeForce GTX 480, GeForce GTX 470, GeForce GTX 465, GeForce GTX 480M | Quadro 6000, Quadro 5000, Quadro 4000, Quadro 4000 for Mac, Quadro Plex 7000, Quadro 5010M, Quadro 5000M | Tesla C2075, Tesla C2050/C2070, Tesla M2050/M2070/M2075/M2090 | |
2.1 | GF104, GF106 GF108, GF114, GF116, GF117, GF119 | GeForce GTX 560 Ti, GeForce GTX 550 Ti, GeForce GTX 460, GeForce GTS 450, GeForce GTS 450*, GeForce GT 640 (GDDR3), GeForce GT 630, GeForce GT 620, GeForce GT 610, GeForce GT 520, GeForce GT 440, GeForce GT 440*, GeForce GT 430, GeForce GT 430*, GeForce GT 420*, GeForce GTX 675M, GeForce GTX 670M, GeForce GT 635M, GeForce GT 630M, GeForce GT 625M, GeForce GT 720M, GeForce GT 620M, GeForce 710M, GeForce 610M, GeForce 820M, GeForce GTX 580M, GeForce GTX 570M, GeForce GTX 560M, GeForce GT 555M, GeForce GT 550M, GeForce GT 540M, GeForce GT 525M, GeForce GT 520MX, GeForce GT 520M, GeForce GTX 485M, GeForce GTX 470M, GeForce GTX 460M, GeForce GT 445M, GeForce GT 435M, GeForce GT 420M, GeForce GT 415M, GeForce 710M, GeForce 410M, GeForce GT 730 (DDR3 128-bit) |
Quadro 2000, Quadro 2000D, Quadro 600, Quadro 410, Quadro 4000M, Quadro 3000M, Quadro 2000M, Quadro 1000M, NVS 310, NVS 315, NVS 5400M, NVS 5200M, NVS 4200M | |||
3.0 | Kepler | GK104, GK106, GK107 | GeForce GTX 770, GeForce GTX 760, GeForce GT 740, GeForce GTX 690, GeForce GTX 680, GeForce GTX 670, GeForce GTX 660 Ti, GeForce GTX 660, GeForce GTX 650 Ti BOOST, GeForce GTX 650 Ti, GeForce GTX 650, GeForce GTX 880M, GeForce GTX 780M, GeForce GTX 770M, GeForce GTX 765M, GeForce GTX 760M, GeForce GTX 680MX, GeForce GTX 680M, GeForce GTX 675MX, GeForce GTX 670MX, GeForce GTX 660M, GeForce GT 750M, GeForce GT 650M, GeForce GT 745M, GeForce GT 645M, GeForce GT 740M, GeForce GT 730M, GeForce GT 640M, GeForce GT 640M LE, GeForce GT 735M, GeForce GT 730M |
Quadro K5000, Quadro K4200, Quadro K4000, Quadro K2000, Quadro K2000D, Quadro K600, Quadro K500M, Quadro K510M, Quadro K610M, Quadro K1000M, Quadro K2000M, Quadro K1100M, Quadro K2100M, Quadro K3000M, Quadro K3100M, Quadro K4000M, Quadro K5000M, Quadro K4100M, Quadro K5100M, NVS 510 | Tesla K10, GRID K340, GRID K520 | |
3.2 | GK20A | Tegra K1, Jetson TK1 | ||||
3.5 | GK110, GK208 | GeForce GTX Titan Z, GeForce GTX Titan Black, GeForce GTX Titan, GeForce GTX 780 Ti, GeForce GTX 780, GeForce GT 640 (GDDR5), GeForce GT 630 v2, GeForce GT 730, GeForce GT 720, GeForce GT 710, GeForce GT 740M (64-bit, DDR3), GeForce GT 920M | Quadro K6000, Quadro K5200 | Tesla K40, Tesla K20x, Tesla K20 | ||
3.7 | GK210 | Tesla K80 | ||||
5.0 | Maxwell | GM107, GM108 | GeForce GTX 750 Ti, GeForce GTX 750, GeForce GTX 960M, GeForce GTX 950M, GeForce 940M, GeForce 930M, GeForce GTX 860M, GeForce GTX 850M, GeForce 845M, GeForce 840M, GeForce 830M | Quadro K420, Quadro K620, Quadro K1200, Quadro K2200, Quadro M2000M, Quadro M1000M, Quadro M600M, Quadro K620M, NVS 810 | Tesla M10 | |
5.2 | GM200, GM204, GM206 | GeForce GTX Titan X, GeForce GTX 980 Ti, GeForce GTX 980, GeForce GTX 970, GeForce GTX 960, GeForce GTX 950, GeForce GTX 750 SE, GeForce GTX 980M, GeForce GTX 970M, GeForce GTX 965M | Quadro M6000 24GB, Quadro M6000, Quadro M5000, Quadro M4000, Quadro M2000, Quadro M5500, Quadro M5000M, Quadro M4000M, Quadro M3000M | Tesla M4, Tesla M40, Tesla M6, Tesla M60 | ||
5.3 | GM20B | Tegra X1, Jetson TX1, DRIVE CX, DRIVE PX | ||||
6.0 | Pascal | GP100 | Quadro GP100 | Tesla P100 | ||
6.1 | GP102, GP104, GP106, GP107, GP108 | Nvidia TITAN Xp, Titan X, GeForce GTX 1080 Ti, GTX 1080, GTX 1070, GTX 1060, GTX 1050 Ti, GTX 1050, GT 1030, MX150 | Quadro P6000, Quadro P5000, Quadro P4000, Quadro P2000, Quadro P1000, Quadro P600, Quadro P400, Quadro P5000(Mobile), Quadro P4000(Mobile), Quadro P3000(Mobile) | Tesla P40, Tesla P6, Tesla P4 | ||
6.2 | GP10B[10] | Drive PX2 with Tegra X2 (T186)[11] Jetson TX2 | ||||
7.0 | Volta | GV100 | Nvidia TITAN V | Quadro GV100 | Tesla V100,
Tesla V100S |
|
7.2 | GV10B[12] | Jetson Xavier, DRIVE PX Xavier/Pegasus with Xavier SoC | ||||
7.5 | Turing | TU102, TU104, TU106 | NVIDIA TITAN RTX,
GeForce RTX 2080 Ti, RTX 2080 Super, RTX 2080, RTX 2070 Super, RTX 2070, RTX 2060 Super, RTX 2060, GeForce GTX 1660 Ti, GTX 1660 Super, GTX 1660, GTX 1650 Super, GTX 1650 |
Quadro RTX 8000, Quadro RTX 6000, Quadro RTX 5000, Quadro RTX 4000, Quadro RTX 3000,
Quadro T2000, Quadro T1000, Quadro T600 |
Tesla T4 | |
8.0 | Ampere | GA100 | A100 80GB, A100 40GB | |||
8.6 | GA102, GA104, GA106, GA107 | GeForce RTX 3090 Ti, RTX 3090, RTX 3080 Ti, RTX 3080, RTX 3070 Ti, RTX 3070, RTX 3060 Ti, RTX 3060, RTX 3050 Ti, RTX 3050 | RTX A6000 | A2, A10, A16, A40 | ||
8.9 | Ada Lovelace | AD102, AD103, AD104, AD106, AD107 | GeForce RTX 4090, RTX 4080, RTX 4070 Ti, RTX 4070, RTX 4060 Ti, RTX 4060 | RTX 6000 (Ada Generation) | L40, L4 |
|
|
|
|
|
- Модели Tesla C1060, Tesla S1070, Tesla C2050/C2070, Tesla M2050/M2070, Tesla S2050 позволяют производить вычисления на GPU с двойной точностью.
Пример
[править | править код]Этот пример кода на C++ загрузки текстур из изображения в массив на GPU:
cudaArray* cu_array;
texture<float, 2> tex;
// Выделение памяти для массива
cudaMalloc( &cu_array, cudaCreateChannelDesc<float>(), width, height );
// Копируем данные изображения в массив
cudaMemcpy( cu_array, image, width*height, cudaMemcpyHostToDevice);
// Привязываем массив к текстуре
cudaBindTexture( tex, cu_array);
// Запускаем ядро
dim3 blockDim(16, 16, 1);
dim3 gridDim(width / blockDim.x, height / blockDim.y, 1);
kernel<<< gridDim, blockDim, 0 >>>(d_odata, width, height);
cudaUnbindTexture(tex);
__global__ void kernel(float* odata, int height, int width)
{
unsigned int x = blockIdx.x*blockDim.x + threadIdx.x;
unsigned int y = blockIdx.y*blockDim.y + threadIdx.y;
float c = texfetch(tex, x, y);
odata[y*width+x] = c;
}
Пример программы на языке Python, перемножающий элементы массива средствами GPU. Взаимодействие идёт с использованием PyCUDA [13]
import pycuda.driver as drv
import numpy
drv.init()
dev = drv.Device(0)
ctx = dev.make_context()
mod = drv.SourceModule("""
__global__ void multiply_them(float *dest, float *a, float *b)
{
const int i = threadIdx.x;
dest[i] = a[i] * b[i];
}
""")
multiply_them = mod.get_function("multiply_them")
a = numpy.random.randn(400).astype(numpy.float32)
b = numpy.random.randn(400).astype(numpy.float32)
dest = numpy.zeros_like(a)
multiply_them(
drv.Out(dest), drv.In(a), drv.In(b),
block=(400,1,1))
print dest-a*b
Ссылки
[править | править код]Официальные ресурсы
[править | править код]- CUDA Zone (англ.) — официальный сайт CUDA
- CUDA GPU Computing (англ.) — официальные веб-форумы, посвящённые вычислениям CUDA
- Курс лекций по CUDA (недоступная ссылка) (рус.) — официальный сайт NVidia
Неофициальные ресурсы
[править | править код]- Дмитрий Чеканов. nVidia CUDA: вычисления на видеокарте или смерть CPU? Tom's Hardware (22 июня 2008). Дата обращения: 20 января 2009.
- Дмитрий Чеканов. nVidia CUDA: тесты приложений на GPU для массового рынка . Tom's Hardware (19 мая 2009). Дата обращения: 19 мая 2009.
- Алексей Берилло. NVIDIA CUDA — неграфические вычисления на графических процессорах. Часть 1 . iXBT.com (23 сентября 2008). Дата обращения: 20 января 2009.
- Алексей Берилло. NVIDIA CUDA — неграфические вычисления на графических процессорах. Часть 2 . iXBT.com (22 октября 2008). — Примеры внедрения NVIDIA CUDA. Дата обращения: 20 января 2009.
Другие ресурсы
- Боресков Алексей Викторович. Основы CUDA (20 января 2009). Дата обращения: 20 января 2009.
- Владимир Фролов. Введение в технологию CUDA . Сетевой журнал «Компьютерная графика и мультимедиа» (19 декабря 2008). Дата обращения: 28 октября 2009. Архивировано 3 марта 2012 года.
- Игорь Осколков. NVIDIA CUDA – доступный билет в мир больших вычислений . Компьютерра (30 апреля 2009). Дата обращения: 3 мая 2009. Архивировано из оригинала 5 мая 2009 года.
- Владимир Фролов. Введение в технологию CUDA (1 августа 2009). Дата обращения: 3 апреля 2010. Архивировано 3 марта 2012 года.
- GPGPU.ru Архивная копия от 31 августа 2020 на Wayback Machine. Использование видеокарт для вычислений (не обновляется с 2013 года).
- ParallelCompute.sourceforge.net. Центр Параллельных Вычислений.
Примечания
[править | править код]- ↑ CUDA Toolkit 12.4 Downloads (англ.). NVIDIA. Дата обращения: 25 марта 2024. Архивировано 24 марта 2024 года.
- ↑ Language Solutions Архивная копия от 16 октября 2018 на Wayback Machine / NVIDIA, (англ.)
- ↑ PyCUDA | NVIDIA Developer . Дата обращения: 16 октября 2018. Архивировано 17 октября 2018 года.
- ↑ MATLAB GPU Computing Support for NVIDIA CUDA-Enabled GPUs . Дата обращения: 1 сентября 2020. Архивировано 9 августа 2020 года.
- ↑ Theo Valich. nVidia Launches CUDA Toolkit 3.0, expands OpenCL (англ.). Bright Side Of News (22 марта 2010). Дата обращения: 5 апреля 2010. Архивировано 3 марта 2012 года.
- ↑ См. Официальное руководство по программированию на CUDA, вер. 1.1 // CUDA Programming Guide Архивная копия от 6 октября 2008 на Wayback Machine. Chapter 1. Introduction to CUDA → 1.2 CUDA: A New Architecture for Computing on the GPU
- ↑ NVIDIA передала CUDA Compiler в руки сообщества LLVM — opennet.ru . Дата обращения: 13 мая 2012. Архивировано 13 мая 2012 года.
- ↑ CUDA-Enabled GPU Products Архивная копия от 5 апреля 2008 на Wayback Machine (англ.)
- ↑ Продукты с поддержкой CUDA — NVIDIA . Дата обращения: 26 февраля 2010. Архивировано 26 февраля 2010 года.
- ↑ Larabel, Michael NVIDIA Rolls Out Tegra X2 GPU Support In Nouveau . Phoronix (29 марта 2017). Дата обращения: 8 августа 2017. Архивировано 9 августа 2017 года.
- ↑ Discussion of LUA compilation on Drive PX2 . Bernhard Schuster. GitHub. Дата обращения: 9 ноября 2017. Архивировано 6 сентября 2020 года.
- ↑ Nvidia Xavier Specs Архивная копия от 21 августа 2018 на Wayback Machine on TechPowerUp (preliminary)
- ↑ PyCUDA . Архивировано 3 марта 2012 года.