CUDA

plataforma de computació paral·lela i model d'interfície de programació d'aplicacions

CUDA (acrònim de Compute Unified Device Architecture (Arquitectura de còmput de dispositius unificats)) és una plataforma de computació paral·lela i model d'Interfície de programació d'aplicacions (API) creada per Nvidia per permetre a desenvolupadors i enginyers de programari accelerar l'execució dels seus codis fent servir Unitats de processament gràfic (GPU) amb capacitat CUDA per a processament de caràcter general.[1]

CUDA

TipusGeneral-purpose computing on graphics processing units
Versió inicial23 juny 2007; fa 16 anys (2007-06-23)
Versió estable27 febrer 2019; fa 5 anys (2019-02-27)
LlicènciaProgramari de propietat, Programari gratuït
Característiques tècniques
Sistema operatiuMicrosoft Windows, Linux, MacOS
Equip
Desenvolupador(s)NVIDIA
Més informació
Lloc webNvidia's CUDA zone

La plataforma CUDA és una capa de software que dona accés directe al conjunt virtual d'instruccions de la GPU i als seus elements de comput paral·lel a efectes d'executar nuclis de cómput (CUDA Kernels).[2]

La plataforma va ser desenvolupada amb l'objectiu de treballar conjuntament amb llenguatges de programació com C, C++ i Fortran, tot i que posteriorment ha acabat implementant-se en un ampli espectre de llenguatges de programació com Java, Lua, MATLAB… Aquesta accessibilitat facilita als especialistes de programació paral·lela l'ús dels recursos que ofereix una GPU, en contrast amb altres APIs natives pròpiament de la prográmacio de gráfics (com Direct3D o OpenGL), les quals tenien un enfóc purament gráfic i requerien grans coneixements en aquest ambit.

CUDA dona suport a entorns de treball (Frameworks) orientats a la programació amb acceleradors com OpenACC i OpenCL.

Història

La unitat de processament gràfic (GPU), és un processador especialitzat, dirigit en els seus inicis a les demandes de càlcul intensiu de gràfics d'alta resolució en 3D en temps real. A l'any 2012, les GPU havien evolucionat fins haberse convertit en sistemes multi-core masius, altament paral·lels i enfocats a la manipulació eficient de grans blocs de dades. Aquest disseny és més eficaç que la unitat central de processament de propòsit general (CPU) per als algorismes que han de treballar grans blocs de dades i requerint poca interacció.

Aquesta nou paradigma va posar de manifest la gran necessitat d'un llenguatge de programació no orientat estrictament als gràfics que permetés la utilitzar totes les prestacions d'aquests dispositius d'una forma versatil i de relatiu alt nivell, assentant la importancia del llenguatge de programació CUDA present al mercat des de 2007.

Jerarquia de fils d'execució [3]

Per l'execució de programes paral·lels a través de kernels CUDA Kernels s'utilitza una jerarquia de fils que conté tres categories anidades: Thread, ThreadBlock i Grid. Aquests estan anidats com mostra imatge dreta, on podem veure: En blau la representació dels threads, englobats en els blocks grisos, dintre d'un grid, representat en verd.

Jerarquia simplificada de fils d'execució en CUDA.[4]

Com aquí s'observa, la quantitat de threads i blocks creats ve definida des de la crida a la funció. La següent imatge, mostra de forma més detallada com després aquests fils s'organitzen, així com una serie d'identificadors associats. Aquests identificadors tenen una traducció directa en variables accesibles del llenguatge, que descriuen el context de treball en termes de dimensions i posició:

Organització detallada del fils d'execució

CUDA introdueix dos tipus de dades per aquestes descripcions:

  • unit3: Vector interconstruït de tipus sencer. Funció constructor: unit3 nom_variable(x,i,z).
  • dim3: Vector interconstruït i basat en unit3. Utilitzat per especificar dimensions. Funció constructor: dim3 nom_variable(x,i,z) (qualsevol component no especificat s'inicialitza a 1).

Amb aquest tipus de dades construeix 4 variables, 2 referents a l'identificador de localització i 2 referents a la mida del context:

  • ThreadIdx: Variable de tipus unit3 que conté l'índex d'un thread (dins d'un Block).
  • BlockIdx: Variables de tipus unit3 que conté l'índex d'un block (dins d'un Grid).
  • BlockDim: Variable de tipus dim3 que conté la dimensió d'un Block.
  • GridDim: Variable de tipus dim3 que conté la dimensió d'una Grid.

Els fils poden estar organitzats, d'acord amb l'aplicació, en blocs d'una dimensió (per manipular vectors), de dues dimensions (per manipular matrius) i de tres dimensions (per manipular arranjaments tridimensionals).

Jerarquia de memòria[5]

CUDA memòria

Els threads de CUDA poden accedir a múltiples memòries durant l'execució que es poden dividir en aquests tres casos:

  • Memòria privada per thread d'ús exclusiu
  • Memòria per bloc, és visible per tots els threads del bloc i té el mateix temps de vida que el bloc
  • Memòria global accessible per tots els threads

Hi ha també dos memòries addicionals optimitzades per diferents usos accessibles per tots els threads:

  • Memòria constant
  • Memòria de textures i superfícies

Els espais de memòria global, constant i de textura són persistents entre kernels llençats en la mateixa aplicació.

Accés a la memòria del dispositiu[6]

Memòria global

La memòria global es troba a la memòria del dispositiu, l'accés és fa a través de transaccions de memòria de 32, 64 o 128 bytes. Aquestes operacions de memòria han d'estar alineades de manera natural: només es poden llegir o escriure a memòria segments de 32, 64 o 128 bytes del dispositiu alineats a la seva mida (és a dir, la primera adreça és un múltiple de la seva mida).

Quan un bloc executa una instrucció que accedeix a la memòria global, converteix els accessos de memòria dels fils dins d'un bloc en una o més d'aquestes transaccions de memòria depenent de la mida de la paraula a la qual s'accedeixi en cada fil i la distribució de les adreces de memòria a través dels fils. En general, com més transaccions siguin necessàries, es transferiran més paraules no utilitzades, a més de les paraules que accedeixen als fils, reduint-ne el rendiment. Per exemple, si es genera una transacció de memòria de 32 bytes per a l'accés de 4 bytes de cada fil, el rendiment es divideix en 8.

Memòria compartida

La memòria compartida està ubicada en el xip obtenint un amplada de banda més gran i una latència menor que la memòria local o global.

Per aconseguir una amplada de banda major la memòria compartida es divideix en mòduls de memòria de la mateixa mida anomenats bancs als quals es poden accedir de forma simultània. Qualsevol sol·licitud de lectura o escriptura a memòria feta en N direccions que cauen en N bancs de memòria diferents, és a dir, podran ser atesos simultàniament donant com a resultat una amplada de banda global que és n vegades més alt que l'amplada de banda d'un sol mòdul.

Tanmateix, si dues adreces d'una sol·licitud de memòria cauen al mateix banc de memòria, hi ha un conflicte de banc i l'accés ha de ser serialitzat. El maquinari divideix una sol·licitud de memòria amb conflictes de banc en tantes sol·licituds com sigui necessari, disminuint el rendiment per un factor igual al nombre de sol·licituds de memòria separades. Si el nombre de sol·licituds de memòria separades és n, es diu que la sol·licitud de memòria inicial provoca conflictes de banc en forma de n.

Memòria local

L'espai de memòria local resideix en la memòria del dispositiu, de manera que els accessos a la memòria local tenen la mateixa latència i amplada de banda baixos que els accessos de memòria global i estan subjectes als mateixos requisits de coalescència de memòria que es descriu als accessos de memòria del dispositiu. No obstant això, la memòria local s'organitza de manera que s'accedeix a paraules de 32 bits consecutives mitjançant identificacions de fil consecutives. Per tant, els accessos s'integraran íntegrament sempre que tots els fils d'un warp accedeixin a la mateixa adreça relativa (per exemple, el mateix índex en una variable de matriu, el mateix membre en una variable d'estructura).

Memòria de textures i superfícies

Els espais de memòria per textures i superfícies resideixen en la memòria del dispositiu. El cache de textura està optimitzada per a localitats espacials 2D, cada thread del mateix bloc que llegeix una textura o superfície aconsegueixin un millor rendiment.

Estructura d'una aplicació CUDA

Les aplicacions en CUDA estan pensades per executar codi en forma vectorial aprofitant l'explotació del paral·lelisme al màxim. Una aplicació CUDA pot estar composta per parts de codi C seqüencials executades en CPU i kernels paral·lels executats en GPU combinant les dues infraestructures.

#include <cuda.h>void vecAdd(float* A, float* B, float* C, int n){ int size = n* sizeof(float); float* A_d, B_d, C_d;  1. Reservem en la memoria del dispositus els arrays A, B i C cudaMalloc((void **) &A_d, size); cudaMalloc((void **) &B_d, size); cudaMalloc((void **) &C_d, size); // Copiem A i B a la memoria del dispositiu cudaMemcpy(A_d, A, size, cudaMemcpyHostToDevice); cudaMemcpy(B_d, B, size, cudaMemcpyHostToDevice); 2. // Executem el kernel de codi en el dispositiu per tal d'executar la suma de vectors 3. // Copiem el resultat de C del dispositiu al host (CPU) cudaMemcpy(C, C_d, size, cudaMemcpyDeviceToHost); // Lliurem la memoria utilitzada al dispositiu cudaFree(A_d); cudaFree(B_d); cudaFree (C_d);}

Per tal de fer les operacions dites anteriorment comptem amb les següents funcions implementades en la llibreria "cuda.h":

  • cudaMalloc(Direcció del punter, Mida en bytes): Per reservar memòria al dispositiu.
  • cudaFree(Punter a les dades): Per alliberar memòria prèviament reservada.
  • cudaMemcpy(Punter de destí, Punter d'origen, Mida en bytes, Direcció de la transferència): Copia de blocs d'informació d'un punter a un altre.
  • cudaMemset(Punter, valor, Mida en bytes): Inicialitza una quantitat de bytes a un valor concret.

La direcció de les dades per la funció cudaMemcpy pot ser una de les següents constants:

  • cudaMemcpyHostToHost: Copia dades de memòria principal a memòria principal.
  • cudaMemcpyHostToDevice : Copia dades de memòria principal a la memòria del dispositiu.
  • cudaMemcpyDeviceToHost : Copia dades del dispositiu a memòria principal.
  • cudaMemcpyDeviceToDevice : Copia dades del dispositiu al dispositiu.
  • cudaMemcpyDefault: Es basa en els punters per decidir a on es copien les dades.

Creació de kernels en CUDA

CUDA KernelCUDA incorpora un nou model d'execució diferent al model seqüencial de les computadores tradicionals. A CUDA, el codi serà executat per múltiples fils d'execció a la vegada (centenars o milers). La programació ha de ser modelada segons la jerarquia de fils d'execució.[7]

Una funció kernel ha de ser invocada per la CPU (host), però s'executa exclusivament en GPU.

Els kernels tenen dues característiques fonamentals:

  • Els kernels no poden retornar un valor de forma explícita. Els resultats han de ser desats sobre estructures de dades que s'hagin enviat a la funció en el moment de la crida.
  • Els kernels generen de forma explícita la jerarquia de fils d'execció quan es realitza la crida segons el nombre de blocs de fils d'execució i el nombre de fils d'execució per bloc. Així doncs, una mateixa funció CUDA pot ser cridada diverses vegades en un mateix codi, i tenir una jerarquia de fils d'execució diferents segons la crida.
// Declaració del kernel CUDA.__global__ void foo(double *vector,int limit){ // Calcular l'identificador del thread int identificador = blockIdx.x*blockDim.x + threadIdx.x; // Comprovar que estem dintre del rang del vector if (identificador < limit) vector[identificador] = 0;}

Invocacions a un kernel

Una vegada declarada la funció, és recomanable declarar variables per a gestionar la jerarquia de fils d'execució.

 int CTA_NUM = (N + 1023)/1024; dim3 blocks(CTA_NUM, 1, 1); dim3 threadsPerBlock (1024, 1, 1);

Finalment, es realitza la crida al kernel

 foo<<< blocks, threadsPerBlock >>>(d_vector_in, d_vector_out, N);

Exemple

Codi d'exemple: Suma de vectors

#include <stdio.h>#include <stdlib.h>#include <math.h>// Declaració del kernel CUDA.__global__ void sumaVectors(double *a, double *b, double *c, int n){ // Calcular l'identificador del thread int id = blockIdx.x*blockDim.x+threadIdx.x; // Comprobar que estem dintre del rang del vector if (id < n) c[id] = a[id] + b[id];}// Funció principalint main(int argc, char* argv[]){ // Mida del vector int n = 1024*1024; // Declarem els punters d'entrada per la memòria del host  double *host_vector_a; double *host_vector_b; // Declarem els punters de sortida per la memòria del host  double *host_vector_c; // Declarem els punters d'entrada per la memòria del dispositiu (GPU) double *device_vector_a; double *device_vector_b; // Declarem els punters de sortida per la memòria del dispositiu (GPU) double *device_vector_c; // Calculem la mida del vector en bytes size_t bytes = n*sizeof(double); // Reservar memòria a l'espai del host per als vectors host_vector_a = (double*)malloc(bytes); host_vector_b = (double*)malloc(bytes); host_vector_c = (double*)malloc(bytes); // Reservar memòria a l'espai del dispositiu (GPU) per als vectors cudaMalloc(&device_vector_a, bytes); cudaMalloc(&device_vector_b, bytes); cudaMalloc(&device_vector_c, bytes); int i; // Inicialitzar valors del vectors for(i = 0; i < n; i++) { host_vector_a[i] = sin(i)*sin(i); host_vector_b[i] = cos(i)*cos(i); } // Copiar els vectors del host al dispositiu (D <-- H) cudaMemcpy(device_vector_a, host_vector_a, bytes, cudaMemcpyHostToDevice); cudaMemcpy(device_vector_b, host_vector_b, bytes, cudaMemcpyHostToDevice); int blockSize, gridSize; // Nombre de threads per bloc blockSize = 1024; // Nombre de blocks al grid gridSize = (int)ceil((float)n/blockSize); // Executem el kernel sumaVectors<<<gridSize, blockSize>>>(device_vector_a, device_vector_b, device_vector_c, n); // Copiem el vector de sortida del dispositiu al host (H <-- D) cudaMemcpy(host_vector_c, device_vector_c, bytes, cudaMemcpyDeviceToHost); // Calculem el resultat final double sum = 0; for(i=0; i<n; i++) sum += host_vector_c[i]; printf("final result: %f\n", sum/n); // Alliberem la memòria del dispositiu cudaFree(device_vector_a); cudaFree(device_vector_b); cudaFree(device_vector_c); // Alliberem la memòria del host free(host_vector_a); free(host_vector_b); free(host_vector_c); return 0;}

Codi exemple: Multiplicació per 2 de tots els pixels en una determinada zona

__global__ void PictureKernel(float* d_Pin, float* d_Pout, int n,int m){ // Calculem la fila de d_Pin i d_Pout que estem processant. int Row = blockIdx.y*blockDim.y + threadIdx.y; // Calculem la columna de d_Pin i d_Pout que estem processant. int Col = blockIdx.x*blockDim.x + threadIdx.x; // Cada thread computarà 1 element de d_Pin generant el corresponent d_Pout if ((Row < m) && (Col < n)) { d_Pout[Row*n+Col] = 2*d_Pin[Row*n+Col]; }}

Sincronització[8]

Com els diferents fils col·laboren entre ells i poden compartir dades, es requereixen unes directives de sincronització. En un kernel, es pot declarar una barrera afegint una crida a __syncthreads(), amb això tots els fils s'esperaran fins que tots els fils arribin al mateix punt.

Característiques i especificacions de les diferents versió

Compatibilitat amb funcions (les funcions no llistades són compatibles amb totes les capacitats de computació)Capacitat de computació (versió)
1.01.11.21.32.x3.03.23.5, 3.7, 5.0, 5.25.36.x7.x
Funcions atòmiques senceres que operen en paraules de 32 bits a la memòria globalNo
atomicExch () que opera en valors de punt flotant de 32 bits en la memòria global
Funcions atòmiques senceres que operen en paraules de 32 bits en memòria compartidaNo
atomicExch () que opera en valors de punt flotant de 32 bits en memòria compartida
Funcions atòmiques senceres que operen en paraules de 64 bits a la memòria global
Funcions de vot de warp
Operacions de punt flotant de doble precisióNo
Funcions atòmiques que operen en valors enters de 64 bits a la memòria compartidaNo
Addició atòmica de punt flotant que opera en paraules de 32 bits en memòria global i compartida
_ballot()
_threadfence_system()
_syncthreads_count(), _syncthreads_and(), _syncthreads_or()
Funcions de superfície
Graella 3D del bloc de fils
Funcions de shuffle warpNo
Funnel shiftNo
Paral·lelisme dinàmicNo
Operacions de punt flotant de mitja precisió:

addició, resta, multiplicació, comparació, funcions de shuffle de l'ordit, conversió

No
Addició atòmica operant en valors de punt flotant de 64 bits en memòria global i memòria compartidaNo
Tensor coreNo

[9]

Tipus de dadaOperacióSuportat des deCompatible des de

per a la memòria global

Compatible des de

per a la memòria compartida

Enter de 16-bitoperacions generals
Enter de 32-bitfuncions atòmiques1.11.2
Enter de 64-bitfuncions atòmiques1.22.0
Punt flotant de 16 bitssuma, resta,

multiplicació, comparació,

funcions de shuffle de l'ordit, conversió

5.3
Punt flotant de 32 bitsatomicExch()1.11.2
Punt flotant de 32 bitssuma atòmica2.02.0
Punt flotant de 64 bitsoperacions generals1.3
Punt flotant de 64 bitssuma atòmica6.06.0
Nuclis tensor7.0

Nota: Totes les línies que falten o les entrades buides reflecteixen alguna falta d'informació sobre aquest article exacte..
[10]

Especificacions tècniquesCapacitat de computació (versió)
1.01.11.21.32.x3.03.23.53.75.05.25.36.06.16.27.0
(7.2?)
7.5
Nombre màxim de xarxes de residents per dispositiu

(execució concurrent del nucli)

t.b.d.16432161283216128
Màxima dimensionalitat de la graella de blocs de fils23
Dimensió x màxima d'una quadrícula de blocs de fils65535231 − 1
Màxima dimensió y, o z d'una quadrícula de blocs de fils65535
Màxima dimensionalitat del bloc de fils3
Màxima dimensió x o y d'un bloc5121024
Dimensió z màxima d'un bloc64
Nombre màxim de fils per bloc5121024
Mida del Warp32
Nombre màxim de blocs residents per multiprocessador8163216
Nombre màxim de warps residents per multiprocessador2432486432
Nombre màxim de fils residents per multiprocessador7681024153620481024
Nombre de registres de 32 bits per multiprocessador8 K16 K32 K64 K128 K64 K
Nombre màxim de registres de 32 bits per bloc de filsN/A32 K64 K32 K64 K32 K64 K32 K64 K
Nombre màxim de registres de 32 bits per fil12463255
Quantitat màxima de memòria compartida per multiprocessador16 KB48 KB112 KB64 KB96 KB64 KB96 KB64 KB96 KB
(of 128)
64 KB
(of 96)
Quantitat màxima de memòria compartida per bloc de fils48 KB48/96 KB64 KB
Nombre de bancs de memòria compartida1632
Quantitat de memòria local per fil16 KB512 KB
Mida de memòria constant64 KB
Treball de memòria cau establert per multiprocessador per a una memòria constant8 KB4 KB8 KB
Treball de memòria cau establert per multiprocessador per a memòria de textura6 – 8 KB12 KB12 – 48 KB24 KB48 KBN/A24 KB48 KB24 KB32 – 128 KB32 – 64 KB
Amplada màxima per a una referència de textura 1D lligada a una CUDA matriu819265536
Amplada màxima per a la referència de textura 1D lligada a la memòria lineal227
Amplada màxima i nombre de capes per a una referència de textura en capes 1D8192 × 51216384 × 2048
Amplada i alçada màximes per a la referència de textura 2D lligada a una matriu CUDA65536 × 3276865536 × 65535
Amplada i alçada màximes per a la referència de textura 2D lligada a una memòria lineal65000²
L'amplada i l'altura màximes per a la referència de textura 2D lligades a una textura de suport de matriu CUDA es recullenN/A16384²
Amplada, alçada i nombre màxim de capes per a una referència de text en capes 2D8192 × 8192 × 51216384 × 16384 × 2048
Amplada, alçada i profunditat màximes per a una referència de textura 3D lligada a la memòria lineal o una matriu CUDA2048340963
Amplada màxima i nombre de capes per a una referència de textura en capes de cubemapN/A16384 × 2046
Nombre màxim de textures que es poden enllaçar amb un nucli128256
Amplada màxima per a una referència de superfície 1D lligada a una matriu CUDANo65536
Amplada màxima i nombre de capes per a una referència de superfície en capes 1D65536 × 2048
Amplada i alçada màximes per a una referència de superfície 2D lligada a una matriu CUDA65536 × 32768
Amplada, alçada i nombre màxim de capes per a una referència de superfície en capes 2D65536 × 32768 × 2048
Amplada, alçada i profunditat màxima per a una referència de superfície 3D lligada a una matriu CUDA65536 × 32768 × 2048
Amplada màxima i nombre de capes per a una referència de superfície en capes cubemap32768 × 2046
Nombre màxim de superfícies que es poden unir a un nucli
816
Nombre màxim d'instruccions per n2 million512 million

[11]

Especificacions d'arquitecturaCapacitat de computació (versió)
1.01.11.21.32.02.13.03.53.75.05.26.06.1, 6.27.0, 7.27.5
Nombre de carrils ALU per a operacions aritmètiques de punt flotant sencer i de precisió8[12]32481921286412864
Nombre d'unitats de funcions especials per a funcions transcendents de punt flotant de precisió única24832163216
Nombre d'unitats de filtratge de textures per a cada unitat d'adreça de textura o unitat de sortida de representació (ROP)248168[13]
Nombre de planificadors de warp12424
Nombre màxim d'instruccions emeses alhora per un sol planificador12[14]1
Nombre de nuclis de tensorN/A8[13]
Mida en KB de memòria unificada per a memòria cau de dades i memòria compartida per multi processadort.b.d.12896[15]

[16]

Per obtenir més informació, vegeu l'article: «NVIDIA CUDA Compute Capability Comparative Table». and read Nvidia CUDA programming guide.[17]

Tarjetes Suportades

Nivell de CUDA soportat per la tarjeta GPU. Vegeu també a: Nvidia:

  • CUDA SDK 1.0 suport per capacitat de cómput 1.0 – 1.1 (Tesla)[18]
  • CUDA SDK 1.1 suport per capacitat de cómput 1.0 – 1.1+x (Tesla)
  • CUDA SDK 2.0 suport per capacitat de cómput 1.0 – 1.1+x (Tesla)
  • CUDA SDK 2.1 – 2.3.1suport per capacitat de cómput 1.0 – 1.3 (Tesla)[19][20][21][22]
  • CUDA SDK 3.0 – 3.1 suport per capacitat de cómput 1.0 – 2.0 (Tesla, Fermi)[23][24]
  • CUDA SDK 3.2 suport per capacitat de cómput 1.0 – 2.1 (Tesla, Fermi)[25]
  • CUDA SDK 4.0 – 4.2 suport per capacitat de cómput 1.0 – 2.1+x (Tesla, Fermi, more?)
  • CUDA SDK 5.0 – 5.5 suport per capacitat de cómput 1.0 – 2.1+x (Tesla, Fermi, more?)
  • CUDA SDK 6.0 suport per capacitat de cómput 1.0 – 3.5 (Tesla, Fermi, Kepler)
  • CUDA SDK 6.5 suport per capacitat de cómput 1.1 – 5.x (Tesla, Fermi, Kepler, Maxwell). Last version with support for compute capability 1.x (Tesla)
  • CUDA SDK 7.0 – 7.5 suport per capacitat de cómput 2.0 – 5.x (Fermi, Kepler, Maxwell)
  • CUDA SDK 8.0 suport per capacitat de cómput 2.0 – 6.x (Fermi, Kepler, Maxwell, Pascal). Last version with support for compute capability 2.x (Fermi)
  • CUDA SDK 9.0 – 9.2 suport per capacitat de cómput 3.0 – 7.2 (Kepler, Maxwell, Pascal, Volta)
  • CUDA SDK 10.0 – 10.1 suport per capacitat de cómput 3.0 – 7.5 (Kepler, Maxwell, Pascal, Volta, Turing)

[26]

Compute
capability
(version)
Micro-
architecture
GPUsGeForceQuadro, NVSTeslaTegra,
Jetson,
DRIVE
1.0TeslaG80GeForce 8800 Ultra, GeForce 8800 GTX, GeForce 8800 GTS(G80)Quadro FX 5600, Quadro FX 4600, Quadro Plex 2100 S4Tesla C870, Tesla D870, Tesla S870
1.1G92, G94, G96, G98, G84, G86GeForce GTS 250, GeForce 9800 GX2, GeForce 9800 GTX, GeForce 9800 GT, GeForce 8800 GTS(G92), GeForce 8800 GT, GeForce 9600 GT, GeForce 9500 GT, GeForce 9400 GT, GeForce 8600 GTS, GeForce 8600 GT, GeForce 8500 GT,
GeForce G110M, GeForce 9300M GS, GeForce 9200M GS, GeForce 9100M G, GeForce 8400M GT, GeForce G105M
Quadro FX 4700 X2, Quadro FX 3700, Quadro FX 1800, Quadro FX 1700, Quadro FX 580, Quadro FX 570, Quadro FX 470, Quadro FX 380, Quadro FX 370, Quadro FX 370 Low Profile, Quadro NVS 450, Quadro NVS 420, Quadro NVS 290, Quadro NVS 295, Quadro Plex 2100 D4,
Quadro FX 3800M, Quadro FX 3700M, Quadro FX 3600M, Quadro FX 2800M, Quadro FX 2700M, Quadro FX 1700M, Quadro FX 1600M, Quadro FX 770M, Quadro FX 570M, Quadro FX 370M, Quadro FX 360M, Quadro NVS 320M, Quadro NVS 160M, Quadro NVS 150M, Quadro NVS 140M, Quadro NVS 135M, Quadro NVS 130M, Quadro NVS 450, Quadro NVS 420,[27] Quadro NVS 295
1.2GT218, GT216, GT215GeForce GT 340*, GeForce GT 330*, GeForce GT 320*, GeForce 315*, GeForce 310*, GeForce GT 240, GeForce GT 220, GeForce 210,
GeForce GTS 360M, GeForce GTS 350M, GeForce GT 335M, GeForce GT 330M, GeForce GT 325M, GeForce GT 240M, GeForce G210M, GeForce 310M, GeForce 305M
Quadro FX 380 Low Profile, Nvidia NVS 300, Quadro FX 1800M, Quadro FX 880M, Quadro FX 380M, Nvidia NVS 300, NVS 5100M, NVS 3100M, NVS 2100M, ION
1.3GT200, GT200bGeForce GTX 295, GTX 285, GTX 280, GeForce GTX 275, GeForce GTX 260Quadro FX 5800, Quadro FX 4800, Quadro FX 4800 for Mac, Quadro FX 3800, Quadro CX, Quadro Plex 2200 D2Tesla C1060, Tesla S1070, Tesla M1060
2.0FermiGF100, GF110GeForce GTX 590, GeForce GTX 580, GeForce GTX 570, GeForce GTX 480, GeForce GTX 470, GeForce GTX 465, GeForce GTX 480MQuadro 6000, Quadro 5000, Quadro 4000, Quadro 4000 for Mac, Quadro Plex 7000, Quadro 5010M, Quadro 5000MTesla C2075, Tesla C2050/C2070, Tesla M2050/M2070/M2075/M2090
2.1GF104, GF106 GF108, GF114, GF116, GF117, GF119GeForce GTX 560 Ti, GeForce GTX 550 Ti, GeForce GTX 460, GeForce GTS 450, GeForce GTS 450*, GeForce GT 640 (GDDR3), GeForce GT 630, GeForce GT 620, GeForce GT 610, GeForce GT 520, GeForce GT 440, GeForce GT 440*, GeForce GT 430, GeForce GT 430*, GeForce GT 420*,
GeForce GTX 675M, GeForce GTX 670M, GeForce GT 635M, GeForce GT 630M, GeForce GT 625M, GeForce GT 720M, GeForce GT 620M, GeForce 710M, GeForce 610M, GeForce 820M, GeForce GTX 580M, GeForce GTX 570M, GeForce GTX 560M, GeForce GT 555M, GeForce GT 550M, GeForce GT 540M, GeForce GT 525M, GeForce GT 520MX, GeForce GT 520M, GeForce GTX 485M, GeForce GTX 470M, GeForce GTX 460M, GeForce GT 445M, GeForce GT 435M, GeForce GT 420M, GeForce GT 415M, GeForce 710M, GeForce 410M
Quadro 2000, Quadro 2000D, Quadro 600, Quadro 4000M, Quadro 3000M, Quadro 2000M, Quadro 1000M, NVS 310, NVS 315, NVS 5400M, NVS 5200M, NVS 4200M
3.0KeplerGK104, GK106, GK107GeForce GTX 770, GeForce GTX 760, GeForce GT 740, GeForce GTX 690, GeForce GTX 680, GeForce GTX 670, GeForce GTX 660 Ti, GeForce GTX 660, GeForce GTX 650 Ti BOOST, GeForce GTX 650 Ti, GeForce GTX 650,
GeForce GTX 880M, GeForce GTX 780M, GeForce GTX 770M, GeForce GTX 765M, GeForce GTX 760M, GeForce GTX 680MX, GeForce GTX 680M, GeForce GTX 675MX, GeForce GTX 670MX, GeForce GTX 660M, GeForce GT 750M, GeForce GT 650M, GeForce GT 745M, GeForce GT 645M, GeForce GT 740M, GeForce GT 730M, GeForce GT 640M, GeForce GT 640M LE, GeForce GT 735M, GeForce GT 730M
Quadro K5000, Quadro K4200, Quadro K4000, Quadro K2000, Quadro K2000D, Quadro K600, Quadro K420, Quadro K500M, Quadro K510M, Quadro K610M, Quadro K1000M, Quadro K2000M, Quadro K1100M, Quadro K2100M, Quadro K3000M, Quadro K3100M, Quadro K4000M, Quadro K5000M, Quadro K4100M, Quadro K5100M, NVS 510, Quadro 410Tesla K10, GRID K340, GRID K520
3.2GK20ATegra K1,
Jetson TK1
3.5GK110, GK208GeForce GTX Titan Z, GeForce GTX Titan Black, GeForce GTX Titan, GeForce GTX 780 Ti, GeForce GTX 780, GeForce GT 640 (GDDR5), GeForce GT 630 v2, GeForce GT 730, GeForce GT 720, GeForce GT 710, GeForce GT 740M (64-bit, DDR3), GeForce GT 920MQuadro K6000, Quadro K5200Tesla K40, Tesla K20x, Tesla K20
3.7GK210Tesla K80
5.0MaxwellGM107, GM108GeForce GTX 750 Ti, GeForce GTX 750, GeForce GTX 960M, GeForce GTX 950M, GeForce 940M, GeForce 930M, GeForce GTX 860M, GeForce GTX 850M, GeForce 845M, GeForce 840M, GeForce 830M, GeForce GTX 870MQuadro K1200, Quadro K2200, Quadro K620, Quadro M2000M, Quadro M1000M, Quadro M600M, Quadro K620M, NVS 810Tesla M10
5.2GM200, GM204, GM206GeForce GTX Titan X, GeForce GTX 980 Ti, GeForce GTX 980, GeForce GTX 970, GeForce GTX 960, GeForce GTX 950, GeForce GTX 750 SE, GeForce GTX 980M, GeForce GTX 970M, GeForce GTX 965MQuadro M6000 24GB, Quadro M6000, Quadro M5000, Quadro M4000, Quadro M2000, Quadro M5500, Quadro M5000M, Quadro M4000M, Quadro M3000MTesla M4, Tesla M40, Tesla M6, Tesla M60
5.3GM20BTegra X1,
Jetson TX1,
Jetson Nano,
DRIVE CX,
DRIVE PX
6.0PascalGP100Quadro GP100Tesla P100
6.1GP102, GP104, GP106, GP107, GP108Nvidia TITAN Xp, Titan X, GeForce GTX 1080 Ti, GTX 1080, GTX 1070 Ti, GTX 1070, GTX 1060, GTX 1050 Ti, GTX 1050, GT 1030, MX150Quadro P6000, Quadro P5000, Quadro P4000, Quadro P2000, Quadro P1000, Quadro P600, Quadro P400, Quadro P5000(Mobile), Quadro P4000(Mobile), Quadro P3000(Mobile)Tesla P40, Tesla P6, Tesla P4
6.2GP10B[28]Tegra X2, Jetson TX2, DRIVE PX 2
7.0VoltaGV100NVIDIA TITAN VQuadro GV100Tesla V100
7.2GV10B[29]Tegra Xavier,
Jetson AGX Xavier, DRIVE AGX Xavier, DRIVE AGX Pegasus
7.5TuringTU102, TU104, TU106, TU116, TU117NVIDIA TITAN RTX, GeForce RTX 2080 Ti, RTX 2080, RTX 2070, RTX 2060, GTX 1660 Ti, GTX 1660, GTX 1650Quadro RTX 8000, Quadro RTX 6000, Quadro RTX 5000, Quadro RTX 4000, Quadro T2000, Quadro T1000Tesla T4
8.0

'*' – OEM - Només productes.

Llibreries per llenguatges específics

Referències

Enllaços externs

🔥 Top keywords: PortadaEspecial:CercaCarles Porta i GasetTor (Alins)À Punt FMTor (sèrie de televisió)Llista de municipis de CatalunyaEmilio Delgado OrgazEspecial:Canvis recentsGuinguetaXavlegbmaofffassssitimiwoamndutroabcwapwaeiippohfffXFacultat universitàriaManuel de Pedrolo i MolinaViquipèdia:ContacteBea Segura i FolchAlbert Jané i RieraNit de Sant JoanMort, qui t'ha mort?David Madí i CendrósCarles Puigdemont i CasamajóVila-sanaEwa PajorNicolás SartoriusAlinsAntoni Comín i OliveresGoogle ChromeClara Ponsatí i ObiolsPara-xocsDotze homes sense pietatValtònycLluís Puig i GordiAamer AnwarÈdafonLaura Borràs i CastanyerKylian MbappéPablo HasélFesta del sacrificiJosep Costa i RossellóDionís Guiteras i Rubio