Varför är GPU:er avgörande för AI?
Artificiell intelligens (AI) har blivit en grundläggande del av dagens tekniklandskap. Enligt developers.redhat.com, har grafikprocessorer (GPU:er) blivit grunden för artificiell intelligens. Men varför är det så? Låt oss dyka djupare in i ämnet.
Vad är en GPU och varför är den viktig för AI?
GPU står för Graphics Processing Unit, eller grafikprocessor på svenska. Termen populariserades 1999 när Nvidia marknadsförde sin GeForce 256 med förmågan att hantera grafisk transformation, belysning och triangelklippning. Dessa är matematiskt tunga beräkningar som hjälper till att rendera tredimensionella utrymmen.
GPU:er kan dominera dussintals CPU:er i prestanda med hjälp av cachning och extra kärnor. Skalning av CPU:er kommer linjärt att påskynda processen. Men även med 100 CPU:er skulle processen ta över en vecka, för att inte tala om att lägga till en ganska dyr räkning. Några GPU:er, med parallell bearbetning, kan lösa problemet inom en dag. Vi gjorde omöjliga uppgifter möjliga med denna hårdvara.
Hur har GPU:er utvecklats för att stödja AI?
Med tiden har GPU:ernas kapaciteter utvidgats för att inkludera många processer, såsom artificiell intelligens, som ofta kräver att beräkningar körs på gigabyte data. Användare kan enkelt integrera höghastighetsdatorer med enkla frågor till API:er och kodningsbibliotek med hjälp av kompletterande programvarupaket för dessa bestar.
I november 2006 introducerade NVIDIA CUDA, en parallell databehandlingsplattform och programmeringsmodell. Detta gör att utvecklare kan använda GPU:er effektivt genom att utnyttja den parallella beräkningsmotorn i NVIDIA:s GPU:er och vägleda dem att dela upp sina komplexa problem i mindre, mer hanterbara problem där varje delproblem är oberoende av de andra resultaten.
Hur har samarbeten förbättrat användningen av GPU:er för AI med Red Hat?
NVIDIA spred ytterligare sina rötter genom att samarbeta med Red Hat OpenShift för att anpassa CUDA till Kubernetes, vilket gör att kunder kan utveckla och distribuera applikationer mer effektivt. Innan detta partnerskap var kunder som var intresserade av att använda Kubernetes ovanpå GPU:er tvungna att manuellt skriva containrar för CUDA och programvara för att integrera Kubernetes med GPU:er. Denna process var tidskrävande och benägen för fel. Red Hat OpenShift förenklade denna process genom att möjliggöra för GPU-operatören att automatiskt containerisera CUDA och annan nödvändig programvara när en kund distribuerar OpenShift ovanpå en GPU-server.
Red Hat OpenShift Data Science (RHODS) utvidgade uppdraget att utnyttja och förenkla GPU-användning för data science-arbetsflöden. Nu när kunder startar sin Jupyter notebook-server på RHODS har de möjlighet att anpassa antalet GPU:er som krävs för deras arbetsflöde och välja Pytorch och TensorFlow GPU-aktiverade notebook-bilder. Du kan kanske välja 1 eller flera GPU:er, beroende på GPU-maskinpoolen som lagts till i din kluster. Kunderna har makten att använda GPU:er i sina datautvinnings- och modellbearbetningsuppgifter.