Loosst d'Lagerung net de Schlëssel Fläscheneck am Model Training ginn

Et gëtt gesot datt Technologiefirmen entweder no GPUs krabbelen oder um Wee sinn fir se ze kréien.Am Abrëll huet den Tesla CEO Elon Musk 10,000 GPUs kaaft a festgehalen datt d'Firma weider eng grouss Quantitéit vu GPUs vun NVIDIA kaafen.Op der Entreprise Säit dréckt IT Personal och schwéier fir sécherzestellen datt GPUs dauernd benotzt gi fir de Rendement op Investitioun ze maximéieren.Wéi och ëmmer, e puer Firme kënnen feststellen datt wärend d'Zuel vun de GPUs eropgeet, d'GPU Idleness méi schwéier gëtt.

Wann d'Geschicht eis eppes iwwer High-Performance Computing (HPC) geléiert huet, ass et datt d'Späicheren an d'Vernetzung net op d'Käschte vum Fokus ze vill op Berechnung geaffert ginn.Wann d'Späichere net effizient Daten op d'Recheneenheeten transferéieren, och wann Dir déi meescht GPUs op der Welt hutt, wäert Dir keng optimal Effizienz erreechen.

Nom Mike Matchett, engem Analyst bei Small World Big Data, kënne méi kleng Modeller am Memory (RAM) ausgefouert ginn, wat méi Fokus op Berechnung erlaabt.Wéi och ëmmer, gréisser Modeller wéi ChatGPT mat Milliarden Noden kënnen net an der Erënnerung gespäichert ginn wéinst den héije Käschte.

"Dir kënnt net Milliarden Noden an der Erënnerung passen, sou datt d'Späichere nach méi wichteg gëtt", seet Matchett.Leider gëtt d'Datelagerung dacks während dem Planungsprozess iwwersinn.

Am Allgemengen, onofhängeg vum Gebrauchsfall, ginn et véier gemeinsam Punkten am Modell Training Prozess:

1. Modell Training
2. Inferenz Applikatioun
3. Donnéeën Stockage
4. Beschleunegt Rechenzäit

Wann Dir Modeller erstellt an ofsetzt, prioritär déi meescht Ufuerderunge séier Beweis vu Konzept (POC) oder Testëmfeld fir Modelltraining ze initiéieren, mat Datenspeicherbedürfnisser déi net Top berücksichtegt ginn.

Wéi och ëmmer, d'Erausfuerderung läit an der Tatsaach datt d'Ausbildung oder d'Inferenzentsetzung fir Méint oder souguer Joeren daueren kann.Vill Firmen Skala séier hir Modellgréissten während dëser Zäit op, an d'Infrastruktur muss ausdehnen fir déi wuessend Modeller an Datesätz z'empfänken.

Fuerschung vu Google iwwer Millioune ML Trainingsaarbechtslaascht weist datt en Duerchschnëtt vun 30% vun der Trainingszäit un der Inputdatenpipeline verbruecht gëtt.Wärend fréier Fuerschung sech op d'Optimiséierung vun GPUs konzentréiert huet fir Training ze beschleunegen, bleiwen nach ëmmer vill Erausfuerderunge bei der Optimisatioun vun verschiddenen Deeler vun der Datepipeline.Wann Dir bedeitend Rechenkraaft hutt, gëtt de richtege Flaschenhals wéi séier Dir Daten an d'Berechnungen fiddere kënnt fir Resultater ze kréien.

Speziell erfuerderen d'Erausfuerderunge bei der Datelagerung a Gestioun Planung fir Datewuesstum, wat Iech erlaabt kontinuéierlech de Wäert vun den Daten ze extrahieren wéi Dir Fortschrëtter, besonnesch wann Dir a méi fortgeschratt Benotzungsfäll wéi Deep Learning an neural Netzwierker stellt, déi méi héich Fuerderunge setzen. Späicheren a punkto Kapazitéit, Leeschtung a Skalierbarkeet.

Besonnesch:

Skalierbarkeet
Maschinnléieren erfuerdert grouss Quantitéiten un Daten ze handhaben, a wéi de Volume vun den Daten eropgeet, verbessert d'Genauegkeet vun de Modeller och.Dëst bedeit datt d'Geschäfter all Dag méi Daten sammelen a späicheren.Wann d'Späichere net kanaléiere kënnen, kreéieren datenintensiv Aarbechtslaascht Flaschenhals, limitéieren d'Performance a resultéiert zu deier GPU Idle Zäit.

Flexibilitéit
Flexibel Ënnerstëtzung fir verschidde Protokoller (inklusive NFS, SMB, HTTP, FTP, HDFS a S3) ass néideg fir d'Bedierfnesser vu verschiddene Systemer z'erreechen, anstatt op eng eenzeg Aart vun Ëmfeld limitéiert ze sinn.

Latenz
I / O Latenz ass kritesch fir Modeller ze bauen an ze benotzen well Daten e puer Mol gelies a gelies ginn.D'Reduktioun vun der I/O Latenz kann d'Trainingszäit vun de Modeller ëm Deeg oder Méint verkierzen.Méi séier Modellentwécklung iwwersetzt direkt op méi grouss Geschäftsvirdeeler.

Duerchgang
Den Duerchgang vu Späichersystemer ass entscheedend fir effizient Modelltraining.Trainingsprozesser beinhalt grouss Quantitéiten un Daten, typesch an Terabytes pro Stonn.

Parallel Zougang
Fir en héijen Duerchsatz z'erreechen, hunn Trainingsmodeller Aktivitéiten a verschidde parallel Aufgaben opgedeelt.Dëst bedeit dacks datt Maschinnléiere Algorithmen op déiselwecht Dateie vu multiple Prozesser (potenziell op multiple kierperleche Serveren) gläichzäiteg zougräifen.De Stockage System muss concurrent Ufuerderunge verschaffen ouni Leeschtung Kompromëss.

Mat sengen aussergewéinleche Fäegkeeten a gerénger Latenz, héijen Duerchgang a grousser Parallel I/O ass Dell PowerScale en ideale Späicherergänzung fir GPU-beschleunegt Informatik.PowerScale reduzéiert effektiv d'Zäit néideg fir Analysemodeller déi Multi-Terabyte Datesets trainéieren an testen.An PowerScale All-Flash Storage erhéicht d'Bandbreedung ëm 18 Mol, eliminéiert I/O Flaschenhals, a kann zu existéierende Isilon Cluster bäigefüügt ginn fir de Wäert vu grousse Quantitéiten vun onstrukturéierten Donnéeën ze beschleunegen an ze spären.

Ausserdeem bidden d'PowerScale Multi-Protokoll Zougangsfäegkeeten onlimitéiert Flexibilitéit fir Aarbechtslaascht ze lafen, wat et erlaabt datt Daten mat engem Protokoll gespäichert ginn an mat engem aneren zougänglech sinn.Speziell, déi mächteg Features, Flexibilitéit, Skalierbarkeet an Enterprise-Grad Funktionalitéit vun der PowerScale Plattform hëllefen déi folgend Erausfuerderungen unzegoen:

- Beschleunegt Innovatioun bis zu 2,7 Mol, reduzéiert de Modell Trainingszyklus.

- Eliminéiert I/O Flaschenhals a liwwert méi séier Modelltraining a Validatioun, verbessert Modellgenauegkeet, verstäerkter Datewëssenschaftsproduktivitéit, a maximéiert Rendement op Informatikinvestitiounen andeems Dir Enterprise-Grad Features, héich Leeschtung, Concurrency, a Skalierbarkeet benotzt.Verbessert d'Modellgenauegkeet mat méi déif, méi héijer Opléisung Datesätz andeems Dir bis zu 119 PB vun effektiver Späicherkapazitéit an engem eenzege Cluster benotzt.

- Erreechen Détachement op Skala andeems Dir kleng an onofhängeg Skala vun Rechen a Lagerung ufänkt, robust Dateschutz a Sécherheetsoptioune liwwert.

- Verbessert d'Datenwëssenschaftsproduktivitéit mat In-Place Analyse a pre-validéiert Léisunge fir méi séier, niddereg-Risiko Deployment.

- Leveraging bewährte Designs baséiert op bescht-of-Breed Technologien, dorënner NVIDIA GPU Beschleunegung a Referenzarchitekturen mat NVIDIA DGX Systemer.D'Héichleistung an d'Concurrency vun PowerScale entspriechen d'Späicherleistungsfuerderunge bei all Etapp vum Maschinnléieren, vun Datenacquisitioun a Virbereedung bis Modelltraining an Inferenz.Zesumme mam OneFS Betriebssystem kënnen all Node nahtlos am selwechte OneFS-driven Cluster operéieren, mat Enterprise-Niveau Features wéi Performance Management, Datemanagement, Sécherheet an Dateschutz, wat méi séier Ofschloss vu Modelltraining a Validatioun fir Geschäfter erméiglecht.


Post Zäit: Jul-03-2023