[China, Shenzhen, Juli 14, 2023] Haut huet Huawei seng nei AI Späicherléisung fir d'Ära vu grousser Skala Modeller enthüllt, déi optimal Späicherléisungen fir Basismodell Training, Industriespezifesch Modell Training, an Inferenz a segmentéiert Szenarien ubidden, also entlooss nei AI Fäegkeeten.
An der Entwécklung an Ëmsetzung vu grousser Skala Modellapplikatioune stellen d'Entreprisen véier grouss Erausfuerderunge:
Als éischt ass d'Zäit néideg fir d'Datepräparatioun laang, d'Datequellen si verspreet, an d'Aggregatioun ass lues, dauert ongeféier 10 Deeg fir Honnerte vun Terabyte vun Daten virzebereeden. Zweetens, fir multi-modal grouss Modeller mat massiven Text- a Bilddatesets, ass déi aktuell Luedegeschwindegkeet fir massiv kleng Dateien manner wéi 100MB / s, wat zu enger gerénger Effizienz fir Trainingsset Luede resultéiert. Drëttens, heefeg Parameter Upassunge fir grouss Modeller, zesumme mat onbestänneg Trainingsplattformen, verursaachen Trainingsunterbriechungen ongeféier all 2 Deeg, wat de Checkpoint Mechanismus erfuerdert fir d'Ausbildung erëmzefannen, mat Erhuelung iwwer een Dag. Schlussendlech, héich Implementatiounsschwelle fir grouss Modeller, komplexe Systemopbau, Ressourceplang Erausfuerderungen, an GPU Ressource Notzung dacks ënner 40%.
Huawei riicht sech mam Trend vun der AI Entwécklung an der Ära vu grousse Modeller aus, bitt Léisunge fir verschidden Industrien an Szenarien ugepasst. Et stellt den OceanStor A310 Deep Learning Data Lake Storage an de FusionCube A3000 Training / Inference Super-Converged Appliance vir. OceanStor A310 Deep Learning Data Lake Storage zielt souwuel Basis wéi och Industrie-Niveau grouss Modell Daten Séi Szenarie, erreechen ëmfaassend AI Daten Gestioun vun Daten Aggregatioun, Virveraarbechtung ze Modell Training, an Inferenz Uwendungen. Den OceanStor A310, an engem eenzegen 5U Rack, ënnerstëtzt industrieféierend 400GB / s Bandbreedung a bis zu 12 Milliounen IOPS, mat linearer Skalierbarkeet bis zu 4096 Noden, wat eng nahtlos Cross-Protokoll Kommunikatioun erméiglecht. De Global File System (GFS) erliichtert intelligent Datenweben iwwer Regiounen, streamlinéiert Datenaggregatiounsprozesser. Near-Storage Computing realiséiert no-Daten-Virveraarbechtung, reduzéiert Datenbewegung, a verbessert d'Virveraarbechtungseffizienz ëm 30%.
De FusionCube A3000 Training / Inference Super-Converged Appliance, entworf fir Industrie-Niveau grouss Modell Training / Inferenz Szenarie, entsprécht Uwendungen mat Modeller mat Milliarden Parameteren. Et integréiert OceanStor A300 High-Performance Späicherknäppchen, Training / Inferenznoden, Schaltausrüstung, AI Plattform Software, a Management- an Operatiounssoftware, déi grouss Modellpartner mat engem Plug-and-Play Deployment-Erfarung fir eng One-Stop-Liwwerung ubitt. Fäerdeg fir ze benotzen, et kann bannent 2 Stonnen ofgebaut ginn. Béid Training / Inferenz a Späicherknäppchen kënnen onofhängeg an horizontal ausgebaut ginn fir verschidde Modeller Skala Ufuerderunge ze passen. Mëttlerweil benotzt FusionCube A3000 High-Performance Container fir Multiple Model Training an Inferenzaufgaben z'erméiglechen fir GPUs ze deelen, d'Ressourcenutzung vun 40% op iwwer 70% ze erhéijen. FusionCube A3000 ënnerstëtzt zwee flexibel Geschäftsmodeller: Huawei Ascend One-Stop Solution an den Drëtt-Partei Partner One-Stop Léisung mat oppenen Informatik, Netzwierker an AI Plattform Software.
Huawei President vun der Data Storage Product Line, Zhou Yuefeng, sot: "An der Ära vu grousse Modeller bestëmmen d'Donnéeën d'Héicht vun der AI Intelligenz. Als Carrier vun Daten gëtt Datespäicherung de Schlëssel Basisinfrastruktur fir AI grouss Skala Modeller. Huawei Data Storage wäert weider innovéieren, diversifizéiert Léisungen a Produkter fir d'Ära vun AI grousse Modeller ubidden, mat Partner zesummeschaffen fir AI Empowerment iwwer eng breet Palette vun Industrien ze féieren.
Post Zäit: Aug-01-2023