Home World Google reveals its latest A.I. supercomputer, says it beats Nvidia

Google reveals its latest A.I. supercomputer, says it beats Nvidia

0
Google reveals its latest A.I. supercomputer, says it beats Nvidia

[ad_1]

Google मुख्यालय 26 सितंबर, 2022 को माउंटेन व्यू, कैलिफ़ोर्निया, संयुक्त राज्य अमेरिका में देखा गया है।

तैफुन कोस्कुन | अनादोलु एजेंसी | गेटी इमेजेज

गूगल के बारे में विवरण प्रकाशित किया इसके कृत्रिम बुद्धिमत्ता वाले सुपर कंप्यूटरों में से एक बुधवार को, यह कहते हुए कि यह एनवीडिया सिस्टम को टक्कर देने की तुलना में तेज़ और अधिक कुशल है, क्योंकि पावर-भूखे मशीन लर्निंग मॉडल टेक उद्योग का सबसे गर्म हिस्सा बने हुए हैं।

जबकि NVIDIA एआई मॉडल प्रशिक्षण और परिनियोजन के लिए बाजार पर हावी है 90%Google 2016 से Tensor Processing Items, या TPUs नामक AI चिप्स को डिजाइन और तैनात कर रहा है।

Google एक प्रमुख AI अग्रणी है, और इसके कर्मचारियों ने पिछले एक दशक में इस क्षेत्र में कुछ सबसे महत्वपूर्ण प्रगति की है। लेकिन कुछ का मानना ​​है कि यह अपने आविष्कारों के व्यावसायीकरण के मामले में पिछड़ गया है, और आंतरिक रूप से, कंपनी उत्पादों को जारी करने के लिए दौड़ रही है और यह साबित करती है कि कंपनी में “कोड रेड” की स्थिति ने अपने नेतृत्व को बर्बाद नहीं किया है, सीएनबीसी ने पहले सूचना दी थी.

AI मॉडल और उत्पाद जैसे Google का बार्ड या OpenAI का ChatGPT — द्वारा संचालित एनवीडिया की A100 चिप्स मॉडल को प्रशिक्षित करने के लिए एक साथ काम करने के लिए बहुत सारे कंप्यूटर और सैकड़ों या हजारों चिप्स की आवश्यकता होती है, जिसमें कंप्यूटर हफ्तों या महीनों तक चौबीसों घंटे चलते रहते हैं।

मंगलवार को, Google ने कहा कि उसने एआई मॉडल को चलाने और प्रशिक्षित करने के लिए डिज़ाइन किए गए कस्टम घटकों के साथ 4,000 से अधिक टीपीयू के साथ एक प्रणाली का निर्माण किया था। यह 2020 से चल रहा है, और इसका उपयोग Google के PaLM मॉडल को प्रशिक्षित करने के लिए किया गया था, जो 50 दिनों में OpenAI के GPT मॉडल के साथ प्रतिस्पर्धा करता है।

Google का TPU-आधारित सुपरकंप्यूटर, जिसे TPU v4 कहा जाता है, “1.2x-1.7x तेज है और Nvidia A100 की तुलना में 1.3x-1.9x कम शक्ति का उपयोग करता है,” Google शोधकर्ताओं ने लिखा है।

“प्रदर्शन, मापनीयता और उपलब्धता TPU v4 सुपर कंप्यूटर को बड़े भाषा मॉडल का वर्कहॉर्स बनाते हैं,” शोधकर्ताओं ने जारी रखा।

हालाँकि, Google के TPU परिणामों की तुलना नवीनतम Nvidia AI चिप, H100 से नहीं की गई थी, क्योंकि यह हाल ही में है और इसे अधिक उन्नत विनिर्माण तकनीक के साथ बनाया गया था, Google शोधकर्ताओं ने कहा।

एक एनवीडिया प्रवक्ता ने टिप्पणी करने से इंकार कर दिया। एक उद्योगव्यापी एआई चिप परीक्षण के परिणाम और रैंकिंग को बुलाया गया एमएलपरफ बुधवार को जारी होने की उम्मीद है।

एआई के लिए आवश्यक कंप्यूटर शक्ति की पर्याप्त मात्रा कीमती हैऔर उद्योग में कई नए चिप्स, ऑप्टिकल कनेक्शन जैसे घटकों, या सॉफ़्टवेयर तकनीकों को विकसित करने पर केंद्रित हैं जो आवश्यक कंप्यूटर शक्ति की मात्रा को कम करते हैं।

AI की बिजली की आवश्यकताएं भी Google, Microsoft और जैसे क्लाउड प्रदाताओं के लिए वरदान हैं वीरांगना, जो कंप्यूटर प्रोसेसिंग को घंटे के हिसाब से किराए पर दे सकता है और स्टार्टअप्स को संबंध बनाने के लिए क्रेडिट या कंप्यूटिंग समय प्रदान करता है। (Google का क्लाउड Nvidia चिप्स पर भी समय बेचता है।) उदाहरण के लिए, Google ने कहा कि AI इमेज जनरेटर, Midjourney को उसके TPU चिप्स पर प्रशिक्षित किया गया था।

[ad_2]
#Google #reveals #latest #A.I #supercomputer #beats #Nvidia