जीपीयू कंप्यूटिंग: मिथक और वास्तविकता। आइए सॉफ्टवेयर एडिशन में तेजी लाने के लिए जीपीयू की क्षमताओं का उपयोग करें। समानता और नई NVIDIA फर्मी वास्तुकला

💖क्या आपको यह पसंद है?लिंक को अपने दोस्तों के साथ साझा करें

मुझे एक बार कंप्यूटर बाज़ार में लैपटॉप बेचने वाली कई कंपनियों में से एक के तकनीकी निदेशक के साथ बात करने का मौका मिला। इस "विशेषज्ञ" ने मुंह से झाग निकालते हुए समझाने की कोशिश की कि मुझे वास्तव में किस लैपटॉप कॉन्फ़िगरेशन की आवश्यकता है। उनके एकालाप का मुख्य संदेश यह था कि केंद्रीय प्रसंस्करण इकाइयों (सीपीयू) का समय समाप्त हो गया है, और अब सभी एप्लिकेशन सक्रिय रूप से ग्राफिक्स प्रोसेसर (जीपीयू) पर गणना का उपयोग करते हैं, और इसलिए लैपटॉप का प्रदर्शन पूरी तरह से जीपीयू पर निर्भर करता है, और आप सीपीयू अटेंशन पर कोई ध्यान देने की जरूरत नहीं है। यह महसूस करते हुए कि इस तकनीकी निदेशक के साथ बहस करना और समझाने की कोशिश करना बिल्कुल व्यर्थ है, मैंने समय बर्बाद नहीं किया और दूसरे मंडप में अपनी ज़रूरत का लैपटॉप खरीद लिया। हालाँकि, विक्रेता की ऐसी घोर अक्षमता के तथ्य ने मुझे चकित कर दिया। यह समझ में आता अगर वह एक खरीदार के रूप में मुझे धोखा देने की कोशिश कर रहा होता। बिल्कुल नहीं। उन्होंने जो कहा उस पर उन्हें पूरा विश्वास था। हाँ, जाहिरा तौर पर, NVIDIA और AMD के विपणक एक कारण से अपनी रोटी खाते हैं, और वे कुछ उपयोगकर्ताओं को आधुनिक कंप्यूटर में ग्राफिक्स प्रोसेसर की प्रमुख भूमिका का विचार देने में कामयाब रहे।

तथ्य यह है कि ग्राफिक्स प्रोसेसिंग यूनिट (जीपीयू) कंप्यूटिंग आज तेजी से लोकप्रिय हो रही है, इसमें कोई संदेह नहीं है। हालाँकि, इससे केंद्रीय प्रोसेसर की भूमिका बिल्कुल भी कम नहीं होती है। इसके अलावा, अगर हम अधिकांश उपयोगकर्ता अनुप्रयोगों के बारे में बात करते हैं, तो आज उनका प्रदर्शन पूरी तरह से सीपीयू प्रदर्शन पर निर्भर करता है। अर्थात्, अधिकांश उपयोगकर्ता एप्लिकेशन GPU कंप्यूटिंग का उपयोग नहीं करते हैं।

सामान्य तौर पर, जीपीयू कंप्यूटिंग मुख्य रूप से वैज्ञानिक कंप्यूटिंग के लिए विशेष एचपीसी सिस्टम पर की जाती है। लेकिन GPU कंप्यूटिंग का उपयोग करने वाले उपयोगकर्ता एप्लिकेशन को उंगलियों पर गिना जा सकता है। यह तुरंत ध्यान दिया जाना चाहिए कि इस मामले में "जीपीयू कंप्यूटिंग" शब्द पूरी तरह से सही नहीं है और भ्रामक हो सकता है। तथ्य यह है कि यदि कोई एप्लिकेशन GPU कंप्यूटिंग का उपयोग करता है, तो इसका मतलब यह नहीं है कि केंद्रीय प्रोसेसर निष्क्रिय है। जीपीयू कंप्यूटिंग में लोड को केंद्रीय प्रोसेसर से ग्राफिक्स प्रोसेसर में स्थानांतरित करना शामिल नहीं है। एक नियम के रूप में, केंद्रीय प्रोसेसर व्यस्त रहता है, और केंद्रीय प्रोसेसर के साथ ग्राफिक्स प्रोसेसर का उपयोग, प्रदर्शन में सुधार कर सकता है, यानी किसी कार्य को पूरा करने में लगने वाले समय को कम कर सकता है। इसके अलावा, यहाँ GPU स्वयं CPU के लिए एक प्रकार के सहप्रोसेसर के रूप में कार्य करता है, लेकिन किसी भी स्थिति में इसे पूरी तरह से प्रतिस्थापित नहीं करता है।

यह समझने के लिए कि जीपीयू कंप्यूटिंग रामबाण क्यों नहीं है और यह कहना गलत क्यों है कि इसकी कंप्यूटिंग क्षमताएं सीपीयू से बेहतर हैं, केंद्रीय प्रोसेसर और ग्राफिक्स प्रोसेसर के बीच अंतर को समझना आवश्यक है।

जीपीयू और सीपीयू आर्किटेक्चर में अंतर

सीपीयू कोर को अधिकतम प्रदर्शन पर अनुक्रमिक निर्देशों की एक धारा को निष्पादित करने के लिए डिज़ाइन किया गया है, जबकि जीपीयू कोर को बहुत बड़ी संख्या में समानांतर निर्देश धाराओं को जल्दी से निष्पादित करने के लिए डिज़ाइन किया गया है। यह GPU और सेंट्रल प्रोसेसर के बीच मूलभूत अंतर है। सीपीयू एक सामान्य प्रयोजन या सामान्य प्रयोजन प्रोसेसर है जिसे प्राप्त करने के लिए अनुकूलित किया गया है उच्च प्रदर्शनएक एकल कमांड स्ट्रीम जो पूर्णांक और फ़्लोटिंग-पॉइंट संख्या दोनों को संसाधित करती है। इस मामले में, डेटा और निर्देशों के साथ मेमोरी तक पहुंच मुख्य रूप से यादृच्छिक रूप से होती है।

सीपीयू के प्रदर्शन को बेहतर बनाने के लिए, उन्हें समानांतर में यथासंभव अधिक से अधिक निर्देशों को निष्पादित करने के लिए डिज़ाइन किया गया है। उदाहरण के लिए, इस उद्देश्य के लिए, प्रोसेसर कोर एक आउट-ऑफ़-ऑर्डर निर्देश निष्पादन इकाई का उपयोग करते हैं, जो निर्देशों को उसी क्रम से पुन: व्यवस्थित करना संभव बनाता है जिसमें वे प्राप्त हुए थे, जिससे समानांतरता के स्तर को बढ़ाना संभव हो जाता है। एक थ्रेड के स्तर पर निर्देशों का कार्यान्वयन। हालाँकि, यह अभी भी बड़ी संख्या में निर्देशों के समानांतर निष्पादन की अनुमति नहीं देता है, और प्रोसेसर कोर के भीतर समानांतर निर्देशों का ओवरहेड बहुत महत्वपूर्ण हो जाता है। यही कारण है कि सामान्य प्रयोजन प्रोसेसर के पास बहुत बड़ी संख्या में निष्पादन इकाइयाँ नहीं होती हैं।

ग्राफ़िक्स प्रोसेसर को मौलिक रूप से अलग तरीके से डिज़ाइन किया गया है। इसे मूल रूप से बड़ी संख्या में समानांतर कमांड स्ट्रीम चलाने के लिए डिज़ाइन किया गया था। इसके अलावा, ये कमांड स्ट्रीम शुरू से ही समानांतर हैं, और GPU में निर्देशों को समानांतर करने के लिए कोई ओवरहेड लागत नहीं है। GPU को छवियों को प्रस्तुत करने के लिए डिज़ाइन किया गया है। सीधे शब्दों में कहें तो, यह बहुभुजों के एक समूह को इनपुट के रूप में लेता है, सभी आवश्यक संचालन करता है, और आउटपुट के रूप में पिक्सेल उत्पन्न करता है। बहुभुज और पिक्सेल का प्रसंस्करण स्वतंत्र है; उन्हें एक दूसरे से अलग, समानांतर में संसाधित किया जा सकता है। इसलिए, कार्य के स्वाभाविक रूप से समानांतर संगठन के कारण, GPU बड़ी संख्या में निष्पादन इकाइयों का उपयोग करता है, जिन्हें CPU के लिए निर्देशों की अनुक्रमिक धारा के विपरीत लोड करना आसान होता है।

ग्राफिक्स और सेंट्रल प्रोसेसर भी मेमोरी एक्सेस के सिद्धांतों में भिन्न होते हैं। एक जीपीयू में, मेमोरी एक्सेस का आसानी से अनुमान लगाया जा सकता है: यदि एक बनावट टेक्सल को मेमोरी से पढ़ा जाता है, तो कुछ समय बाद पड़ोसी टेक्सल के लिए समय सीमा आ जाएगी। रिकॉर्डिंग करते समय, वही बात होती है: यदि एक पिक्सेल फ़्रेमबफ़र पर लिखा जाता है, तो कुछ घड़ी चक्रों के बाद उसके बगल में स्थित पिक्सेल लिखा जाएगा। इसलिए, सीपीयू के विपरीत, जीपीयू को बड़ी कैश मेमोरी की आवश्यकता नहीं होती है, और बनावट के लिए केवल कुछ किलोबाइट की आवश्यकता होती है। जीपीयू और सीपीयू के लिए मेमोरी के साथ काम करने का सिद्धांत भी अलग है। इसलिए, सभी आधुनिक जीपीयू में कई मेमोरी कंट्रोलर होते हैं, और ग्राफिक्स मेमोरी स्वयं तेज़ होती है, इसलिए जीपीयू में बहुत अधिक होते हैं हेयूनिवर्सल प्रोसेसर की तुलना में अधिक मेमोरी बैंडविड्थ, जो विशाल डेटा स्ट्रीम के साथ काम करने वाली समानांतर गणनाओं के लिए भी बहुत महत्वपूर्ण है।

यूनिवर्सल प्रोसेसर में हेअधिकांश चिप क्षेत्र पर विभिन्न कमांड और डेटा बफ़र्स, डिकोडिंग इकाइयाँ, हार्डवेयर शाखा भविष्यवाणी इकाइयाँ, निर्देश पुन: व्यवस्थित करने वाली इकाइयाँ और पहले, दूसरे और तीसरे स्तर की कैश मेमोरी का कब्जा है। इन सभी हार्डवेयर इकाइयों को प्रोसेसर कोर स्तर पर कुछ कमांड थ्रेड्स को समानांतर करके उनके निष्पादन को तेज करने की आवश्यकता होती है।

निष्पादन इकाइयाँ स्वयं एक सार्वभौमिक प्रोसेसर में अपेक्षाकृत कम जगह लेती हैं।

इसके विपरीत, एक ग्राफिक्स प्रोसेसर में, मुख्य क्षेत्र पर कई निष्पादन इकाइयों का कब्जा होता है, जो इसे एक साथ कई हजार कमांड थ्रेड को संसाधित करने की अनुमति देता है।

हम कह सकते हैं कि, आधुनिक सीपीयू के विपरीत, जीपीयू को बड़ी संख्या में अंकगणितीय परिचालनों के साथ समानांतर गणना के लिए डिज़ाइन किया गया है।

गैर-ग्राफ़िकल कार्यों के लिए जीपीयू की कंप्यूटिंग शक्ति का उपयोग करना संभव है, लेकिन केवल तभी जब हल की जा रही समस्या जीपीयू में उपलब्ध सैकड़ों निष्पादन इकाइयों में एल्गोरिदम को समानांतर करने की संभावना की अनुमति देती है। विशेष रूप से, जब गणितीय संचालन का समान क्रम बड़ी मात्रा में डेटा पर लागू किया जाता है, तो GPU गणना उत्कृष्ट परिणाम दिखाती है। इस मामले में, सर्वोत्तम परिणाम प्राप्त होते हैं यदि अंकगणितीय निर्देशों की संख्या और मेमोरी एक्सेस की संख्या का अनुपात पर्याप्त रूप से बड़ा हो। यह ऑपरेशन निष्पादन नियंत्रण पर कम मांग रखता है और बड़ी कैश मेमोरी के उपयोग की आवश्यकता नहीं होती है।

वैज्ञानिक गणनाओं के कई उदाहरण हैं जहां कम्प्यूटेशनल दक्षता के मामले में सीपीयू पर जीपीयू का लाभ निर्विवाद है। इस प्रकार, आणविक मॉडलिंग, गैस गतिशीलता, द्रव गतिशीलता और अन्य में कई वैज्ञानिक अनुप्रयोग जीपीयू पर गणना के लिए पूरी तरह उपयुक्त हैं।

इसलिए, यदि किसी समस्या को हल करने के लिए एल्गोरिदम को हजारों व्यक्तिगत थ्रेड्स में समानांतर किया जा सकता है, तो GPU का उपयोग करके ऐसी समस्या को हल करने की दक्षता केवल सामान्य-उद्देश्य प्रोसेसर का उपयोग करके इसे हल करने से अधिक हो सकती है। हालाँकि, आप किसी समस्या के समाधान को सीपीयू से जीपीयू में इतनी आसानी से स्थानांतरित नहीं कर सकते, यदि केवल इसलिए कि सीपीयू और जीपीयू अलग-अलग कमांड का उपयोग करते हैं। अर्थात्, जब किसी सीपीयू पर समाधान के लिए कोई प्रोग्राम लिखा जाता है, तो x86 कमांड सेट का उपयोग किया जाता है (या एक विशिष्ट प्रोसेसर आर्किटेक्चर के साथ संगत कमांड सेट), लेकिन जीपीयू के लिए, पूरी तरह से अलग कमांड सेट का उपयोग किया जाता है, जो फिर से काम में लेता है इसकी वास्तुकला और क्षमताओं पर ध्यान दें। आधुनिक 3डी गेम विकसित करते समय, डायरेक्टएक्स और ओपनजीएल एपीआई का उपयोग किया जाता है, जिससे प्रोग्रामर को शेडर्स और टेक्सचर के साथ काम करने की अनुमति मिलती है। हालाँकि, GPU पर गैर-ग्राफ़िकल कंप्यूटिंग के लिए DirectX और OpenGL API का उपयोग करना सबसे अच्छा विकल्प नहीं है।

NVIDIA CUDA और AMD एपीपी

इसीलिए, जब जीपीयू (सामान्य प्रयोजन जीपीयू, जीपीजीपीयू) पर गैर-ग्राफिकल कंप्यूटिंग को लागू करने का पहला प्रयास शुरू हुआ, तो ब्रुकजीपीयू कंपाइलर सामने आया। इसके निर्माण से पहले, डेवलपर्स को ओपनजीएल या डायरेक्ट3डी ग्राफिक्स एपीआई के माध्यम से वीडियो कार्ड संसाधनों तक पहुंच प्राप्त करनी पड़ती थी, जिससे प्रोग्रामिंग प्रक्रिया काफी जटिल हो जाती थी, क्योंकि इसके लिए विशिष्ट ज्ञान की आवश्यकता होती थी - उन्हें 3डी ऑब्जेक्ट्स (शेडर्स, टेक्सचर आदि) के साथ काम करने के सिद्धांतों को सीखना होता था। ). जीपीजीपीयू के बहुत सीमित उपयोग का यही कारण था सॉफ्टवेयर उत्पाद. ब्रुकजीपीयू एक प्रकार का "अनुवादक" बन गया है। सी भाषा के इन स्ट्रीमिंग एक्सटेंशन ने 3डी एपीआई को प्रोग्रामर्स से छिपा दिया, और इसका उपयोग करते समय, 3डी प्रोग्रामिंग के ज्ञान की आवश्यकता व्यावहारिक रूप से गायब हो गई। वीडियो कार्ड की कंप्यूटिंग शक्ति समानांतर गणना के लिए एक अतिरिक्त सहप्रोसेसर के रूप में प्रोग्रामर के लिए उपलब्ध हो गई है। ब्रुकजीपीयू कंपाइलर ने फ़ाइल को सी कोड और एक्सटेंशन के साथ संसाधित किया, बिल्डिंग कोड को डायरेक्टएक्स या ओपनजीएल समर्थन वाली लाइब्रेरी से जोड़ा गया।

ब्रुकजीपीयू को बड़े पैमाने पर धन्यवाद, एनवीआईडीआईए और एटीआई (अब एएमडी) ने जीपीयू पर सामान्य प्रयोजन कंप्यूटिंग की उभरती हुई तकनीक पर ध्यान दिया और अपने स्वयं के कार्यान्वयन विकसित करना शुरू कर दिया जो 3 डी त्वरक की गणना इकाइयों तक सीधी और अधिक पारदर्शी पहुंच प्रदान करता है।

परिणामस्वरूप, NVIDIA ने समानांतर कंप्यूटिंग, CUDA (कंप्यूट यूनिफाइड डिवाइस आर्किटेक्चर) के लिए एक हार्डवेयर और सॉफ्टवेयर आर्किटेक्चर विकसित किया है। CUDA आर्किटेक्चर NVIDIA GPU पर गैर-ग्राफिक्स कंप्यूटिंग को सक्षम बनाता है।

CUDA SDK का सार्वजनिक बीटा संस्करण फरवरी 2007 में जारी किया गया। CUDA API C भाषा की सरलीकृत बोली पर आधारित है। CUDA SDK आर्किटेक्चर प्रोग्रामर्स को एल्गोरिदम लागू करने की अनुमति देता है जो NVIDIA GPU पर चलते हैं और C प्रोग्राम टेक्स्ट में विशेष फ़ंक्शन शामिल करते हैं। इस भाषा में कोड का सफलतापूर्वक अनुवाद करने के लिए, CUDA SDK में अपना स्वयं का Sycompiler शामिल है कमांड लाइन NVIDIA से nvcc।

CUDA क्रॉस-प्लेटफ़ॉर्म है सॉफ़्टवेयरलिनक्स, मैक ओएस एक्स और विंडोज जैसे ऑपरेटिंग सिस्टम के लिए।

एएमडी (एटीआई) ने जीपीजीपीयू तकनीक का अपना संस्करण भी विकसित किया है, जिसे पहले एटीआई स्ट्रीम कहा जाता था, और अब एएमडी एक्सेलेरेटेड पैरेलल प्रोसेसिंग (एपीपी) कहा जाता है। एएमडी एपीपी ओपन इंडस्ट्री मानक ओपनसीएल (ओपन कंप्यूटिंग लैंग्वेज) पर आधारित है। ओपनसीएल मानक निर्देश-स्तर और डेटा-स्तर समानता प्रदान करता है और जीपीजीपीयू तकनीक का कार्यान्वयन है। यह पूरी तरह से खुला मानक है और उपयोग के लिए रॉयल्टी-मुक्त है। ध्यान दें कि AMD APP और NVIDIA CUDA एक दूसरे के साथ असंगत हैं, हालाँकि, नवीनतम संस्करण NVIDIA CUDA OpenCL को भी सपोर्ट करता है।

वीडियो कन्वर्टर्स में GPGPU का परीक्षण

तो, हमें पता चला कि CUDA तकनीक का उपयोग NVIDIA GPU पर GPGPU को लागू करने के लिए किया जाता है, और APP API का उपयोग AMD GPU पर किया जाता है। जैसा कि पहले ही उल्लेख किया गया है, जीपीयू पर गैर-ग्राफ़िकल कंप्यूटिंग का उपयोग केवल तभी उचित है जब हल की जा रही समस्या को कई थ्रेड्स में समानांतर किया जा सकता है। हालाँकि, अधिकांश उपयोगकर्ता एप्लिकेशन इस मानदंड को पूरा नहीं करते हैं। हालांकि, कुछ अपवाद हैं। उदाहरण के लिए, अधिकांश आधुनिक वीडियो कन्वर्टर NVIDIA और AMD GPU पर कंप्यूटिंग का उपयोग करने की क्षमता का समर्थन करते हैं।

यह जानने के लिए कि कस्टम वीडियो कन्वर्टर्स में GPU कंप्यूटिंग का उपयोग कितनी कुशलता से किया जाता है, हमने तीन लोकप्रिय समाधान चुने: Xilisoft वीडियो कन्वर्टर अल्टीमेट 7.7.2, Wondershare वीडियो कन्वर्टर अल्टीमेट 6.0.3.2 और Movavi वीडियो कन्वर्टर 10.2.1। ये कन्वर्टर्स NVIDIA और AMD GPU का उपयोग करने की क्षमता का समर्थन करते हैं, और आप वीडियो कनवर्टर सेटिंग्स में इस सुविधा को अक्षम कर सकते हैं, जो आपको GPU के उपयोग की प्रभावशीलता का मूल्यांकन करने की अनुमति देता है।

वीडियो रूपांतरण के लिए, हमने तीन अलग-अलग वीडियो का उपयोग किया।

पहला वीडियो 3 मिनट 35 सेकंड लंबा और 1.05 जीबी आकार का था। इसे एमकेवी डेटा स्टोरेज फॉर्मेट (कंटेनर) में रिकॉर्ड किया गया था और इसमें निम्नलिखित विशेषताएं थीं:

  • वीडियो:
    • प्रारूप - MPEG4 वीडियो (H264),
    • संकल्प - 1920*उम*1080,
    • बिटरेट मोड - परिवर्तनीय,
    • औसत वीडियो बिटरेट - 42.1 Mbit/s,
    • अधिकतम वीडियो बिटरेट - 59.1 Mbit/s,
    • फ़्रेम दर - 25 एफपीएस;
  • ऑडियो:
    • प्रारूप - एमपीईजी-1 ऑडियो,
    • ऑडियो बिटरेट - 128 केबीपीएस,
    • चैनलों की संख्या - 2,

दूसरे वीडियो की अवधि 4 मिनट 25 सेकेंड और साइज 1.98 जीबी है। इसे एमपीजी डेटा स्टोरेज फॉर्मेट (कंटेनर) में रिकॉर्ड किया गया था और इसमें निम्नलिखित विशेषताएं थीं:

  • वीडियो:
    • प्रारूप - एमपीईजी-पीएस (एमपीईजी2 वीडियो),
    • संकल्प - 1920*उम*1080,
    • बिटरेट मोड - परिवर्तनीय.
    • औसत वीडियो बिटरेट - 62.5 Mbit/s,
    • अधिकतम वीडियो बिटरेट - 100 Mbit/s,
    • फ़्रेम दर - 25 एफपीएस;
  • ऑडियो:
    • प्रारूप - एमपीईजी-1 ऑडियो,
    • ऑडियो बिटरेट - 384 केबीपीएस,
    • चैनलों की संख्या - 2,

तीसरे वीडियो की अवधि 3 मिनट 47 सेकंड और साइज 197 एमबी है। यह MOV डेटा भंडारण प्रारूप (कंटेनर) में लिखा गया था और इसमें निम्नलिखित विशेषताएं थीं:

  • वीडियो:
    • प्रारूप - MPEG4 वीडियो (H264),
    • संकल्प - 1920*उम*1080,
    • बिटरेट मोड - परिवर्तनीय,
    • वीडियो बिटरेट - 7024 केबीपीएस,
    • फ़्रेम दर - 25 एफपीएस;
  • ऑडियो:
    • प्रारूप - एएसी,
    • ऑडियो बिटरेट - 256 केबीपीएस,
    • चैनलों की संख्या - 2,
    • नमूनाकरण आवृत्ति - 48 किलोहर्ट्ज़।

सभी तीन परीक्षण वीडियो को देखने के लिए वीडियो कन्वर्टर्स का उपयोग करके MP4 डेटा स्टोरेज प्रारूप (H.264 कोडेक) में परिवर्तित किया गया था आईपैड टैबलेट 2. आउटपुट वीडियो फ़ाइल का रिज़ॉल्यूशन 1280*um*720 था।

कृपया ध्यान दें कि हमने तीनों कनवर्टर्स में बिल्कुल समान रूपांतरण सेटिंग्स का उपयोग नहीं किया है। इसीलिए रूपांतरण समय के आधार पर वीडियो कन्वर्टर्स की दक्षता की तुलना करना गलत है। इस प्रकार, वीडियो कनवर्टर Xilisoft वीडियो कनवर्टर अल्टीमेट 7.7.2 में, रूपांतरण के लिए iPad 2 प्रीसेट - H.264 HD वीडियो का उपयोग किया गया था। यह प्रीसेट निम्नलिखित एन्कोडिंग सेटिंग्स का उपयोग करता है:

  • कोडेक - एमपीईजी4 (एच.264);
  • रिज़ॉल्यूशन - 1280*उम*720;
  • फ़्रेम दर - 29.97 एफपीएस;
  • वीडियो बिटरेट - 5210 केबीपीएस;
  • ऑडियो कोडेक - एएसी;
  • ऑडियो बिटरेट - 128 केबीपीएस;
  • चैनलों की संख्या - 2;
  • नमूनाकरण आवृत्ति - 48 किलोहर्ट्ज़।

Wondershare Video Converter अल्टीमेट 6.0.3.2 ने निम्नलिखित अतिरिक्त सेटिंग्स के साथ iPad 2 प्रीसेट का उपयोग किया:

  • कोडेक - एमपीईजी4 (एच.264);
  • रिज़ॉल्यूशन - 1280*उम*720;
  • फ़्रेम दर - 30 एफपीएस;
  • वीडियो बिटरेट - 5000 केबीपीएस;
  • ऑडियो कोडेक - एएसी;
  • ऑडियो बिटरेट - 128 केबीपीएस;
  • चैनलों की संख्या - 2;
  • नमूनाकरण आवृत्ति - 48 किलोहर्ट्ज़।

Movavi वीडियो कन्वर्टर 10.2.1 ने निम्नलिखित अतिरिक्त सेटिंग्स के साथ iPad प्रीसेट (1280*um*720, H.264) (*.mp4) का उपयोग किया:

  • वीडियो प्रारूप - H.264;
  • रिज़ॉल्यूशन - 1280*उम*720;
  • फ़्रेम दर - 30 एफपीएस;
  • वीडियो बिटरेट - 2500 केबीपीएस;
  • ऑडियो कोडेक - एएसी;
  • ऑडियो बिटरेट - 128 केबीपीएस;
  • चैनलों की संख्या - 2;
  • नमूना आवृत्ति - 44.1 किलोहर्ट्ज़।

प्रत्येक स्रोत वीडियो को GPU और केवल CPU दोनों का उपयोग करके, प्रत्येक वीडियो कनवर्टर्स पर पांच बार परिवर्तित किया गया था। प्रत्येक रूपांतरण के बाद, कंप्यूटर रीबूट हो गया।

परिणामस्वरूप, प्रत्येक वीडियो को प्रत्येक वीडियो कनवर्टर में दस बार परिवर्तित किया गया। इसे स्वचालित करने के लिए दैनिक कार्यलिखा गया विशेष उपयोगितासाथ ग्राफ़िकल इंटरफ़ेस, आपको परीक्षण प्रक्रिया को पूरी तरह से स्वचालित करने की अनुमति देता है।

परीक्षण स्टैंड विन्यास

परीक्षण स्टैंड में निम्नलिखित कॉन्फ़िगरेशन था:

  • प्रोसेसर - इण्टेल कोर i7-3770K;
  • मदरबोर्ड- गीगाबाइट GA-Z77X-UD5H;
  • चिपसेट मदरबोर्ड- इंटेल Z77 एक्सप्रेस;
  • मेमोरी - DDR3-1600;
  • मेमोरी क्षमता - 8 जीबी (प्रत्येक 4 जीबी के दो जीईआईएल मॉड्यूल);
  • मेमोरी ऑपरेटिंग मोड - दोहरे चैनल;
  • वीडियो कार्ड - एनवीडिया GeForce GTX 660टीआई (वीडियो ड्राइवर 314.07);
  • ड्राइव - इंटेल एसएसडी 520 (240 जीबी)।

स्टैंड पर ऑपरेटिंग सिस्टम विंडोज 7 अल्टीमेट (64-बिट) स्थापित किया गया था।

प्रारंभ में, हमने प्रोसेसर और अन्य सभी सिस्टम घटकों का सामान्य मोड में परीक्षण किया। उसी समय, इंटेल कोर i7-3770K प्रोसेसर टर्बो बूस्ट मोड सक्रिय होने के साथ 3.5 गीगाहर्ट्ज की मानक आवृत्ति पर संचालित होता है (टर्बो बूस्ट मोड में अधिकतम प्रोसेसर आवृत्ति 3.9 गीगाहर्ट्ज है)।

फिर हमने परीक्षण प्रक्रिया दोहराई, लेकिन प्रोसेसर को 4.5 गीगाहर्ट्ज़ की निश्चित आवृत्ति पर ओवरक्लॉक किया गया (टर्बो बूस्ट मोड का उपयोग किए बिना)। इससे प्रोसेसर आवृत्ति (सीपीयू) पर रूपांतरण गति की निर्भरता की पहचान करना संभव हो गया।

परीक्षण के अगले चरण में, हम मानक प्रोसेसर सेटिंग्स पर लौट आए और अन्य वीडियो कार्ड के साथ दोहराया परीक्षण किया:

  • NVIDIA GeForce GTX 280 (ड्राइवर 314.07);
  • NVIDIA GeForce GTX 460 (ड्राइवर 314.07);
  • AMD Radeon HD6850 (ड्राइवर 13.1)।

इस प्रकार, विभिन्न आर्किटेक्चर के चार वीडियो कार्डों पर वीडियो रूपांतरण किया गया।

वरिष्ठ NVIDIA GeForce 660Ti वीडियो कार्ड इसी नाम के ग्राफिक्स प्रोसेसर, कोडित GK104 (केपलर आर्किटेक्चर) पर आधारित है, जो 28 एनएम प्रक्रिया प्रौद्योगिकी का उपयोग करके निर्मित किया गया है। यह जीपीयूइसमें 3.54 बिलियन ट्रांजिस्टर हैं, और क्रिस्टल क्षेत्र 294 मिमी2 है।

याद रखें कि GK104 GPU में चार क्लस्टर शामिल हैं ग्राफ़िक प्रसंस्करण(ग्राफिक्स प्रोसेसिंग क्लस्टर, जीपीसी)। जीपीसी क्लस्टर प्रोसेसर के भीतर स्वतंत्र डिवाइस हैं और अलग-अलग डिवाइस के रूप में काम करने में सक्षम हैं, क्योंकि उनके पास सभी आवश्यक संसाधन हैं: रैस्टराइज़र, ज्योमेट्री इंजन और टेक्सचर मॉड्यूल।

ऐसे प्रत्येक क्लस्टर में दो SMX (स्ट्रीमिंग मल्टीप्रोसेसर) मल्टीप्रोसेसर होते हैं, लेकिन GK104 प्रोसेसर में एक मल्टीप्रोसेसर क्लस्टर में से एक में अवरुद्ध होता है, इसलिए कुल मिलाकर सात SMX मल्टीप्रोसेसर होते हैं।

प्रत्येक SMX स्ट्रीमिंग मल्टीप्रोसेसर में 192 स्ट्रीमिंग कंप्यूट कोर (CUDA कोर) होते हैं, इसलिए GK104 प्रोसेसर में कुल 1344 CUDA कोर होते हैं। इसके अलावा, प्रत्येक एसएमएक्स मल्टीप्रोसेसर में 16 बनावट इकाइयां (टीएमयू), 32 विशेष फ़ंक्शन इकाइयां (एसएफयू), 32 लोड-स्टोर इकाइयां (एलएसयू), एक पॉलीमॉर्फ इंजन और बहुत कुछ शामिल हैं।

GeForce GTX 460 Fermi आर्किटेक्चर पर आधारित GPU कोडित GF104 पर आधारित है। यह प्रोसेसर 40nm प्रक्रिया प्रौद्योगिकी का उपयोग करके निर्मित किया गया है और इसमें लगभग 1.95 बिलियन ट्रांजिस्टर हैं।

GF104 GPU में दो GPC ग्राफ़िक्स प्रोसेसिंग क्लस्टर शामिल हैं। उनमें से प्रत्येक में चार एसएम स्ट्रीमिंग मल्टीप्रोसेसर हैं, लेकिन जीएफ104 प्रोसेसर में एक क्लस्टर में एक मल्टीप्रोसेसर लॉक है, इसलिए केवल सात एसएम मल्टीप्रोसेसर हैं।

प्रत्येक SM स्ट्रीमिंग मल्टीप्रोसेसर में 48 स्ट्रीमिंग कंप्यूट कोर (CUDA कोर) होते हैं, इसलिए GK104 प्रोसेसर में कुल 336 CUDA कोर होते हैं। इसके अलावा, प्रत्येक एसएम मल्टीप्रोसेसर में आठ बनावट इकाइयां (टीएमयू), आठ विशेष फ़ंक्शन इकाइयां (एसएफयू), 16 लोड-स्टोर इकाइयां (एलएसयू), एक पॉलीमॉर्फ इंजन और बहुत कुछ शामिल हैं।

GeForce GTX 280 GPU, NVIDIA के यूनिफाइड GPU आर्किटेक्चर की दूसरी पीढ़ी का हिस्सा है और फर्मी और केप्लर से आर्किटेक्चर में बहुत अलग है।

GeForce GTX 280 GPU में टेक्सचर प्रोसेसिंग क्लस्टर (TPCs) शामिल हैं, जो समान होते हुए भी फर्मी और केपलर आर्किटेक्चर में GPC ग्राफिक्स प्रोसेसिंग क्लस्टर से बहुत अलग हैं। GeForce GTX 280 प्रोसेसर में ऐसे कुल दस क्लस्टर हैं। प्रत्येक टीपीसी क्लस्टर में तीन एसएम स्ट्रीमिंग मल्टीप्रोसेसर और आठ बनावट नमूनाकरण और फ़िल्टरिंग इकाइयां (टीएमयू) शामिल हैं। प्रत्येक मल्टीप्रोसेसर में आठ स्ट्रीम प्रोसेसर (एसपी) होते हैं। मल्टीप्रोसेसर में बनावट डेटा के नमूने और फ़िल्टरिंग के लिए ब्लॉक भी होते हैं, जिनका उपयोग ग्राफिक्स और कुछ कम्प्यूटेशनल कार्यों दोनों में किया जाता है।

इस प्रकार, एक टीपीसी क्लस्टर में 24 स्ट्रीम प्रोसेसर हैं, और GeForce GTX 280 GPU में पहले से ही 240 हैं।

परीक्षण में प्रयुक्त NVIDIA GPU पर वीडियो कार्ड की सारांश विशेषताएँ तालिका में प्रस्तुत की गई हैं।

उपरोक्त तालिका में AMD Radeon HD6850 वीडियो कार्ड शामिल नहीं है, जो काफी स्वाभाविक है तकनीकी निर्देशइसकी तुलना NVIDIA वीडियो कार्ड से करना कठिन है। इसलिए, हम इस पर अलग से विचार करेंगे।

AMD Radeon HD6850 GPU, कोडनेम बार्ट्स, 40nm प्रोसेस टेक्नोलॉजी का उपयोग करके निर्मित किया गया है और इसमें 1.7 बिलियन ट्रांजिस्टर हैं।

AMD Radeon HD6850 प्रोसेसर आर्किटेक्चर कई प्रकार के डेटा की स्ट्रीमिंग प्रोसेसिंग के लिए सामान्य प्रोसेसर की एक श्रृंखला के साथ एक एकीकृत आर्किटेक्चर है।

AMD Radeon HD6850 प्रोसेसर में 12 SIMD कोर होते हैं, जिनमें से प्रत्येक में 16 सुपरस्केलर स्ट्रीम प्रोसेसर इकाइयाँ और चार बनावट इकाइयाँ होती हैं। प्रत्येक सुपरस्केलर स्ट्रीम प्रोसेसर में पांच सामान्य प्रयोजन स्ट्रीम प्रोसेसर होते हैं। इस प्रकार, कुल मिलाकर, AMD Radeon HD6850 GPU में 12*um*16*um*5=960 यूनिवर्सल स्ट्रीम प्रोसेसर हैं।

AMD Radeon HD6850 वीडियो कार्ड की GPU आवृत्ति 775 मेगाहर्ट्ज है, और प्रभावी GDDR5 मेमोरी आवृत्ति 4000 मेगाहर्ट्ज है। मेमोरी क्षमता 1024 एमबी है।

परीक्षा के परिणाम

तो आइए परीक्षा परिणामों पर नजर डालते हैं। आइए NVIDIA GeForce GTX 660Ti वीडियो कार्ड और सामान्य ऑपरेशन मोड का उपयोग करते समय पहले परीक्षण से शुरुआत करें इंटेल प्रोसेसरकोर i7-3770K.

चित्र में. चित्र 1-3 जीपीयू के साथ और उसके बिना मोड में तीन कनवर्टर्स का उपयोग करके तीन परीक्षण वीडियो परिवर्तित करने के परिणाम दिखाते हैं।

जैसा कि परीक्षण परिणामों से देखा जा सकता है, GPU के उपयोग का प्रभाव स्पष्ट है। वीडियो कनवर्टर Xilisoft वीडियो कनवर्टर अल्टीमेट 7.7.2 के लिए, GPU का उपयोग करते समय, पहले, दूसरे और तीसरे वीडियो के लिए रूपांतरण समय क्रमशः 14, 9 और 19% कम हो जाता है।

Wondershare Video Converter अल्टीमेट 6.0.32 के लिए, GPU का उपयोग करने से पहले, दूसरे और तीसरे वीडियो के लिए रूपांतरण समय क्रमशः 10%, 13% और 23% कम हो जाता है।

लेकिन ग्राफिक्स प्रोसेसर के उपयोग से जो कनवर्टर सबसे अधिक लाभान्वित होता है वह Movavi वीडियो कनवर्टर 10.2.1 है। पहले, दूसरे और तीसरे वीडियो के लिए, रूपांतरण समय में कमी क्रमशः 64, 81 और 41% है।

यह स्पष्ट है कि जीपीयू का उपयोग करने से होने वाला लाभ स्रोत वीडियो और वीडियो रूपांतरण सेटिंग्स दोनों पर निर्भर करता है, जो वास्तव में, हमारे परिणाम प्रदर्शित करते हैं।

अब आइए देखें कि Intel Core i7-3770K प्रोसेसर को 4.5 GHz पर ओवरक्लॉक करने पर रूपांतरण समय में क्या लाभ होगा। यदि हम मानते हैं कि सामान्य मोड में सभी प्रोसेसर कोर रूपांतरण के दौरान लोड होते हैं और टर्बो बूस्ट मोड में वे 3.7 गीगाहर्ट्ज की आवृत्ति पर काम करते हैं, तो आवृत्ति को 4.5 गीगाहर्ट्ज तक बढ़ाना 22% की आवृत्ति ओवरक्लॉक के अनुरूप होता है।

चित्र में. 4-6 ग्राफिक्स प्रोसेसर का उपयोग करके और उसके बिना मोड में प्रोसेसर को ओवरक्लॉक करते समय तीन परीक्षण वीडियो परिवर्तित करने के परिणाम दिखाते हैं। इस मामले में, ग्राफिक्स प्रोसेसर का उपयोग रूपांतरण समय में वृद्धि की अनुमति देता है।

वीडियो कनवर्टर Xilisoft वीडियो कनवर्टर अल्टीमेट 7.7.2 के लिए, GPU का उपयोग करते समय, पहले, दूसरे और तीसरे वीडियो के लिए रूपांतरण समय क्रमशः 15, 9 और 20% कम हो जाता है।

Wondershare Video Converter अल्टीमेट 6.0.32 के लिए, GPU का उपयोग करके पहले, दूसरे और तीसरे वीडियो के लिए रूपांतरण समय को क्रमशः 10, 10 और 20% तक कम किया जा सकता है।

Movavi वीडियो कन्वर्टर 10.2.1 के लिए, ग्राफिक्स प्रोसेसर का उपयोग रूपांतरण समय को क्रमशः 59, 81 और 40% तक कम कर सकता है।

स्वाभाविक रूप से, यह देखना दिलचस्प है कि सीपीयू ओवरक्लॉकिंग जीपीयू के साथ और उसके बिना रूपांतरण समय को कैसे कम कर सकता है।

चित्र में. चित्र 7-9 सामान्य प्रोसेसर ऑपरेशन मोड और ओवरक्लॉक्ड मोड में ग्राफिक्स प्रोसेसर का उपयोग किए बिना वीडियो परिवर्तित करने के समय की तुलना के परिणाम दिखाते हैं। चूंकि इस मामले में रूपांतरण केवल सीपीयू द्वारा जीपीयू पर गणना के बिना किया जाता है, यह स्पष्ट है कि प्रोसेसर घड़ी की आवृत्ति बढ़ने से रूपांतरण समय में कमी आती है (रूपांतरण गति में वृद्धि)। यह भी उतना ही स्पष्ट है कि रूपांतरण गति में कमी सभी परीक्षण वीडियो के लिए लगभग समान होनी चाहिए। इस प्रकार, वीडियो कनवर्टर Xilisoft वीडियो कनवर्टर अल्टीमेट 7.7.2 के लिए, प्रोसेसर को ओवरक्लॉक करने पर, पहले, दूसरे और तीसरे वीडियो के लिए रूपांतरण समय क्रमशः 9, 11 और 9% कम हो जाता है। वंडरशेयर वीडियो कन्वर्टर अल्टीमेट 6.0.32 के लिए, पहले, दूसरे और तीसरे वीडियो के लिए रूपांतरण समय क्रमशः 9, 9 और 10% कम हो गया है। खैर, वीडियो कनवर्टर Movavi वीडियो कनवर्टर 10.2.1 के लिए, रूपांतरण समय क्रमशः 13, 12 और 12% कम हो गया है।

इस प्रकार, जब प्रोसेसर आवृत्ति को 20% तक ओवरक्लॉक किया जाता है, तो रूपांतरण समय लगभग 10% कम हो जाता है।

आइए सामान्य प्रोसेसर मोड और ओवरक्लॉकिंग मोड में ग्राफिक्स प्रोसेसर का उपयोग करके वीडियो परिवर्तित करने में लगने वाले समय की तुलना करें (चित्र 10-12)।

वीडियो कनवर्टर Xilisoft वीडियो कनवर्टर अल्टीमेट 7.7.2 के लिए, प्रोसेसर को ओवरक्लॉक करने पर, पहले, दूसरे और तीसरे वीडियो के लिए रूपांतरण समय क्रमशः 10, 10 और 9% कम हो जाता है। वंडरशेयर वीडियो कन्वर्टर अल्टीमेट 6.0.32 के लिए, पहले, दूसरे और तीसरे वीडियो के लिए रूपांतरण समय क्रमशः 9, 6 और 5% कम हो गया है। खैर, वीडियो कनवर्टर Movavi वीडियो कनवर्टर 10.2.1 के लिए, रूपांतरण समय क्रमशः 0.2, 10 और 10% कम हो गया है।

जैसा कि आप देख सकते हैं, Xilisoft वीडियो कन्वर्टर अल्टीमेट 7.7.2 और वंडरशेयर वीडियो कन्वर्टर अल्टीमेट 6.0.32 कन्वर्टर्स के लिए, प्रोसेसर को ओवरक्लॉक करने पर रूपांतरण समय में कमी ग्राफिक्स प्रोसेसर का उपयोग करते समय और इसका उपयोग किए बिना लगभग समान होती है, जो है तार्किक, क्योंकि ये कन्वर्टर्स बहुत कुशलता से GPU कंप्यूटिंग का उपयोग नहीं करते हैं। लेकिन Movavi वीडियो कन्वर्टर 10.2.1 के लिए, जो प्रभावी रूप से GPU कंप्यूटिंग का उपयोग करता है, GPU कंप्यूटिंग मोड में प्रोसेसर को ओवरक्लॉक करने से रूपांतरण समय को कम करने पर बहुत कम प्रभाव पड़ता है, जो समझ में आता है, क्योंकि इस मामले में मुख्य भार ग्राफिक्स प्रोसेसर पर पड़ता है .

आइए अब विभिन्न वीडियो कार्डों के साथ परीक्षण परिणामों को देखें।

ऐसा प्रतीत होता है कि ग्राफिक्स प्रोसेसर में जितना अधिक शक्तिशाली वीडियो कार्ड और अधिक CUDA कोर (या AMD वीडियो कार्ड के लिए यूनिवर्सल स्ट्रीम प्रोसेसर) होंगे, ग्राफिक्स प्रोसेसर का उपयोग करते समय वीडियो रूपांतरण उतना ही अधिक प्रभावी होना चाहिए। लेकिन व्यवहार में यह उस तरह से काम नहीं करता है।

जहाँ तक NVIDIA GPU पर आधारित वीडियो कार्ड का प्रश्न है, स्थिति इस प्रकार है। Xilisoft वीडियो कन्वर्टर अल्टीमेट 7.7.2 और वंडरशेयर वीडियो कन्वर्टर अल्टीमेट 6.0.32 कन्वर्टर्स का उपयोग करते समय, रूपांतरण समय व्यावहारिक रूप से उपयोग किए गए वीडियो कार्ड के प्रकार पर किसी भी तरह से निर्भर नहीं करता है। वह के लिए है एनवीडिया वीडियो कार्ड GeForce GTX 660Ti, NVIDIA GeForce GTX 460 और NVIDIA GeForce GTX 280 GPU कंप्यूटिंग का उपयोग करने के तरीके में, रूपांतरण समय समान है (चित्र 13-15)।

चावल। 1. पहले परिवर्तन के परिणाम
सामान्य मोड में वीडियो का परीक्षण करें
प्रोसेसर संचालन

GPU मोड में वीडियो कार्ड पर प्रोसेसर

चावल। 14. दूसरे वीडियो के रूपांतरण समय की तुलना के परिणाम

चावल। 15. तीसरे वीडियो के रूपांतरण समय की तुलना के परिणाम
GPU मोड में विभिन्न वीडियो कार्ड पर

इसे केवल इस तथ्य से समझाया जा सकता है कि Xilisoft वीडियो कनवर्टर अल्टीमेट 7.7.2 और वंडरशेयर वीडियो कनवर्टर अल्टीमेट 6.0.32 कनवर्टर्स में लागू जीपीयू गणना एल्गोरिदम बिल्कुल अप्रभावी है और सभी ग्राफिक्स कोर के सक्रिय उपयोग की अनुमति नहीं देता है। वैसे, यह वही है जो इस तथ्य की व्याख्या करता है कि इन कन्वर्टर्स के लिए GPU का उपयोग करने और इसका उपयोग किए बिना रूपांतरण समय में अंतर छोटा है।

Movavi वीडियो कन्वर्टर 10.2.1 में स्थिति थोड़ी अलग है। जैसा कि हमें याद है, यह कनवर्टर GPU गणनाओं का बहुत कुशल उपयोग करने में सक्षम है, और इसलिए, GPU मोड में, रूपांतरण समय उपयोग किए गए वीडियो कार्ड के प्रकार पर निर्भर करता है।

लेकिन AMD Radeon HD 6850 वीडियो कार्ड के साथ सब कुछ हमेशा की तरह है। या तो वीडियो कार्ड ड्राइवर "कुटिल" है, या कन्वर्टर्स में लागू एल्गोरिदम में गंभीर सुधार की आवश्यकता है, लेकिन जब जीपीयू कंप्यूटिंग का उपयोग किया जाता है, तो परिणाम या तो बेहतर नहीं होते हैं या खराब हो जाते हैं।

अधिक विशेष रूप से, स्थिति इस प्रकार है. Xilisoft वीडियो कन्वर्टर अल्टिमेट 7.7.2 के लिए, पहले परीक्षण वीडियो को परिवर्तित करने के लिए GPU का उपयोग करते समय, रूपांतरण समय 43% बढ़ जाता है, और दूसरे वीडियो को परिवर्तित करते समय, 66% बढ़ जाता है।

इसके अलावा, Xilisoft वीडियो कन्वर्टर अल्टीमेट 7.7.2 भी अस्थिर परिणामों की विशेषता रखता है। रूपांतरण समय में भिन्नता 40% तक पहुँच सकती है! इसीलिए हमने सभी परीक्षणों को दस बार दोहराया और औसत परिणाम की गणना की।

लेकिन वंडरशेयर वीडियो कन्वर्टर अल्टीमेट 6.0.32 और मोवावी वीडियो कन्वर्टर 10.2.1 के लिए, तीनों वीडियो को परिवर्तित करने के लिए जीपीयू का उपयोग करने पर, रूपांतरण समय बिल्कुल नहीं बदलता है! यह संभावना है कि Wondershare Video Converter अल्टीमेट 6.0.32 और Movavi वीडियो कनवर्टर 10.2.1 या तो कनवर्ट करते समय AMD APP तकनीक का उपयोग नहीं करते हैं, या AMD वीडियो ड्राइवर बस "टेढ़ा" है, जिसके परिणामस्वरूप AMD APP तकनीक काम नहीं करती है .

निष्कर्ष

परीक्षण के आधार पर निम्नलिखित महत्वपूर्ण निष्कर्ष निकाले जा सकते हैं। आधुनिक वीडियो कन्वर्टर वास्तव में GPU कंप्यूटिंग तकनीक का उपयोग कर सकते हैं, जो रूपांतरण गति को बढ़ाने की अनुमति देता है। हालाँकि, इसका मतलब यह नहीं है कि सभी गणनाएँ पूरी तरह से GPU में स्थानांतरित हो जाती हैं और CPU अप्रयुक्त रहता है। जैसा कि परीक्षण से पता चलता है, जीपीजीपीयू तकनीक का उपयोग करते समय, केंद्रीय प्रोसेसर व्यस्त रहता है, जिसका अर्थ है कि वीडियो रूपांतरण के लिए उपयोग किए जाने वाले सिस्टम में शक्तिशाली, मल्टी-कोर केंद्रीय प्रोसेसर का उपयोग प्रासंगिक रहता है। इस नियम का अपवाद AMD GPU पर AMD APP तकनीक है। उदाहरण के लिए, सक्रिय एएमडी एपीपी तकनीक के साथ Xilisoft वीडियो कन्वर्टर अल्टिमेट 7.7.2 का उपयोग करते समय, सीपीयू पर लोड वास्तव में कम हो जाता है, लेकिन इससे यह तथ्य सामने आता है कि रूपांतरण समय कम नहीं होता है, बल्कि, इसके विपरीत, बढ़ जाता है।

सामान्य तौर पर, अगर हम ग्राफिक्स प्रोसेसर के अतिरिक्त उपयोग के साथ वीडियो परिवर्तित करने के बारे में बात करते हैं, तो इस समस्या को हल करने के लिए NVIDIA GPU के साथ वीडियो कार्ड का उपयोग करने की सलाह दी जाती है। जैसा कि अभ्यास से पता चलता है, केवल इस मामले में ही आप रूपांतरण गति में वृद्धि हासिल कर सकते हैं। इसके अलावा, आपको यह याद रखना होगा कि रूपांतरण गति में वास्तविक वृद्धि कई कारकों पर निर्भर करती है। ये इनपुट और आउटपुट वीडियो प्रारूप हैं, और निश्चित रूप से, वीडियो कनवर्टर भी। कन्वर्टर्स Xilisoft वीडियो कन्वर्टर अल्टीमेट 7.7.2 और वंडरशेयर वीडियो कन्वर्टर अल्टीमेट 6.0.32 इस कार्य के लिए उपयुक्त नहीं हैं, लेकिन कनवर्टर और Movavi वीडियो कन्वर्टर 10.2.1 NVIDIA GPU की क्षमताओं का बहुत प्रभावी ढंग से उपयोग करने में सक्षम हैं।

जहां तक ​​एएमडी जीपीयू पर वीडियो कार्ड की बात है, तो उनका उपयोग वीडियो रूपांतरण कार्यों के लिए बिल्कुल भी नहीं किया जाना चाहिए। सबसे अच्छा, इससे रूपांतरण गति में कोई वृद्धि नहीं होगी, और सबसे खराब स्थिति में, आप इसमें कमी पा सकते हैं।

सबसे ज्यादा छुपे हुए कार्य, हाल ही में विंडोज़ अपडेट 10, यह जांचने की क्षमता है कि कौन से एप्लिकेशन आपके ग्राफिक्स प्रोसेसिंग यूनिट (जीपीयू) का उपयोग कर रहे हैं। यदि आपने कभी टास्क मैनेजर खोला है, तो संभवतः आपने यह देखने के लिए अपने सीपीयू उपयोग को देखा होगा कि कौन से ऐप्स सबसे अधिक सीपीयू का उपयोग कर रहे हैं। में नवीनतम अपडेटएक समान सुविधा जोड़ी गई, लेकिन GPU ग्राफिक्स प्रोसेसर के लिए। इससे आपको यह समझने में मदद मिलती है कि तीसरे पक्ष के सॉफ़्टवेयर को डाउनलोड किए बिना आपके सॉफ़्टवेयर और गेम आपके GPU पर कितने गहन हैं। एक और दिलचस्प सुविधा है जो आपके सीपीयू को जीपीयू पर लोड करने में मदद करती है। मैं पढ़ने की सलाह देता हूं कि कैसे चुनें।

मेरे पास टास्क मैनेजर में GPU क्यों नहीं है?

दुर्भाग्य से, सभी वीडियो कार्ड विंडोज़ सिस्टम को GPU पढ़ने के लिए आवश्यक आँकड़े प्रदान करने में सक्षम नहीं होंगे। निश्चित रूप से, आप इस तकनीक की जांच के लिए डायरेक्टएक्स डायग्नोस्टिक टूल का तुरंत उपयोग कर सकते हैं।

  1. क्लिक करें " शुरू"और खोज में लिखें dxdiag DirectX डायग्नोस्टिक टूल चलाने के लिए।
  2. "टैब" पर जाएँ स्क्रीन",कॉलम में दाईं ओर " ड्राइवरों"आपको होना आवश्यक है डब्ल्यूडीडीएम मॉडलकार्य प्रबंधक में GPU ग्राफ़ का उपयोग करने के लिए 2.0 से अधिक संस्करण।

कार्य प्रबंधक में GPU ग्राफ़ सक्षम करें

प्रत्येक एप्लिकेशन के लिए GPU उपयोग देखने के लिए, आपको कार्य प्रबंधक खोलना होगा।

  • बटनों का एक संयोजन दबाएँ Ctrl + Shift + Escकार्य प्रबंधक खोलने के लिए.
  • कार्य प्रबंधक में "रिक्त" बॉक्स पर राइट-क्लिक करें नाम"और ड्रॉपडाउन मेनू से जांचें जीपीयूआप भी नोट कर सकते हैं जीपीयू कोरयह देखने के लिए कि कौन से प्रोग्राम इसका उपयोग कर रहे हैं।
  • अब टास्क मैनेजर में दाईं ओर GPU ग्राफ़ और GPU कोर दिखाई दे रहे हैं।


समग्र GPU प्रदर्शन देखें

आप ट्रैक कर सकते हैं सामान्य उपयोगभारी भार के तहत इसकी निगरानी करने और इसका विश्लेषण करने के लिए GPU। इस मामले में, आप अपनी ज़रूरत की हर चीज़ "टैब" में देख सकते हैं प्रदर्शन" चयन करके ग्राफिक्स प्रोसेसर.


आपके GPU का उपयोग कैसे किया जा रहा है, इसके बारे में आपको और भी अधिक जानकारी देने के लिए प्रत्येक GPU तत्व को अलग-अलग ग्राफ़ में विभाजित किया गया है। यदि आप प्रदर्शित ग्राफ़ को बदलना चाहते हैं, तो आप प्रत्येक कार्य के नाम के आगे छोटे तीर पर क्लिक कर सकते हैं। यह स्क्रीन आपके ड्राइवर संस्करण और तारीख को भी दिखाती है, जो DXDiag या डिवाइस मैनेजर का उपयोग करने का एक अच्छा विकल्प है।


जीपीयू कंप्यूटिंग

CUDA तकनीक (कंप्यूट यूनिफाइड डिवाइस आर्किटेक्चर) एक सॉफ्टवेयर और हार्डवेयर आर्किटेक्चर है जो NVIDIA ग्राफिक्स प्रोसेसर का उपयोग करके कंप्यूटिंग की अनुमति देता है जो GPGPU (वीडियो कार्ड पर रैंडम कंप्यूटिंग) तकनीक का समर्थन करता है। CUDA आर्किटेक्चर पहली बार आठवीं पीढ़ी के NVIDIA चिप - G80 की रिलीज के साथ बाजार में दिखाई दिया और ग्राफिक्स चिप्स की सभी बाद की श्रृंखला में मौजूद है जो GeForce, ION, Quadro और Tesla त्वरक परिवारों में उपयोग किए जाते हैं।

CUDA SDK प्रोग्रामर्स को एल्गोरिदम लागू करने की अनुमति देता है जिसे C प्रोग्रामिंग भाषा की एक विशेष सरलीकृत बोली में NVIDIA GPU पर निष्पादित किया जा सकता है और C प्रोग्राम के टेक्स्ट में विशेष फ़ंक्शन शामिल कर सकते हैं। CUDA डेवलपर को अपने विवेक पर निर्देशों के एक सेट तक पहुंच व्यवस्थित करने की क्षमता देता है ग्राफ़िक्स त्वरकऔर इसकी मेमोरी को प्रबंधित करें, इस पर जटिल समानांतर गणनाएँ व्यवस्थित करें।

कहानी

2003 में, Intel और AMD ने एक संयुक्त दौड़ में भाग लिया शक्तिशाली प्रोसेसर. कई वर्षों के दौरान, इस दौड़ के परिणामस्वरूप घड़ी की गतिविशेष रूप से रिलीज़ के बाद इसमें उल्लेखनीय वृद्धि हुई इंटेल पेंटियम 4.

घड़ी की आवृत्तियों में वृद्धि के बाद (2001 और 2003 के बीच, पेंटियम 4 की घड़ी की आवृत्ति 1.5 से 3 गीगाहर्ट्ज तक दोगुनी हो गई), और उपयोगकर्ताओं को गीगाहर्ट्ज़ के दसवें हिस्से से संतुष्ट होना पड़ा, जो निर्माताओं द्वारा बाजार में लाया गया था (2003 से 2003 तक) 2005, घड़ी की आवृत्ति 3 से 3.8 गीगाहर्ट्ज़ तक बढ़ गई)।

उच्च घड़ी आवृत्तियों के लिए अनुकूलित आर्किटेक्चर, जैसे कि प्रेस्कॉट, को भी कठिनाइयों का अनुभव करना शुरू हुआ, न कि केवल उत्पादन वाले। चिप निर्माताओं को भौतिकी के नियमों पर काबू पाने में चुनौतियों का सामना करना पड़ रहा है। कुछ विश्लेषकों ने यह भी भविष्यवाणी की कि मूर का कानून लागू होना बंद हो जाएगा। लेकिन वैसा नहीं हुआ। कानून का मूल अर्थ अक्सर विकृत होता है, लेकिन यह सिलिकॉन कोर की सतह पर ट्रांजिस्टर की संख्या से संबंधित है। लंबे समय तक, सीपीयू में ट्रांजिस्टर की संख्या में वृद्धि के साथ-साथ प्रदर्शन में भी वृद्धि होती थी - जिससे अर्थ में विकृति आती थी। लेकिन फिर स्थिति और जटिल हो गई. सीपीयू आर्किटेक्चर के डेवलपर्स ने विकास में कमी के नियम से संपर्क किया: प्रदर्शन में आवश्यक वृद्धि के लिए जोड़े जाने वाले ट्रांजिस्टर की संख्या तेजी से बड़ी हो गई, जिससे गतिरोध पैदा हो गया।

जीपीयू निर्माताओं को इस समस्या का सामना न करने का कारण बहुत सरल है: सीपीयू को प्राप्त करने के लिए डिज़ाइन किया गया है अधिकतम प्रदर्शननिर्देशों की एक धारा पर जो विभिन्न डेटा (पूर्णांक और फ़्लोटिंग पॉइंट संख्या दोनों) को संसाधित करता है, यादृच्छिक मेमोरी एक्सेस आदि करता है। अब तक, डेवलपर्स निर्देशों की अधिक समानता प्रदान करने का प्रयास कर रहे हैं - अर्थात, समानांतर में जितना संभव हो उतने निर्देशों को निष्पादित करें। उदाहरण के लिए, पेंटियम के साथ, सुपरस्केलर निष्पादन दिखाई दिया, जब कुछ शर्तों के तहत प्रति घड़ी चक्र में दो निर्देशों को निष्पादित करना संभव था। पेंटियम प्रो को निर्देशों का आउट-ऑफ़-ऑर्डर निष्पादन प्राप्त हुआ, जिससे कंप्यूटिंग इकाइयों के संचालन को अनुकूलित करना संभव हो गया। समस्या यह है कि समानांतर में निर्देशों की अनुक्रमिक धारा को निष्पादित करने की स्पष्ट सीमाएँ हैं, इसलिए कम्प्यूटेशनल इकाइयों की संख्या को आँख बंद करके बढ़ाने से कोई लाभ नहीं मिलता है क्योंकि वे अभी भी अधिकांश समय निष्क्रिय रहेंगे।

GPU का संचालन अपेक्षाकृत सरल है. इसमें एक तरफ बहुभुजों का एक समूह लेना और दूसरी तरफ पिक्सेल का एक समूह बनाना शामिल है। बहुभुज और पिक्सेल एक दूसरे से स्वतंत्र हैं, इसलिए उन्हें समानांतर में संसाधित किया जा सकता है। इस प्रकार, एक जीपीयू में क्रिस्टल के एक बड़े हिस्से को कम्प्यूटेशनल इकाइयों में आवंटित करना संभव है, जो सीपीयू के विपरीत, वास्तव में उपयोग किया जाएगा।

GPU सिर्फ इसी तरह से CPU से भिन्न नहीं है। जीपीयू में मेमोरी एक्सेस बहुत युग्मित है - यदि एक टेक्सल पढ़ा जाता है, तो कुछ घड़ी चक्रों के बाद पड़ोसी टेक्सल पढ़ा जाएगा; जब एक पिक्सेल रिकॉर्ड किया जाता है, तो कुछ घड़ी चक्रों के बाद पड़ोसी पिक्सेल रिकॉर्ड किया जाएगा। स्मृति को बुद्धिमानी से व्यवस्थित करके, आप सैद्धांतिक के करीब प्रदर्शन प्राप्त कर सकते हैं बैंडविड्थ. इसका मतलब यह है कि सीपीयू के विपरीत, जीपीयू को विशाल कैश की आवश्यकता नहीं होती है, क्योंकि इसकी भूमिका टेक्सचरिंग संचालन को गति देना है। बस कुछ किलोबाइट की आवश्यकता होती है जिसमें बिलिनियर और ट्रिलिनियर फ़िल्टर में उपयोग किए जाने वाले कुछ टेक्सल्स होते हैं।

GPU पर पहली गणना

ऐसे अनुप्रयोगों के शुरुआती प्रयास कुछ हार्डवेयर फ़ंक्शंस, जैसे रैस्टराइज़ेशन और ज़ेड-बफ़रिंग के उपयोग तक सीमित थे। लेकिन वर्तमान सदी में, शेडर्स के आगमन के साथ, मैट्रिक्स गणना में तेजी आने लगी। 2003 में, SIGGRAPH में, GPU कंप्यूटिंग के लिए एक अलग अनुभाग आवंटित किया गया था, और इसे GPGPU (GPU पर सामान्य-उद्देश्य गणना) कहा गया था।

सबसे प्रसिद्ध ब्रूकजीपीयू है, जो ब्रूक स्ट्रीमिंग प्रोग्रामिंग भाषा के लिए एक कंपाइलर है, जिसे जीपीयू पर गैर-ग्राफिकल गणना करने के लिए डिज़ाइन किया गया है। इसकी उपस्थिति से पहले, गणना के लिए वीडियो चिप्स की क्षमताओं का उपयोग करने वाले डेवलपर्स ने दो सामान्य एपीआई में से एक को चुना: Direct3D या OpenGL। इसने जीपीयू के उपयोग को गंभीर रूप से सीमित कर दिया, क्योंकि 3डी ग्राफिक्स शेडर्स और टेक्सचर का उपयोग करते हैं जिनके बारे में समानांतर प्रोग्रामिंग विशेषज्ञों को जानने की आवश्यकता नहीं होती है; वे थ्रेड्स और कोर का उपयोग करते हैं; ब्रुक उनके कार्य को आसान बनाने में मदद करने में सक्षम था। स्टैनफोर्ड यूनिवर्सिटी में विकसित सी भाषा के इन स्ट्रीमिंग एक्सटेंशन ने 3डी एपीआई को प्रोग्रामर्स से छिपा दिया और वीडियो चिप को एक समानांतर कोप्रोसेसर के रूप में प्रस्तुत किया। कंपाइलर ने .br फ़ाइल को C++ कोड और एक्सटेंशन के साथ संसाधित किया, और DirectX, OpenGL, या x86-सक्षम लाइब्रेरी से लिंक कोड तैयार किया।

ब्रुक की उपस्थिति ने NVIDIA और ATI के बीच रुचि जगाई और बाद में इसका एक नया क्षेत्र खुल गया - वीडियो चिप्स पर आधारित समानांतर कंप्यूटर।

इसके बाद, ब्रुक परियोजना के कुछ शोधकर्ता हार्डवेयर-सॉफ्टवेयर समानांतर कंप्यूटिंग रणनीति पेश करने के लिए NVIDIA विकास टीम में शामिल हो गए, जिससे नई बाजार हिस्सेदारी खुल गई। और इस NVIDIA पहल का मुख्य लाभ यह है कि डेवलपर्स अपने GPU की सभी क्षमताओं को अंतिम विवरण तक जानते हैं, और ग्राफिक्स एपीआई का उपयोग करने की कोई आवश्यकता नहीं है, और आप ड्राइवर का उपयोग करके सीधे हार्डवेयर के साथ काम कर सकते हैं। इस टीम के प्रयासों का परिणाम NVIDIA CUDA था।

GPU पर समानांतर गणना के अनुप्रयोग के क्षेत्र

गणनाओं को जीपीयू में स्थानांतरित करते समय, कई कार्य तेज़ सामान्य प्रयोजन प्रोसेसर की तुलना में 5-30 गुना त्वरण प्राप्त करते हैं। सबसे बड़ी संख्या(लगभग 100 गुना त्वरण और इससे भी अधिक!) कोड का उपयोग करके प्राप्त किया जाता है जो एसएसई ब्लॉक का उपयोग करके गणना के लिए बहुत उपयुक्त नहीं है, लेकिन जीपीयू के लिए काफी सुविधाजनक है।

ये GPU पर सिंथेटिक कोड बनाम CPU पर SSE-वेक्टराइज्ड कोड के लिए स्पीडअप के कुछ उदाहरण हैं (NVIDIA के अनुसार):

प्रतिदीप्ति माइक्रोस्कोपी: 12x.

आणविक गतिशीलता (गैर-बंधित बल कैल्क): 8-16x;

इलेक्ट्रोस्टैटिक्स (प्रत्यक्ष और बहुस्तरीय कूलम्ब योग): 40-120x और 7x।

एक तालिका जो NVIDIA सभी प्रस्तुतियों में प्रदर्शित करती है वह सीपीयू के सापेक्ष जीपीयू की गति दिखाती है।

मुख्य अनुप्रयोगों की सूची जिसमें जीपीयू कंप्यूटिंग का उपयोग किया जाता है: छवियों और संकेतों का विश्लेषण और प्रसंस्करण, भौतिकी सिमुलेशन, कम्प्यूटेशनल गणित, कम्प्यूटेशनल जीव विज्ञान, वित्तीय गणना, डेटाबेस, गैसों और तरल पदार्थों की गतिशीलता, क्रिप्टोग्राफी, अनुकूली विकिरण चिकित्सा, खगोल विज्ञान, ऑडियो प्रसंस्करण , जैव सूचना विज्ञान, जैविक सिमुलेशन, कंप्यूटर दृष्टि, डेटा खनन, डिजिटल सिनेमा और टेलीविजन, विद्युत चुम्बकीय सिमुलेशन, भौगोलिक सूचना प्रणाली, सैन्य अनुप्रयोग, खान योजना, आणविक गतिशीलता, चुंबकीय अनुनाद इमेजिंग (एमआरआई), तंत्रिका नेटवर्क, समुद्र विज्ञान अनुसंधान, कण भौतिकी, प्रोटीन तह सिमुलेशन, क्वांटम रसायन विज्ञान, किरण अनुरेखण, इमेजिंग, रडार, जलाशय सिमुलेशन, कृत्रिम बुद्धि, उपग्रह डेटा विश्लेषण, भूकंपीय अन्वेषण, सर्जरी, अल्ट्रासाउंड, वीडियो कॉन्फ्रेंसिंग।

CUDA के लाभ और सीमाएँ

एक प्रोग्रामर के दृष्टिकोण से, एक ग्राफिक्स पाइपलाइन प्रसंस्करण चरणों का एक संग्रह है। ज्योमेट्री ब्लॉक त्रिकोण उत्पन्न करता है, और रैस्टराइज़ेशन ब्लॉक मॉनिटर पर प्रदर्शित पिक्सेल उत्पन्न करता है। पारंपरिक GPGPU प्रोग्रामिंग मॉडल इस तरह दिखता है:

इस मॉडल के भीतर गणनाओं को जीपीयू में स्थानांतरित करने के लिए एक विशेष दृष्टिकोण की आवश्यकता होती है। यहां तक ​​कि तत्व-वार दो वैक्टरों को जोड़ने के लिए स्क्रीन पर या ऑफ-स्क्रीन बफर पर चित्र बनाने की आवश्यकता होगी। आकृति को रेखापुंज किया गया है, प्रत्येक पिक्सेल के रंग की गणना किसी दिए गए प्रोग्राम (पिक्सेल शेडर) का उपयोग करके की जाती है। प्रोग्राम प्रत्येक पिक्सेल के लिए बनावट से इनपुट डेटा पढ़ता है, उन्हें जोड़ता है और उन्हें आउटपुट बफर में लिखता है। और एक ऑपरेटर के साथ एक नियमित प्रोग्रामिंग भाषा में जो लिखा जाता है उसके लिए इन सभी असंख्य ऑपरेशनों की आवश्यकता होती है!

इसलिए, सामान्य प्रयोजन कंप्यूटिंग के लिए जीपीजीपीयू के उपयोग में डेवलपर्स को प्रशिक्षित करने में बहुत मुश्किल होने की सीमा है। और पर्याप्त अन्य प्रतिबंध हैं, क्योंकि एक पिक्सेल शेडर एक पिक्सेल के अंतिम रंग की उसके समन्वय पर निर्भरता के लिए एक सूत्र है, और पिक्सेल शेडर की भाषा इन सूत्रों को सी-जैसे सिंटैक्स के साथ लिखने के लिए एक भाषा है। प्रारंभिक जीपीजीपीयू विधियां एक साफ-सुथरी चाल है जो आपको जीपीयू की शक्ति का उपयोग करने की अनुमति देती है, लेकिन बिना किसी सुविधा के। वहां डेटा को छवियों (बनावटों) द्वारा दर्शाया जाता है, और एल्गोरिदम को रेखापुंज प्रक्रिया द्वारा दर्शाया जाता है। विशेष रूप से ध्यान देने योग्य बात स्मृति और निष्पादन का बहुत विशिष्ट मॉडल है।

GPU कंप्यूटिंग के लिए NVIDIA का सॉफ्टवेयर और हार्डवेयर आर्किटेक्चर पिछले GPGPU मॉडल से इस मायने में अलग है कि यह आपको मानक सिंटैक्स, पॉइंटर्स और वीडियो चिप्स के कंप्यूटिंग संसाधनों तक पहुंचने के लिए न्यूनतम एक्सटेंशन की आवश्यकता के साथ वास्तविक C भाषा में GPU के लिए प्रोग्राम लिखने की अनुमति देता है। CUDA ग्राफिक्स एपीआई से स्वतंत्र है, और इसमें कुछ विशेषताएं विशेष रूप से सामान्य प्रयोजन कंप्यूटिंग के लिए डिज़ाइन की गई हैं।

GPGPU कंप्यूटिंग के पारंपरिक दृष्टिकोण की तुलना में CUDA के लाभ

CUDA प्रति मल्टीप्रोसेसर 16 KB थ्रेड-शेयर्ड मेमोरी तक पहुंच प्रदान करता है, जिसका उपयोग टेक्सचर फ़ेच की तुलना में उच्च बैंडविड्थ के साथ कैश को व्यवस्थित करने के लिए किया जा सकता है;

सिस्टम और वीडियो मेमोरी के बीच अधिक कुशल डेटा स्थानांतरण;

अतिरेक और ओवरहेड के साथ ग्राफिकल एपीआई की कोई आवश्यकता नहीं;

रैखिक स्मृति संबोधन, इकट्ठा करना और बिखेरना, मनमाने पते पर लिखने की क्षमता;

पूर्णांक और बिट संचालन के लिए हार्डवेयर समर्थन।

CUDA की मुख्य सीमाएँ:

निष्पादन योग्य कार्यों के लिए पुनरावर्ती समर्थन का अभाव;

न्यूनतम ब्लॉक चौड़ाई 32 धागे है;

NVIDIA के स्वामित्व वाला बंद CUDA आर्किटेक्चर।

पिछले GPGPU तरीकों के साथ प्रोग्रामिंग की कमजोरियां यह हैं कि ये तरीके पिछले गैर-एकीकृत आर्किटेक्चर में वर्टेक्स शेडर निष्पादन इकाइयों का उपयोग नहीं करते हैं, डेटा को बनावट में संग्रहीत किया जाता है और ऑफ-स्क्रीन बफर में आउटपुट किया जाता है, और मल्टी-पास एल्गोरिदम पिक्सेल शेडर इकाइयों का उपयोग करते हैं। GPGPU सीमाओं में शामिल हो सकते हैं: हार्डवेयर क्षमताओं का अपर्याप्त उपयोग, मेमोरी बैंडविड्थ सीमाएं, स्कैटर ऑपरेशन की कमी (केवल इकट्ठा करना), ग्राफिक्स एपीआई का अनिवार्य उपयोग।

पिछले जीपीजीपीयू तरीकों की तुलना में सीयूडीए के मुख्य लाभ इस तथ्य से उपजे हैं कि आर्किटेक्चर को जीपीयू पर गैर-ग्राफिक्स कंप्यूटिंग का कुशल उपयोग करने के लिए डिज़ाइन किया गया है और एल्गोरिदम को ग्राफिक्स पाइपलाइन अवधारणा-अनुकूल रूप में पोर्ट करने की आवश्यकता के बिना सी प्रोग्रामिंग भाषा का उपयोग करता है। . CUDA GPU कंप्यूटिंग के लिए एक नया पथ प्रदान करता है जो ग्राफ़िक्स एपीआई का उपयोग नहीं करता है, जो यादृच्छिक मेमोरी एक्सेस (स्कैटर या इकट्ठा) की पेशकश करता है। इस आर्किटेक्चर में GPGPU के नुकसान नहीं हैं और यह सभी निष्पादन इकाइयों का उपयोग करता है, और पूर्णांक गणित और बिट शिफ्ट संचालन के माध्यम से क्षमताओं का विस्तार भी करता है।

CUDA कुछ हार्डवेयर क्षमताओं को खोलता है जो ग्राफ़िक्स एपीआई से उपलब्ध नहीं हैं, जैसे साझा मेमोरी। यह एक छोटी मेमोरी (16 किलोबाइट प्रति मल्टीप्रोसेसर) है जिस तक थ्रेड ब्लॉक की पहुंच होती है। यह आपको सबसे अधिक उपयोग किए जाने वाले डेटा को कैश करने की अनुमति देता है और अधिक प्रदान कर सकता है उच्च गति,इस कार्य के लिए टेक्सचर फ़ेच का उपयोग करने की तुलना में। जो, बदले में, कई अनुप्रयोगों में समानांतर एल्गोरिदम की थ्रूपुट संवेदनशीलता को कम कर देता है। उदाहरण के लिए, यह रैखिक बीजगणित, तेज़ फूरियर रूपांतरण और छवि प्रसंस्करण फ़िल्टर के लिए उपयोगी है।

CUDA में मेमोरी एक्सेस भी अधिक सुविधाजनक है। प्रोग्राम कोडग्राफ़िक्स एपीआई में, यह पूर्वनिर्धारित क्षेत्रों में 32 एकल-परिशुद्धता फ़्लोटिंग-पॉइंट मान (आठ रेंडर लक्ष्यों में एक साथ आरजीबीए मान) के रूप में डेटा आउटपुट करता है, और सीयूडीए स्कैटर रिकॉर्ड का समर्थन करता है - किसी भी समय असीमित संख्या में रिकॉर्ड पता। इस तरह के फायदे जीपीयू पर कुछ एल्गोरिदम निष्पादित करना संभव बनाते हैं जिन्हें ग्राफिक्स एपीआई पर आधारित जीपीजीपीयू विधियों का उपयोग करके कुशलतापूर्वक कार्यान्वित नहीं किया जा सकता है।

इसके अलावा, ग्राफ़िक्स एपीआई आवश्यक रूप से बनावट में डेटा संग्रहीत करते हैं, जिसके लिए बनावट में बड़े सरणी की प्रारंभिक पैकेजिंग की आवश्यकता होती है, जो एल्गोरिदम को जटिल बनाती है और विशेष एड्रेसिंग के उपयोग को मजबूर करती है। और CUDA आपको किसी भी पते पर डेटा पढ़ने की अनुमति देता है। CUDA का एक अन्य लाभ CPU और GPU के बीच अनुकूलित डेटा विनिमय है। और उन डेवलपर्स के लिए जो एक्सेस करना चाहते हैं कम स्तर(उदाहरण के लिए, किसी अन्य प्रोग्रामिंग भाषा को लिखते समय), CUDA असेंबली भाषा में निम्न-स्तरीय प्रोग्रामिंग की संभावना प्रदान करता है।

CUDA के नुकसान

CUDA के कुछ नुकसानों में से एक इसकी खराब पोर्टेबिलिटी है। यह आर्किटेक्चर केवल इस कंपनी के वीडियो चिप्स पर काम करता है, और उन सभी पर नहीं, बल्कि GeForce 8 और 9 श्रृंखला और संबंधित क्वाड्रो, ION और टेस्ला से शुरू होता है। NVIDIA 90 मिलियन CUDA-संगत वीडियो चिप्स का आंकड़ा बताता है।

सीयूडीए विकल्प

विभिन्न ग्राफिक्स और केंद्रीय प्रोसेसर पर समानांतर कंप्यूटिंग से संबंधित कंप्यूटर प्रोग्राम लिखने के लिए एक रूपरेखा। ओपनसीएल फ्रेमवर्क में एक प्रोग्रामिंग भाषा शामिल है जो C99 मानक और एक एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस (एपीआई) पर आधारित है। ओपनसीएल निर्देश-स्तर और डेटा-स्तर समानता प्रदान करता है और जीपीजीपीयू तकनीक का कार्यान्वयन है। ओपनसीएल पूरी तरह से खुला मानक है और उपयोग के लिए रॉयल्टी-मुक्त है।

ओपनसीएल का लक्ष्य ओपनजीएल और ओपनएएल को पूरक बनाना है, जो 3डी के लिए खुले उद्योग मानक हैं कंप्यूटर चित्रलेखऔर ध्वनि, GPU की क्षमताओं का लाभ उठाते हुए। ओपनसीएल को गैर-लाभकारी कंसोर्टियम ख्रोनोस ग्रुप द्वारा विकसित और रखरखाव किया जाता है, जिसमें ऐप्पल, एएमडी, इंटेल, एनवीडिया, सन माइक्रोसिस्टम्स, सोनी कंप्यूटर एंटरटेनमेंट और अन्य सहित कई बड़ी कंपनियां शामिल हैं।

सीएएल/आईएल (कंप्यूट एब्स्ट्रैक्शन लेयर/इंटरमीडिएट लैंग्वेज)

एटीआई स्ट्रीम टेक्नोलॉजी हार्डवेयर और सॉफ्टवेयर प्रौद्योगिकियों का एक सेट है जो ग्राफिक्स को सक्षम बनाता है एएमडी प्रोसेसर, केंद्रीय प्रोसेसर के साथ मिलकर, कई अनुप्रयोगों (सिर्फ ग्राफिक्स नहीं) को तेज करने के लिए।

एटीआई स्ट्रीम के अनुप्रयोगों में वित्तीय विश्लेषण या भूकंपीय डेटा प्रोसेसिंग जैसे कम्प्यूटेशनल रूप से गहन अनुप्रयोग शामिल हैं। केवल केंद्रीय प्रोसेसर का उपयोग करके उसी समस्या को हल करने की तुलना में स्ट्रीम प्रोसेसर के उपयोग से कुछ वित्तीय गणनाओं की गति को 55 गुना बढ़ाना संभव हो गया।

NVIDIA ATI स्ट्रीम तकनीक को बहुत मजबूत प्रतिस्पर्धी नहीं मानता है। CUDA और स्ट्रीम दो हैं विभिन्न प्रौद्योगिकियाँ, जो विकास के विभिन्न स्तरों पर हैं। एटीआई उत्पादों के लिए प्रोग्रामिंग बहुत अधिक जटिल है - उनकी भाषा असेंबली भाषा की तरह है। बदले में, CUDA C एक अधिक उच्च स्तरीय भाषा है। इस पर लिखना अधिक सुविधाजनक एवं आसान है। बड़ी विकास कंपनियों के लिए यह बहुत महत्वपूर्ण है। यदि हम प्रदर्शन के बारे में बात करते हैं, तो हम देख सकते हैं कि ATI उत्पादों में इसका चरम मूल्य NVIDIA समाधानों की तुलना में अधिक है। लेकिन फिर से यह सब इस बात पर निर्भर करता है कि इस शक्ति को कैसे प्राप्त किया जाए।

DirectX11 (डायरेक्टकंप्यूट)

एक एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस जो डायरेक्टएक्स का हिस्सा है, माइक्रोसॉफ्ट से एपीआई का एक सेट जिसे ऑपरेटिंग सिस्टम के परिवार को चलाने वाले आईबीएम पीसी-संगत कंप्यूटर पर चलाने के लिए डिज़ाइन किया गया है माइक्रोसॉफ़्ट विंडोज़. DirectCompute को GPU पर सामान्य प्रयोजन कंप्यूटिंग करने के लिए डिज़ाइन किया गया है, जो GPGPU अवधारणा का कार्यान्वयन है। DirectCompute को मूल रूप से DirectX 11 के भाग के रूप में प्रकाशित किया गया था, लेकिन बाद में यह DirectX 10 और DirectX 10.1 के लिए उपलब्ध हो गया।

रूसी वैज्ञानिक समुदाय में NVDIA CUDA।

दिसंबर 2009 तक, सॉफ्टवेयर मॉडल CUDA दुनिया भर के 269 विश्वविद्यालयों में पढ़ाया जाता है। रूस में, CUDA पर प्रशिक्षण पाठ्यक्रम मास्को, सेंट पीटर्सबर्ग, कज़ान, नोवोसिबिर्स्क और पर्म में दिए जाते हैं राज्य विश्वविद्यालय, इंटरनेशनल यूनिवर्सिटी ऑफ द नेचर ऑफ सोसाइटी एंड मैन "डुबना", ज्वाइंट इंस्टीट्यूट फॉर न्यूक्लियर रिसर्च, मॉस्को इंस्टीट्यूट ऑफ इलेक्ट्रॉनिक टेक्नोलॉजी, इवानोवो स्टेट एनर्जी यूनिवर्सिटी, बीएसटीयू के नाम पर रखा गया है। वी. जी. शुखोव, एमएसटीयू आईएम। बॉमन, रूसी रासायनिक तकनीकी विश्वविद्यालय के नाम पर रखा गया। मेंडेलीव, रूसी वैज्ञानिक केंद्र "कुरचटोव संस्थान", रूसी विज्ञान अकादमी का अंतरक्षेत्रीय सुपरकंप्यूटर केंद्र, टैगान्रोग टेक्नोलॉजिकल इंस्टीट्यूट (टीटीआई एसएफयू)।

आज इस पर विशेष रूप से सक्रिय रूप से चर्चा की जा रही है और कई उपयोगकर्ता इस बात में रुचि रखते हैं कि सिक्कों का खनन कहाँ से शुरू किया जाए और यह कैसे होता है। इस उद्योग की लोकप्रियता का पहले से ही जीपीयू बाजार पर एक ठोस प्रभाव पड़ा है, और कई लोगों ने लंबे समय से एक शक्तिशाली वीडियो कार्ड को मांग वाले गेम के साथ नहीं, बल्कि क्रिप्टो फ़ार्म के साथ जोड़ा है। इस लेख में हम इस बारे में बात करेंगे कि इस पूरी प्रक्रिया को नए सिरे से कैसे व्यवस्थित किया जाए और अपने खेत पर खनन कैसे शुरू किया जाए, इसके लिए क्या उपयोग किया जाए और यह असंभव क्यों है।

वीडियो कार्ड पर खनन क्या है?

जीपीयू माइनिंग ग्राफिक्स प्रोसेसिंग यूनिट्स (जीपीयू) का उपयोग करके क्रिप्टोकरेंसी माइनिंग की प्रक्रिया है। ऐसा करने के लिए, घरेलू कंप्यूटर में एक शक्तिशाली वीडियो कार्ड या एक सिस्टम में कई उपकरणों के विशेष रूप से इकट्ठे फ़ार्म का उपयोग करें। यदि आप सोच रहे हैं कि इस प्रक्रिया के लिए GPU का उपयोग क्यों किया जाता है, तो उत्तर काफी सरल है। बात यह है कि वीडियो कार्ड शुरू में समान संचालन करके बड़ी मात्रा में डेटा संसाधित करने के लिए डिज़ाइन किए गए हैं, जैसा कि वीडियो प्रोसेसिंग के मामले में होता है। क्रिप्टोकरेंसी माइनिंग में भी यही तस्वीर देखी गई है, क्योंकि यहां हैशिंग प्रक्रिया बिल्कुल समान है।

खनन के लिए, पूर्ण विकसित असतत वीडियो कार्ड का उपयोग किया जाता है। लैपटॉप या प्रोसेसर-एकीकृत चिप्स का उपयोग नहीं किया जाता है। इंटरनेट पर बाहरी वीडियो कार्ड पर खनन के बारे में भी लेख हैं, लेकिन यह भी सभी मामलों में काम नहीं करता है और सबसे अच्छा समाधान नहीं है।

खनन के लिए कौन से वीडियो कार्ड उपयुक्त हैं?

इसलिए, जहां तक ​​वीडियो कार्ड चुनने की बात है, यहां सामान्य अभ्यास AMD rx 470, rx 480, rx 570, rx 580 या Nvidia 1060, 1070, 1080 ti खरीदना है। R9 280x, r9 290, 1050, 1060 जैसे वीडियो कार्ड भी उपयुक्त हैं, लेकिन geforce gtx 460, gts 450, gtx 550ti जैसे कमजोर वीडियो कार्ड पर खनन निश्चित रूप से लाभ नहीं लाएगा। अगर मेमोरी की बात करें तो 2 जीबी से लेना बेहतर है। यहां तक ​​कि 1 जीबी भी पर्याप्त नहीं हो सकता है, 512 एमबी की तो बात ही छोड़ दें। यदि हम एक पेशेवर वीडियो कार्ड पर खनन के बारे में बात करते हैं, तो यह नियमित वीडियो कार्ड के समान या उससे भी कम परिणाम लाता है। ऐसे वीसी की लागत को ध्यान में रखते हुए, यह लाभहीन है, लेकिन यदि आपके पास पहले से ही स्टॉक में हैं तो आप उनकी मदद से खनन कर सकते हैं।

यह भी ध्यान देने योग्य है कि सभी वीडियो कार्ड निर्माता द्वारा निर्धारित मूल्यों को अनलॉक करके प्रदर्शन में वृद्धि प्राप्त कर सकते हैं। इस प्रक्रिया को ओवरक्लॉकिंग कहा जाता है। हालाँकि, यह असुरक्षित है, इससे वारंटी ख़त्म हो जाती है और कार्ड विफल हो सकता है, उदाहरण के लिए, कलाकृतियों को दिखाना शुरू करने से। वीडियो कार्ड को ओवरक्लॉक करना संभव है, लेकिन आपको इस विषय पर सामग्री पढ़ने और सावधानी से आगे बढ़ने की जरूरत है। आपको तुरंत सभी मानों को अधिकतम पर सेट करने का प्रयास नहीं करना चाहिए, बल्कि इंटरनेट पर विशेष रूप से आपके वीडियो कार्ड के लिए सफल ओवरक्लॉकिंग सेटिंग्स के उदाहरण ढूंढना और भी बेहतर है।

माइनिंग 2020 के लिए सबसे लोकप्रिय वीडियो कार्ड

नीचे वीडियो कार्ड की तुलना दी गई है. तालिका में सबसे लोकप्रिय उपकरण और उनकी अधिकतम बिजली खपत शामिल है। यह कहा जाना चाहिए कि ये संकेतक विशिष्ट वीडियो कार्ड मॉडल, उसके निर्माता, उपयोग की गई मेमोरी और कुछ अन्य विशेषताओं के आधार पर भिन्न हो सकते हैं। पुराने संकेतकों के बारे में लिखने का कोई मतलब नहीं है, जैसे कि वीडियो कार्ड पर लाइटकॉइन खनन, इसलिए वीडियो कार्ड पर खनन के लिए केवल तीन सबसे लोकप्रिय एल्गोरिदम पर विचार किया जाता है।

वीडियो कार्ड एथाश इक्विहाश क्रिप्टोनाइट ऊर्जा की खपत
AMD Radeon R9 280x 11एमएच/एस 290 एच/एस 490 एच/एस 230W
एएमडी रेडॉन आरएक्स 470 26एमएच/एस 260 एच/एस 660 एच/एस 120W
एएमडी रेडॉन आरएक्स 480 29.5 एमएच/सेकेंड 290 एच/एस 730 एच/एस 135W
एएमडी रेडॉन आरएक्स 570 27.9 एमएच/एस 260 एच/एस 700 एच/एस 120W
एएमडी रेडॉन आरएक्स 580 30.2 एमएच/एस 290 एच/एस 690 एच/एस 135W
एनवीडिया GeForce GTX 750TI 0.5एमएच/एस 75 एच/एस 250 एच/एस 55W
एनवीडिया GeForce GTX 1050TI 13.9 एमएच/एस 180 एच/एस 300 एच/एस 75W
एनवीडिया GeForce GTX 1060 22.5MH/s 270 एच/एस 430 एच/एस 90W
एनवीडिया GeForce GTX 1070 30एमएच/एस 430 एच/एस 630 एच/एस 120W
एनवीडिया GeForce GTX 1070TI 30.5 एमएच/एस 470 एच/एस 630 एच/एस 135W
एनवीडिया GeForce GTX 1080 23.3 एमएच/एस 550 एच/एस 580 एच/एस 140W
एनवीडिया GeForce GTX 1080TI 35एमएच/एस 685 एच/एस 830 एच/एस 190W

क्या एक वीडियो कार्ड पर खनन संभव है?

यदि आप कई जीपीयू से पूर्ण विकसित फ़ार्म को असेंबल नहीं करना चाहते हैं या आप बस इस प्रक्रिया को अपने घरेलू कंप्यूटर पर आज़माना चाहते हैं, तो आप एक वीडियो कार्ड से माइनिंग कर सकते हैं। कोई अंतर नहीं है और सामान्य तौर पर सिस्टम में उपकरणों की संख्या महत्वपूर्ण नहीं है। इसके अलावा, आप विभिन्न चिप्स के साथ या यहां तक ​​कि डिवाइस भी इंस्टॉल कर सकते हैं विभिन्न निर्माता. आपको विभिन्न कंपनियों के चिप्स के लिए समानांतर में केवल दो प्रोग्राम चलाने की आवश्यकता है। हम आपको एक बार फिर याद दिला दें कि एकीकृत वीडियो कार्ड पर खनन नहीं किया जाता है।

वीडियो कार्ड पर कौन सी क्रिप्टोकरेंसी का खनन किया जा सकता है?

आप किसी भी क्रिप्टोकरेंसी को GPU पर माइन कर सकते हैं, लेकिन आपको यह समझना चाहिए कि एक ही कार्ड पर अलग-अलग क्रिप्टोकरेंसी का प्रदर्शन अलग-अलग होगा। पुराने एल्गोरिदम अब वीडियो प्रोसेसर के लिए उपयुक्त नहीं हैं और इससे कोई लाभ नहीं होगा। यह बाजार में नए उपकरणों के आगमन के कारण होता है - तथाकथित। वे बहुत अधिक उत्पादक हैं और नेटवर्क की जटिलता को महत्वपूर्ण रूप से बढ़ाते हैं, लेकिन उनकी लागत अधिक है और हजारों डॉलर तक पहुंचती है। इसलिए, 2018 में घर पर SHA-256 (बिटकॉइन) या स्क्रीप्ट (लाइटकॉइन, डॉगकॉइन) का उपयोग करके सिक्के खनन करना एक बुरा विचार है।

एलटीसी और डीओजीई के अलावा, एएसआईसी ने बिटकॉइन (बीटीसी), डैश और अन्य मुद्राओं को माइन करना असंभव बना दिया है। एक बेहतर विकल्प क्रिप्टोकरेंसी होगी जो ASIC-संरक्षित एल्गोरिदम का उपयोग करती है। उदाहरण के लिए, एक जीपीयू का उपयोग करके, आप क्रिप्टोनाइट (कार्बोवनेट्स, मोनेरो, इलेक्ट्रोनम, बाइटकॉइन), इक्विश (जेडकैश, हश, बिटकॉइन गोल्ड) और एथैश (एथेरियम, एथेरियम क्लासिक) एल्गोरिदम का उपयोग करके सिक्के निकाल सकते हैं। सूची पूरी नहीं हुई है और इन एल्गोरिदम पर आधारित नई परियोजनाएं लगातार सामने आ रही हैं। उनमें अधिक लोकप्रिय सिक्कों के दोनों कांटे और पूरी तरह से नए विकास शामिल हैं। कभी-कभी, नए एल्गोरिदम भी सामने आते हैं जो विशिष्ट समस्याओं को हल करने के लिए डिज़ाइन किए गए हैं और विभिन्न उपकरणों का उपयोग कर सकते हैं। नीचे हम बात करेंगे कि वीडियो कार्ड की हैशरेट कैसे पता करें।

वीडियो कार्ड पर खनन के लिए आपको क्या चाहिए

फार्म बनाने के लिए आपको किन चीज़ों की आवश्यकता होगी इसकी सूची नीचे दी गई है:

  • वीडियो कार्ड स्वयं. पसंद विशिष्ट मॉडलयह आपके बजट या आपके पास पहले से मौजूद चीज़ पर निर्भर करता है। बेशक, पुराने एजीपी उपकरण काम नहीं करेंगे, लेकिन आप हाल के वर्षों के किसी भी मध्य या शीर्ष श्रेणी के कार्ड का उपयोग कर सकते हैं। ऊपर, आप ग्राफ़िक्स कार्ड प्रदर्शन तालिका पर लौट सकते हैं, जो आपको उचित विकल्प चुनने की अनुमति देगा।
  • उन्हें स्थापित करने के लिए एक कंप्यूटर. शीर्ष-स्तरीय हार्डवेयर का उपयोग करना और उच्च-प्रदर्शन घटकों के आधार पर फ़ार्म बनाना आवश्यक नहीं है। कोई पुराना एएमडीएथलॉन, कई गीगाबाइट रैंडम एक्सेस मेमोरीऔर हार्ड ड्राइवस्थापना के लिए ऑपरेटिंग सिस्टमऔर आवश्यक कार्यक्रम. मदरबोर्ड भी महत्वपूर्ण है. इसमें आपके फार्म के लिए पर्याप्त पीसीआई स्लॉट होने चाहिए। खनिकों के लिए विशेष संस्करण हैं जिनमें 6-8 स्लॉट होते हैं और कुछ मामलों में कई पीसी को इकट्ठा करने की तुलना में उनका उपयोग करना अधिक लाभदायक होता है। केवल बिजली आपूर्ति पर विशेष ध्यान दिया जाना चाहिए, क्योंकि सिस्टम चौबीसों घंटे उच्च भार के तहत काम करेगा। पावर रिजर्व के साथ बिजली आपूर्ति लेना अनिवार्य है और 80 प्लस प्रमाणपत्र होना उचित है। विशेष एडेप्टर का उपयोग करके दो ब्लॉकों को एक में जोड़ना भी संभव है, लेकिन यह समाधान इंटरनेट पर विवाद का कारण बनता है। बेहतर होगा कि केस का उपयोग ही न किया जाए। के लिए बेहतर शीतलनएक विशेष स्टैंड बनाने या खरीदने की अनुशंसा की जाती है। इस मामले में, वीडियो कार्ड को राइजर नामक विशेष एडेप्टर का उपयोग करके हटा दिया जाता है। आप उन्हें विशेष दुकानों या Aliexpress पर खरीद सकते हैं।
  • अच्छी तरह हवादार शुष्क क्षेत्र. फार्म को गैर-आवासीय कमरे में, या बेहतर होगा कि एक अलग कमरे में रखा जाना चाहिए। इससे कूलिंग और हीट ट्रांसफर सिस्टम के शोर भरे संचालन के कारण उत्पन्न होने वाली असुविधा से छुटकारा मिल जाएगा। यदि यह संभव नहीं है, तो आपको सबसे शांत शीतलन प्रणाली वाले वीडियो कार्ड चुनना चाहिए। आप इसके बारे में इंटरनेट पर समीक्षाओं से अधिक जान सकते हैं, उदाहरण के लिए, YouTube पर। तापमान को यथासंभव कम रखने के लिए आपको वायु परिसंचरण और वेंटिलेशन पर भी विचार करना चाहिए।
  • खान कार्यक्रम. GPU खनन एक विशेष का उपयोग करके होता है जो इंटरनेट पर पाया जा सकता है। निर्माताओं के लिए अति Radeonऔर एनवीडिया अलग-अलग सॉफ़्टवेयर का उपयोग करते हैं। यही बात विभिन्न एल्गोरिदम पर भी लागू होती है।
  • उपकरण सेवा. यह एक बहुत ही महत्वपूर्ण बिंदु है, क्योंकि हर कोई यह नहीं समझता है कि खनन फार्म को निरंतर देखभाल की आवश्यकता होती है। उपयोगकर्ता को तापमान की निगरानी करने, थर्मल पेस्ट बदलने और धूल से सीओ को साफ करने की आवश्यकता है। आपको सुरक्षा सावधानियों के बारे में भी याद रखना चाहिए और सिस्टम की कार्यक्षमता की नियमित जांच करनी चाहिए।

स्क्रैच से वीडियो कार्ड पर माइनिंग कैसे सेट करें

इस अनुभाग में हम मुद्रा चुनने से लेकर धन निकालने तक की संपूर्ण खनन प्रक्रिया पर विचार करेंगे। यह ध्यान दिया जाना चाहिए कि यह पूरी प्रक्रिया अलग-अलग पूल, प्रोग्राम और चिप्स के लिए थोड़ी भिन्न हो सकती है।

खनन के लिए वीडियो कार्ड कैसे चुनें

हमारा सुझाव है कि आप ऊपर प्रस्तुत तालिका और संभावित कमाई की गणना करने वाले अनुभाग से परिचित हो जाएं। यह आपको अपनी अनुमानित आय की गणना करने और यह तय करने की अनुमति देगा कि आप कौन सा हार्डवेयर अधिक खरीद सकते हैं, साथ ही अपने निवेश की भुगतान अवधि को भी समझ सकेंगे। वीडियो कार्ड के पावर कनेक्टर और बिजली आपूर्ति की अनुकूलता के बारे में भी न भूलें। यदि अलग-अलग का उपयोग किया जाता है, तो आपको पहले से ही उपयुक्त एडेप्टर प्राप्त कर लेना चाहिए। यह सब चीनी ऑनलाइन स्टोर में पैसे के लिए या कुछ मार्कअप के साथ स्थानीय विक्रेताओं से आसानी से खरीदा जा सकता है।

एक क्रिप्टोकरेंसी चुनना

अब यह तय करना महत्वपूर्ण है कि किस सिक्के में आपकी रुचि है और आप कौन से लक्ष्य हासिल करना चाहते हैं। यदि आप वास्तविक समय में पैसा कमाने में रुचि रखते हैं, तो आपको सबसे अधिक लाभ वाली मुद्राएं चुननी चाहिए इस पलऔर उन्हें प्राप्त करने के तुरंत बाद बेच दें। आप सबसे लोकप्रिय सिक्के भी निकाल सकते हैं और उन्हें कीमत बढ़ने तक अपने पास रख सकते हैं। एक प्रकार का रणनीतिक दृष्टिकोण भी होता है, जब आप एक अल्प-ज्ञात, लेकिन आपकी राय में, आशाजनक मुद्रा चुनते हैं और आप इसमें शक्ति का निवेश करते हैं, इस उम्मीद में कि भविष्य में मूल्य में उल्लेखनीय वृद्धि होगी।

खनन पूल चुनना

उनमें कुछ मतभेद भी हैं. उनमें से कुछ को पंजीकरण की आवश्यकता होती है, और कुछ को आरंभ करने के लिए बस आपके वॉलेट पते की आवश्यकता होती है। पहला आमतौर पर आपके द्वारा अर्जित धनराशि को भुगतान के लिए न्यूनतम राशि तक पहुंचने तक, या मैन्युअल रूप से पैसे निकालने की प्रतीक्षा करते समय संग्रहीत करता है। एक अच्छा उदाहरणऐसा ही एक पूल है Suprnova.cc. वहां कई क्रिप्टोकरेंसी की पेशकश की जाती है और प्रत्येक पूल में काम करने के लिए आपको केवल एक बार साइट पर पंजीकरण करना होगा। सेवा स्थापित करना आसान है और शुरुआती लोगों के लिए उपयुक्त है।

मिनरगेट वेबसाइट एक समान सरलीकृत प्रणाली प्रदान करती है। ठीक है, यदि आप किसी साइट पर पंजीकरण नहीं करना चाहते हैं और अपने अर्जित धन को वहां संग्रहीत नहीं करना चाहते हैं, तो आपको बिटकॉइनटॉक फोरम पर उस सिक्के के आधिकारिक विषय में कुछ पूल चुनना चाहिए जिसमें आप रुचि रखते हैं। सरल पूल के लिए आपको केवल क्रिप्टो को क्रेडिट करने के लिए एक पता निर्दिष्ट करने की आवश्यकता होती है, और भविष्य में, पते का उपयोग करके, आप खनन आँकड़े पा सकते हैं।

एक क्रिप्टोकरेंसी वॉलेट बनाना

यदि आप ऐसे पूल का उपयोग कर रहे हैं जिसके लिए पंजीकरण की आवश्यकता है और जिसमें एक अंतर्निर्मित वॉलेट है तो आपको इस आइटम की आवश्यकता नहीं है। यदि आप अपने वॉलेट में स्वचालित रूप से भुगतान प्राप्त करना चाहते हैं, तो संबंधित सिक्के के बारे में लेख में वॉलेट बनाने के बारे में पढ़ने का प्रयास करें। यह प्रोसेसविभिन्न परियोजनाओं के लिए काफी भिन्नता हो सकती है।

आप किसी एक एक्सचेंज पर अपना वॉलेट पता भी बता सकते हैं, लेकिन यह ध्यान दिया जाना चाहिए कि सभी एक्सचेंज प्लेटफॉर्म पूल से लेनदेन स्वीकार नहीं करते हैं। सबसे अच्छा विकल्प सीधे आपके कंप्यूटर पर एक वॉलेट बनाना होगा, लेकिन यदि आप बड़ी संख्या में मुद्राओं के साथ काम करते हैं, तो सभी ब्लॉकचेन को संग्रहीत करना असुविधाजनक होगा। इस मामले में, विश्वसनीय ऑनलाइन वॉलेट या हल्के संस्करणों की तलाश करना उचित है, जिन्हें संपूर्ण ब्लॉक श्रृंखला को डाउनलोड करने की आवश्यकता नहीं होती है।

खनन कार्यक्रम का चयन करें और स्थापित करें

क्रिप्ट खनन के लिए प्रोग्राम का चुनाव चयनित सिक्के और उसके एल्गोरिदम पर निर्भर करता है। संभवतः ऐसे सॉफ़्टवेयर के सभी डेवलपर्स के पास बिटकॉइन टॉक्स पर विषय हैं, जहां आप डाउनलोड लिंक और सेट अप और लॉन्च करने के तरीके के बारे में जानकारी पा सकते हैं। इनमें से लगभग सभी प्रोग्रामों में विंडोज़ और लिनक्स दोनों के संस्करण हैं। इनमें से अधिकांश खनिक मुफ़्त हैं, लेकिन वे डेवलपर के पूल से जुड़ने के लिए एक निश्चित प्रतिशत समय का उपयोग करते हैं। यह सॉफ़्टवेयर का उपयोग करने के लिए एक प्रकार का शुल्क है। कुछ मामलों में इसे अक्षम किया जा सकता है, लेकिन इससे कार्यक्षमता सीमित हो जाती है।

प्रोग्राम की स्थापना में खनन पूल, वॉलेट पता या लॉगिन, पासवर्ड (यदि कोई हो) और अन्य विकल्प निर्दिष्ट करना शामिल है। उदाहरण के लिए, अधिकतम तापमान सीमा निर्धारित करने की अनुशंसा की जाती है, जिस पर पहुंचने पर फ़ार्म बंद हो जाएगा, ताकि वीडियो कार्ड को नुकसान न पहुंचे। शीतलन प्रणाली पंखे और अन्य की समायोज्य गति बढ़िया सेटिंग्स, जिसका उपयोग शुरुआती लोगों द्वारा किए जाने की संभावना नहीं है।

यदि आप नहीं जानते कि कौन सा सॉफ़्टवेयर चुनना है, तो इसके लिए समर्पित हमारी सामग्री देखें या पूल वेबसाइट पर दिए गए निर्देशों का अध्ययन करें। आमतौर पर आरंभ करने के लिए हमेशा एक अनुभाग समर्पित होता है। इसमें उन प्रोग्रामों की सूची शामिल है जिनका उपयोग किया जा सकता है और जिनके लिए कॉन्फ़िगरेशन हैं ।बल्लाफ़ाइलें. इसकी मदद से, आप जल्दी से सेटअप का पता लगा सकते हैं और एक अलग वीडियो कार्ड पर खनन शुरू कर सकते हैं। आप उन सभी मुद्राओं के लिए तुरंत बैच फ़ाइलें बना सकते हैं जिनके साथ आप काम करना चाहते हैं, ताकि भविष्य में उनके बीच स्विच करना अधिक सुविधाजनक हो।

हम खनन शुरू करते हैं और आंकड़ों की निगरानी करते हैं

लॉन्च के बाद ।बल्लासेटिंग्स के साथ फ़ाइल करें, आपको एक कंसोल विंडो दिखाई देगी जहां क्या हो रहा है उसका एक लॉग प्रदर्शित किया जाएगा। इसे लॉन्च की गई फ़ाइल वाले फ़ोल्डर में भी पाया जा सकता है। कंसोल में आप कार्ड की वर्तमान हैशरेट और तापमान देख सकते हैं। हॉटकीज़ आमतौर पर आपको वर्तमान डेटा को कॉल करने की अनुमति देती हैं।

आप यह भी देख पाएंगे कि डिवाइस को हैश नहीं मिला है या नहीं। इस स्थिति में, एक चेतावनी प्रदर्शित की जाएगी. ऐसा तब होता है जब कुछ गलत तरीके से कॉन्फ़िगर किया जाता है, सिक्के के लिए गलत सॉफ़्टवेयर चुना जाता है, या GPU ठीक से काम नहीं करता है। कई खनिक भी धन का उपयोग करते हैं दूरदराज का उपयोगफ़ार्म के संचालन की निगरानी करने के लिए एक पीसी पर जब वे वहां स्थापित नहीं होते हैं।

हम क्रिप्टोकरेंसी निकालते हैं

यदि आप सुप्रनोवा जैसे पूल का उपयोग करते हैं, तो सभी धनराशि आपके खाते में जमा हो जाती है और आप उन्हें किसी भी समय निकाल सकते हैं। अन्य पूल अक्सर एक ऐसी प्रणाली का उपयोग करते हैं जहां न्यूनतम निकासी राशि प्राप्त करने के बाद धनराशि स्वचालित रूप से एक निर्दिष्ट वॉलेट में जमा हो जाती है। आप आमतौर पर पूल की वेबसाइट पर पता लगा सकते हैं कि आपने कितना कमाया है। आपको बस अपना वॉलेट पता बताना है या अपने व्यक्तिगत खाते में लॉग इन करना है।

आप कितना कमा सकते हैं?

आप जो राशि कमा सकते हैं वह बाजार की स्थिति और निश्चित रूप से, आपके फार्म की समग्र हैशरेट पर निर्भर करती है। यह भी महत्वपूर्ण है कि आप कौन सी रणनीति चुनते हैं. खनन की गई हर चीज़ को एक बार में बेचना आवश्यक नहीं है। उदाहरण के लिए, आप खनन किए गए सिक्के की कीमत बढ़ने और कई गुना अधिक लाभ प्राप्त करने की प्रतीक्षा कर सकते हैं। हालाँकि, सब कुछ इतना स्पष्ट और पूर्वानुमानित नहीं है इससे आगे का विकासघटनाएँ बिल्कुल अवास्तविक हैं।

वीडियो कार्ड का भुगतान

एक विशेष ऑनलाइन कैलकुलेटर आपको पेबैक की गणना करने में मदद करेगा। इंटरनेट पर उनमें से कई हैं, लेकिन हम एक उदाहरण के रूप में WhatToMine सेवा का उपयोग करके इस प्रक्रिया को देखेंगे। यह आपको अपने कृषि डेटा के आधार पर वर्तमान लाभ डेटा प्राप्त करने की अनुमति देता है। आपको बस अपने स्टॉक में मौजूद वीडियो कार्ड का चयन करना होगा और फिर अपने क्षेत्र में बिजली की लागत जोड़नी होगी। साइट गणना करेगी कि आप प्रति दिन कितना कमा सकते हैं।

यह समझा जाना चाहिए कि केवल बाजार की वर्तमान स्थिति को ही ध्यान में रखा जाता है और स्थिति किसी भी समय बदल सकती है। दर गिर सकती है या बढ़ सकती है, खनन की कठिनाई अलग हो जाएगी, या नई परियोजनाएँ सामने आएंगी। उदाहरण के लिए, नेटवर्क के संभावित संक्रमण के कारण ईथर का उत्पादन बंद हो सकता है। यदि एथेरियम खनन बंद हो जाता है, तो खेतों को अपनी मुफ्त बिजली को कहीं और निर्देशित करने की आवश्यकता होगी, उदाहरण के लिए, GPU पर ZCash खनन में, जो इस सिक्के की कीमत को प्रभावित करेगा। बाजार में कई समान परिदृश्य हैं और यह समझना महत्वपूर्ण है कि आज की तस्वीर उपकरण की संपूर्ण भुगतान अवधि के दौरान बरकरार नहीं रह सकती है।

एक डेवलपर को डिवाइस की ग्राफिक्स प्रोसेसिंग यूनिट (जीपीयू) का प्रभावी ढंग से उपयोग करना सीखना चाहिए ताकि एप्लिकेशन धीमा न हो या अनावश्यक कार्य न करे।

GPU रेंडरिंग सेटिंग्स कॉन्फ़िगर करें

यदि आपका एप्लिकेशन सुस्त है, तो इसका मतलब है कि स्क्रीन के कुछ या सभी रीफ्रेश फ़्रेमों को रीफ्रेश होने में 16 मिलीसेकंड से अधिक समय लग रहा है। स्क्रीन पर फ़्रेम अपडेट को दृश्य रूप से देखने के लिए, आप डिवाइस पर एक विशेष विकल्प (प्रोफ़ाइल जीपीयू रेंडरिंग) सक्षम कर सकते हैं।

आप तुरंत देख पाएंगे कि फ़्रेम रेंडर करने में कितना समय लगता है। मैं आपको याद दिला दूं कि आपको इसे 16 मिलीसेकंड के भीतर रखना होगा।

यह विकल्प एंड्रॉइड 4.1 से शुरू होने वाले उपकरणों पर उपलब्ध है। डिवाइस पर डेवलपर मोड सक्रिय होना चाहिए। संस्करण 4.2 और उच्चतर वाले उपकरणों पर, मोड डिफ़ॉल्ट रूप से छिपा हुआ है। सक्रिय करने के लिए पर जाएँ सेटिंग्स | फ़ोन के बारे मेंऔर लाइन पर सात बार क्लिक करें निर्माण संख्या.

सक्रियण के बाद, पर जाएँ डेवलपर विकल्पऔर बिंदु खोजें GPU रेंडरिंग सेटिंग्स कॉन्फ़िगर करें(प्रोफ़ाइल GPU रेंडरिंग) जिसे सक्षम किया जाना चाहिए। पॉप-अप विंडो में, विकल्प चुनें स्क्रीन पर कॉलम के रूप में(स्क्रीन पर बार के रूप में)। इस स्थिति में, ग्राफ़ चल रहे एप्लिकेशन के शीर्ष पर प्रदर्शित होगा।

आप न केवल अपने एप्लिकेशन का, बल्कि दूसरों का भी परीक्षण कर सकते हैं। कोई भी एप्लिकेशन लॉन्च करें और उसके साथ काम करना शुरू करें। जैसे ही आप काम करेंगे, आपको स्क्रीन के नीचे एक अद्यतन ग्राफ़ दिखाई देगा। क्षैतिज अक्षभूतकाल के लिए उत्तरदायी है। ऊर्ध्वाधर अक्ष प्रत्येक फ्रेम के लिए मिलीसेकंड में समय दिखाता है। एप्लिकेशन के साथ इंटरैक्ट करते समय, स्क्रीन पर लंबवत पट्टियाँ खींची जाती हैं, जो बाएं से दाएं दिखाई देती हैं, जो समय के साथ फ़्रेम प्रदर्शन दिखाती हैं। ऐसा प्रत्येक कॉलम स्क्रीन खींचने के लिए एक फ्रेम का प्रतिनिधित्व करता है। स्तंभ की ऊँचाई जितनी अधिक होगी, चित्र बनाने में उतना ही अधिक समय लगेगा। पतली हरी रेखा एक मार्गदर्शक है और प्रति फ्रेम 16 मिलीसेकंड से मेल खाती है। इस प्रकार, आपको यह सुनिश्चित करने का प्रयास करना होगा कि आपके आवेदन का अध्ययन करते समय ग्राफ़ इस रेखा से आगे न जाए।

आइए ग्राफ़ के एक बड़े संस्करण को देखें।

हरी रेखा 16 मिलीसेकंड के लिए जिम्मेदार है। 60 फ़्रेम प्रति सेकंड के भीतर रहने के लिए, प्रत्येक ग्राफ़ बार को इस रेखा के नीचे खींचा जाना चाहिए। किसी बिंदु पर, स्तंभ बहुत बड़ा होगा और हरी रेखा से बहुत ऊंचा होगा। इसका मतलब है कि प्रोग्राम धीमा हो रहा है. प्रत्येक स्तंभ में सियान, बैंगनी (लॉलीपॉप और ऊपर), लाल और नारंगी हैं।

नीला रंग निर्माण और अद्यतन करने में लगने वाले समय के लिए जिम्मेदार है देखना.

बैंगनी भाग थ्रेड के रेंडरिंग संसाधनों को स्थानांतरित करने में लगने वाले समय को दर्शाता है।

लाल रंग चित्र बनाने के समय का प्रतिनिधित्व करता है।

नारंगी रंग दर्शाता है कि सीपीयू को अपना काम पूरा करने के लिए जीपीयू की प्रतीक्षा करने में कितना समय लगा। यह बड़े मूल्यों पर समस्याओं का स्रोत है।

GPU पर लोड कम करने के लिए विशेष तकनीकें हैं।

डीबग जीपीयू ओवरड्रॉ संकेतक

एक अन्य सेटिंग आपको यह बताती है कि स्क्रीन का एक ही हिस्सा कितनी बार दोबारा बनाया जाता है (यानी, अतिरिक्त काम किया जाता है)। आइए फिर सेे चलें डेवलपर विकल्पऔर बिंदु खोजें डीबग जीपीयू ओवरड्रॉ संकेतक(डीबग जीपीयू ओवरड्रॉ) जिसे सक्षम किया जाना चाहिए। पॉप-अप विंडो में, विकल्प चुनें ओवरले जोन दिखाएँ(ओवरड्रा क्षेत्र दिखाएं)। डरो मत! स्क्रीन पर कुछ तत्व रंग बदल देंगे.

किसी भी एप्लिकेशन पर वापस जाएं और उसे काम करते हुए देखें। रंग आपके एप्लिकेशन में समस्या क्षेत्रों को इंगित करेगा।

यदि एप्लिकेशन में रंग नहीं बदला है, तो सब कुछ ठीक है। इसमें एक रंग के ऊपर दूसरे रंग की परत नहीं चढ़ती।

नीला रंग दर्शाता है कि नीचे की परत के ऊपर एक परत खींची जा रही है। अच्छा।

हरा रंग - दो बार पुनः खींचा गया। आपको अनुकूलन के बारे में सोचने की ज़रूरत है।

गुलाबी रंग - तीन बार पुनः खींचा गया। सब कुछ बहुत ख़राब है.

लाल रंग - कई बार पुनः खींचा गया। कुछ गलत हो गया।

समस्या वाले क्षेत्रों का पता लगाने के लिए आप स्वयं अपने आवेदन की जांच कर सकते हैं। एक गतिविधि बनाएं और उस पर एक घटक रखें व्याख्यान दर्शन. विशेषता में मूल तत्व और टेक्स्ट लेबल को कुछ पृष्ठभूमि दें एंड्रॉइड: पृष्ठभूमि. आपको निम्नलिखित मिलेगा: सबसे पहले, आपने गतिविधि की सबसे निचली परत को एक रंग से रंग दिया। फिर उसके ऊपर से एक नई परत खींची जाती है व्याख्यान दर्शन. वैसे, वास्तव में व्याख्यान दर्शनपाठ भी खींचा गया है.

कुछ बिंदुओं पर, अतिव्यापी रंगों से बचा नहीं जा सकता। लेकिन कल्पना करें कि आपने सूची के लिए पृष्ठभूमि भी उसी तरह सेट की है लिस्ट व्यू, जो संपूर्ण गतिविधि क्षेत्र पर कब्जा कर लेता है। सिस्टम दोहरा कार्य करेगा, हालाँकि उपयोगकर्ता कभी भी गतिविधि की निचली परत नहीं देख पाएगा। और यदि, इसके अलावा, आप सूची के प्रत्येक तत्व के लिए उसकी अपनी पृष्ठभूमि के साथ अपना स्वयं का मार्कअप बनाते हैं, तो आप आम तौर पर ओवरकिल हो जाएंगे।

एक छोटी सी सलाह. विधि के बाद रखें सेटकंटेंटव्यू()एक ऐसी विधि को कॉल करना जो स्क्रीन को थीम रंग से रंगने से हटा देगी। यह एक अतिरिक्त रंग ओवरले को हटाने में मदद करेगा:

GetWindow().setBackgroundDrawable(null);



मित्रों को बताओ