Computer >> कंप्यूटर >  >> प्रोग्रामिंग >> प्रोग्रामिंग

डेटा परिवर्तन क्या है?

<घंटा/>

डेटा परिवर्तन में, डेटा को खनन के लिए उपयुक्त रूपों में रूपांतरित या संयोजित किया जाता है। डेटा परिवर्तन में निम्नलिखित शामिल हो सकते हैं -

चिकनाई - यह डेटा से शोर को दूर करने का काम कर सकता है। इस तरह के तरीकों में बिनिंग, रिग्रेशन और क्लस्टरिंग शामिल हैं।

एकत्रीकरण - एकत्रीकरण में, जहां डेटा पर सारांश या एकत्रीकरण संचालन लागू किया जाता है। उदाहरण के लिए, मासिक और वार्षिक कुल राशियों की गणना करने के लिए दैनिक बिक्री डेटा एकत्र किया जा सकता है। इस चरण का उपयोग आम तौर पर कई ग्रैन्युलैरिटी पर डेटा के विश्लेषण के लिए डेटा क्यूब बनाने में किया जाता है।

सामान्यीकरण - सामान्यीकरण में, जहां निम्न-स्तरीय या "आदिम" (कच्चा) डेटा को अवधारणा पदानुक्रमों के उपयोग के माध्यम से बड़े-स्तर की अवधारणाओं द्वारा पुनर्स्थापित किया जाता है। उदाहरण के लिए, स्पष्ट विशेषताओं, जैसे कि सड़क, को शहर या देश जैसे बड़े स्तर की अवधारणाओं के लिए सामान्यीकृत किया जा सकता है। इसी तरह, उम्र जैसी संख्यात्मक विशेषताओं के मूल्यों को युवा, मध्यम आयु वर्ग और वरिष्ठ जैसे बड़े स्तर की अवधारणाओं में मैप किया जा सकता है।

सामान्यीकरण - सामान्यीकरण में, जहां विशेषता डेटा को एक छोटी निर्दिष्ट सीमा, जैसे -1.0 से 1.0, या 0.0 से 1.0 के भीतर गिरने के लिए स्केल किया जाता है।

विशेषता निर्माण - विशेषता निर्माण में, जहां खनन प्रक्रिया को सुविधाजनक बनाने के लिए दिए गए विशेषताओं के सेट से नई विशेषताओं को विकसित और जोड़ा जाता है।

स्मूथिंग डेटा सफाई का एक रूप है और इसे डेटा सफाई प्रक्रिया में संबोधित किया गया था जहां उपयोगकर्ता डेटा विसंगतियों को ठीक करने के लिए परिवर्तन निर्दिष्ट करते हैं। एकत्रीकरण और सामान्यीकरण डेटा में कमी के रूपों के रूप में प्रदान करते हैं। एक विशेषता को उसके मानों को स्केल करके सामान्यीकृत किया जाता है ताकि वे 0.0 से 1.0 सहित एक छोटे से निर्दिष्ट क्रम में कम हो जाएं।

सामान्यीकरण विशेष रूप से तंत्रिका नेटवर्क वाले वर्गीकरण एल्गोरिदम, या निकटतम-पड़ोसी वर्गीकरण और क्लस्टरिंग जैसे दूरी माप के लिए सहायक होता है। यदि वर्गीकरण खनन के लिए तंत्रिका नेटवर्क बैकप्रोपेगेशन एल्गोरिदम का उपयोग करते हैं, तो प्रशिक्षण टुपल्स में मापी गई प्रत्येक विशेषता के लिए इनपुट मानों को सामान्य करने से सीखने के चरण को गति देने में मदद मिलेगी।

दूरी-आधारित विधियों के लिए, सामान्यीकरण शुरू में छोटी श्रेणियों (जैसे, बाइनरी विशेषताओं) के साथ शुरू में बड़ी श्रेणियों (जैसे, आय) के साथ विशेषताओं को रोकने में मदद करता है। डेटा सामान्यीकरण के लिए कई तरीके हैं जो इस प्रकार हैं -

न्यूनतम-अधिकतम सामान्यीकरण - यह मूल डेटा पर एक रैखिक परिवर्तन लागू करता है। मान लीजिए कि न्यूनतमA और अधिकतम<उप>ए किसी विशेषता के न्यूनतम और अधिकतम मान हैं, A. न्यूनतम-अधिकतम सामान्यीकरण A से v ' के मान, v को मैप करता है श्रेणी में [new_minA , new_maxA ] कंप्यूटिंग द्वारा

$$v'=\frac{v-min_{A}}{max_{A}-min_{A}}(new\_max_{A}- new\_min_{A})+new\_min_{A}$$

Z-स्कोर सामान्यीकरण - z-स्कोर सामान्यीकरण (या शून्य-माध्य सामान्यीकरण) में, एक विशेषता, A के मान, A के माध्य और मानक विचलन के आधार पर सामान्यीकृत होते हैं। A का एक मान, v, को v '<के लिए सामान्यीकृत किया जाता है। / समर्थन> कंप्यूटिंग द्वारा

$$v'=\frac{v-A^{'}}{\sigma_{A}}$$

जहाँ A और σA विशेषता ए के क्रमशः माध्य और मानक विचलन हैं। सामान्यीकरण की यह विधि तब उपयोगी होती है जब वास्तविक न्यूनतम और अधिकतम विशेषता ए अज्ञात होती है, या जब आउटलेयर होते हैं जो न्यूनतम-अधिकतम सामान्यीकरण पर हावी होते हैं।

दशमलव स्केलिंग - दशमलव स्केलिंग द्वारा सामान्यीकरण विशेषता ए के मूल्यों के दशमलव बिंदु को बदलकर सामान्यीकृत करता है। ए के अधिकतम पूर्ण मूल्य के आधार पर दशमलव बिंदुओं की संख्या को स्थानांतरित किया जाता है। ए के मान, वी, को v कंप्यूटिंग द्वारा

$$v'=\frac{v}{10^{j}}$$

जहाँ j सबसे छोटा पूर्णांक ऐसा है कि अधिकतम (|v |)<1.


  1. डेटा सेंटर क्या है?

    एक डेटा केंद्र, जिसे कभी-कभी डेटासेंटर . के रूप में लिखा जाता है (एक शब्द), एक ऐसी सुविधा को दिया गया नाम है जिसमें बड़ी संख्या में कंप्यूटर सर्वर और संबंधित उपकरण होते हैं। एक डेटा सेंटर को कंप्यूटर रूम के रूप में सोचें जो इसकी दीवारों को बढ़ा देता है। वे किसी भी तरह का डेटा स्टोर कर सकते हैं, चाह

  1. OLAP क्या है?

    OLAP,ऑन-लाइन विश्लेषणात्मक प्रसंस्करण के लिए खड़ा है। OLAP सॉफ्टवेयर तकनीक का एक तत्व है जो विश्लेषकों, प्रबंधकों और अधिकारियों को सूचना के संभावित विचारों की एक विस्तृत विविधता में तेज, सुसंगत, इंटरैक्टिव एक्सेस के माध्यम से डेटा में अंतर्दृष्टि प्राप्त करने के लिए अधिकृत करता है, जिसे वास्तविक आया

  1. STREAM क्या है?

    STREAM एक व्यक्तिगत-पास, निरंतर तत्व सन्निकटन एल्गोरिथ्म है जो k- माध्यिका समस्या के लिए तैयार किया गया था। k-माध्यमों की समस्या N डेटा बिंदुओं को k समूहों या समूहों में क्लस्टर करना है जैसे कि बिंदुओं और क्लस्टर केंद्र के बीच योग चुकता त्रुटि (SSQ) जिसे उन्हें सौंपा गया है, कम से कम है। विचार एक ही