Tensorflow एक मशीन लर्निंग फ्रेमवर्क है जो Google द्वारा प्रदान किया जाता है। यह एक ओपन-सोर्स फ्रेमवर्क है जिसका उपयोग एल्गोरिदम, गहन शिक्षण अनुप्रयोगों और बहुत कुछ को लागू करने के लिए पायथन के साथ संयोजन में किया जाता है। इसका उपयोग अनुसंधान और उत्पादन उद्देश्यों के लिए किया जाता है। इसमें अनुकूलन तकनीकें हैं जो जटिल गणितीय कार्यों को शीघ्रता से करने में मदद करती हैं। ऐसा इसलिए है क्योंकि यह NumPy और बहुआयामी सरणियों का उपयोग करता है। इन बहुआयामी सरणियों को 'टेंसर' के रूप में भी जाना जाता है।
ढांचा गहरे तंत्रिका नेटवर्क के साथ काम करने का समर्थन करता है। यह अत्यधिक स्केलेबल है, और कई लोकप्रिय डेटासेट के साथ आता है। यह GPU संगणना का उपयोग करता है और संसाधनों के प्रबंधन को स्वचालित करता है। यह मशीन लर्निंग लाइब्रेरी की भीड़ के साथ आता है, और अच्छी तरह से समर्थित और प्रलेखित है। ढांचे में गहरे तंत्रिका नेटवर्क मॉडल चलाने, उन्हें प्रशिक्षित करने और संबंधित डेटासेट की प्रासंगिक विशेषताओं की भविष्यवाणी करने वाले एप्लिकेशन बनाने की क्षमता है।
कोड की निम्न पंक्ति का उपयोग करके विंडोज़ पर 'टेंसरफ़्लो' पैकेज स्थापित किया जा सकता है -
pip install tensorflow
Tensor एक डेटा संरचना है जिसका उपयोग TensorFlow में किया जाता है। यह प्रवाह आरेख में किनारों को जोड़ने में मदद करता है। इस प्रवाह आरेख को 'डेटा प्रवाह ग्राफ' के रूप में जाना जाता है। टेंसर और कुछ नहीं बल्कि एक बहुआयामी सरणी या एक सूची है।
निम्नलिखित एक उदाहरण है -
उदाहरण
def linear_reg(x): return A * x + b def mean_square_error(y_pred, y_true): return tf.reduce_mean(tf.square(y_pred - y_true)) optimizer = tf.optimizers.SGD(learning_rate) def run_optimization(): with tf.GradientTape() as g: pred = linear_reg(X) loss = mean_square_error(pred, Y) gradients = g.gradient(loss, [A, b]) optimizer.apply_gradients(zip(gradients, [A, b]))
कोड क्रेडिट - https://github.com/aymericdamien/TensorFlow-Examples/blob/master/tensorflow_v2/notebooks/2_BasicModels/linear_regression.ipynb
आउटपुट
A linear regression function that is defined, is called on the data. Once the optimal data points have been computed, the mean square error function is calculated. The radient descent function is used to find the optimal weights. These values are displayed on the console.
स्पष्टीकरण
-
'वजन' और 'पूर्वाग्रह' मान बेतरतीब ढंग से आरंभ किए जाते हैं। प्रशिक्षण पूरा होने के बाद उन्हें इष्टतम मूल्यों पर अपडेट किया जाएगा।
-
एक रेखीय समीकरण के लिए सामान्य प्रारूप 'Ax + b' है जहाँ 'A' 'भार' है और 'b' 'पूर्वाग्रह' मान है।
-
माध्य वर्ग त्रुटि की गणना करने का कार्य परिभाषित किया गया है।
-
स्टोकेस्टिक ग्रेडिएंट डिसेंट ऑप्टिमाइज़र को भी परिभाषित किया गया है।
-
ऑप्टिमाइज़ेशन के लिए एक फ़ंक्शन परिभाषित किया गया है, जो ग्रेडिएंट की गणना करता है और वज़न और पूर्वाग्रह के मान को अपडेट करता है।
-
डेटा को निर्दिष्ट चरणों के लिए प्रशिक्षित किया जाता है।