उदाहरण:क्रॉलर का विवरण प्राप्त करें, crawler_for_s3_file_ नौकरी।
इस समस्या को हल करने के लिए दृष्टिकोण/एल्गोरिदम
चरण 1 - अपवादों को संभालने के लिए boto3 और botocore अपवाद आयात करें।
चरण 2 - क्रॉलर_नाम अनिवार्य पैरामीटर है। यह एक सूची है ताकि उपयोगकर्ता विवरण प्राप्त करने के लिए एक बार में एकाधिक क्रॉलर नाम भेज सकें।
चरण 3 - boto3 लाइब्रेरी का उपयोग करके AWS सत्र बनाएं। सुनिश्चित करें कि क्षेत्र_नाम डिफ़ॉल्ट प्रोफ़ाइल में उल्लेख किया गया है। यदि इसका उल्लेख नहीं है, तो स्पष्ट रूप से region_name . पास करें सत्र बनाते समय।
चरण 4 - गोंद के लिए AWS क्लाइंट बनाएं।
चरण 5 − अब बैच_गेट_क्रॉलर का उपयोग करें कार्य करें और क्रॉलर_नाम . पास करें ।
चरण 6 - यह क्रॉलर का मेटाडेटा लौटाता है।
चरण 7 - कार्य की जाँच करते समय कुछ गलत होने पर सामान्य अपवाद को संभालें।
उदाहरण
क्रॉलर का विवरण प्राप्त करने के लिए निम्न कोड का उपयोग करें -
import boto3 from botocore.exceptions import ClientError def get_crawler_details(crawler_names:list) session = boto3.session.Session() glue_client = session.client('glue') try: crawler_details = glue_client.batch_get_crawlers(CrawlerNames= crawler_names) return crawler_details except ClientError as e: raise Exception( "boto3 client error in get_crawler_details: " + e.__str__()) except Exception as e: raise Exception( "Unexpected error in get_crawler_details: " + e.__str__()) print(get_crawler_details("[crawler_for_s3_file_job]"))