इस लेख में व्यक्त की गई राय लेखक की है और किसी भी तरह से यूरोन्यूज़ की संपादकीय स्थिति का प्रतिनिधित्व नहीं करती है।
चूँकि ChatGPT नवंबर 2022 में सामने आया था, कई लोगों ने सोचा है कि यह जीवन, नौकरियों और शिक्षा को कैसे बदल सकता है क्योंकि हम इसे बेहतर या बदतर के लिए जानते हैं।
डिजिटल तकनीक से उपभोक्ताओं को मिलने वाले लाभों से हम सहित कई लोग उत्साहित हैं।
हालांकि, डिजिटल उत्पादों और सेवाओं का परीक्षण करने, डिजिटल नीति को आकार देने और आईओटी, एआई, डेटा और प्लेटफॉर्म पर उपभोक्ताओं के दृष्टिकोण में गोता लगाने में हमारे अनुभव का मतलब है कि सभी विशेषज्ञों की आंखें विघटनकारी डिजिटलीकरण की चुनौतियों के लिए भी खुली हैं।
आखिरकार, उपभोक्ताओं को अपनी इच्छानुसार सर्वोत्तम तकनीक का उपयोग करने में सक्षम होना चाहिए और सुरक्षा और भरोसे से समझौता नहीं करना चाहिए।
उपभोक्ताओं के लिए इसमें क्या है?
लिखित सामग्री तैयार करने, मेडिकल छात्रों के लिए प्रशिक्षण सामग्री बनाने या कोड लिखने और डिबगिंग करने सहित चैटजीपीटी जैसी नई, जनरेटिव तकनीकों में काफी सकारात्मक संभावनाएं हैं।
हमने पहले ही देखा है कि लोग ChatGPT के साथ उपभोक्ता कार्यों में नवीनता लाते हैं — उदाहरण के लिए, एक सफल पार्किंग फाइन अपील लिखने के लिए इसका उपयोग करना।
और जब पूछा गया, ChatGPT के अपने विचार थे कि यह उपभोक्ताओं के लिए क्या कर सकता है।
“मैं विभिन्न उत्पादों की कीमतों और विशिष्टताओं की तुलना करने में मदद कर सकता हूं, उत्पाद रखरखाव और वारंटी के बारे में सवालों का जवाब दे सकता हूं और वापसी और विनिमय नीतियों के बारे में जानकारी प्रदान कर सकता हूं…। मैं उपभोक्ताओं को तकनीकी शर्तों और उत्पाद विनिर्देशों को समझने में भी मदद कर सकता हूं, जिससे उनके लिए सूचित निर्णय लेना आसान हो जाता है,” जब हमने सवाल पूछा तो उसने हमें बताया।
इसे देखते हुए, यह आपको आश्चर्यचकित कर सकता है कि क्या मशीन से इस स्तर की सेवा हमारे सहित सभी क्षेत्रों के विशेषज्ञों को अप्रचलित कर सकती है।
हालाँकि, चैटजीपीटी और इसी तरह की तकनीकों के रोलआउट ने दिखाया है कि इसमें अभी भी सटीकता की समस्या है जो बदले में, इसके उपयोगकर्ताओं के लिए एक समस्या है।
सत्य की खोज
आइए चैटजीपीटी जैसे बड़े भाषा मॉडल में सटीकता और सच्चाई की चुनौती को देखते हुए शुरुआत करें।
चैटजीपीटी ने माइक्रोसॉफ्ट के बिंग सर्च इंजन में प्रौद्योगिकी के रोलआउट के माध्यम से इंटरनेट खोज को बाधित करना शुरू कर दिया है।
चैटजीपीटी-सक्षम खोज के साथ, परिणाम लिंक की सूची के रूप में नहीं बल्कि संवादात्मक शैली में प्रस्तुत लिंक के भीतर जानकारी के एक साफ सारांश के रूप में दिखाई देते हैं।
अधिक प्रश्नों के माध्यम से उत्तरों को परिष्कृत किया जा सकता है, जैसे कि आप किसी मित्र या सलाहकार से बात कर रहे हों।
यह अनुरोध के लिए वास्तव में सहायक हो सकता है जैसे “क्या आप मुझे सबसे हल्का तम्बू दिखा सकते हैं जो 20 लीटर बाइक पैनियर में फिट होगा”।
इस तरह के परिणामों को सत्यापित करना आसान होगा, और शायद अधिक महत्वपूर्ण रूप से, यदि वे गलत निकले, तो वे किसी व्यक्ति के लिए एक बड़ा जोखिम पैदा नहीं करेंगे।
हालांकि, यह एक अलग कहानी है जब “गलत” या “गलत” जानकारी में नुकसान का भौतिक जोखिम होता है – उदाहरण के लिए, स्वास्थ्य या वित्तीय सलाह या जानबूझकर गलत सूचना जो व्यापक सामाजिक समस्याओं का कारण बन सकती है।
यह कायल है, लेकिन क्या यह विश्वसनीय है?
समस्या यह है कि चैटजीपीटी जैसी प्रौद्योगिकियां विश्वसनीय उत्तर लिखने में बहुत अच्छी हैं।
लेकिन OpenAI ने स्पष्ट कर दिया है कि ChatGPT को ऐसा टेक्स्ट लिखने के लिए डिज़ाइन नहीं किया गया है जो सच हो।
इसे अगले शब्द की भविष्यवाणी करने और ऐसे उत्तर बनाने के लिए प्रशिक्षित किया जाता है जो अत्यधिक प्रशंसनीय लगते हैं – जिसका अर्थ है कि एक भ्रामक या असत्य उत्तर एक विश्वसनीय, सत्य के रूप में आश्वस्त करने वाला लग सकता है।
चैटजीपीटी जैसे उपकरणों के माध्यम से विश्वास दिलाने योग्य, विश्वसनीय असत्य की त्वरित डिलीवरी उपयोगकर्ताओं के हाथों में एक महत्वपूर्ण समस्या बन जाती है जिसका एकमात्र उद्देश्य गुमराह करना, धोखा देना और धोखाधड़ी करना है।
चैटजीपीटी जैसे बड़े भाषा मॉडल को विभिन्न स्वरों और शैलियों को सीखने के लिए प्रशिक्षित किया जा सकता है, जो उन्हें शोषण के लिए परिपक्व बनाता है।
विश्वास दिलाने वाले फ़िशिंग ईमेल अचानक से बनाने में बहुत आसान हो जाते हैं, और प्रेरक लेकिन भ्रामक विज़ुअल बनाने में तेज़ होते हैं।
घोटाले और धोखाधड़ी पहले से अधिक परिष्कृत हो सकते हैं और गलत सूचनाओं में अंतर करना और भी कठिन हो सकता है। दोनों हमारे द्वारा बनाए गए बचावों के प्रति प्रतिरक्षित हो सकते हैं।
हमें यह सीखने की जरूरत है कि चैटजीपीटी का सर्वश्रेष्ठ कैसे प्राप्त किया जाए
यहां तक कि चैटजीपीटी के सिर्फ एक पहलू पर ध्यान केंद्रित करते हुए, हममें से जो यूरोप और दुनिया भर में उपभोक्ताओं की सुरक्षा में शामिल हैं, उन्होंने विभिन्न परिणामों की कई परतों की जांच की है जो इस उन्नत तकनीक के उपयोगकर्ताओं के हाथों में पहुंचने के बाद पैदा हो सकती हैं।
हमारे क्षेत्र के लोग वास्तव में पहले से ही व्यवसायों, डिजिटल अधिकार समूहों और अनुसंधान केंद्रों के साथ मिलकर काम कर रहे हैं ताकि ऐसी विघटनकारी तकनीक की जटिलताओं को सुलझाया जा सके।
OpenAI ने प्रौद्योगिकी के उपयोग के लिए सुरक्षा उपाय किए हैं, लेकिन समान उत्पादों के अन्य रोलआउट नहीं हो सकते हैं।
यह सुनिश्चित करने के लिए मजबूत, भविष्य-केंद्रित शासन और नियमों की आवश्यकता है कि उपभोक्ता विश्वास के साथ प्रौद्योगिकी का अधिकतम लाभ उठा सकें।
जैसा कि एआई अधिनियम विकसित होता है, विधायी ढांचे में गोपनीयता, सुरक्षा और निष्पक्षता के लिए उपभोक्ता अधिकारों को सुरक्षित करने के लिए यूरोकंस्यूमर्स संगठन बीईयूसी के साथ मिलकर काम कर रहे हैं।
भविष्य में, हम एआई सिस्टम के कारण होने वाले गलत कामों के लिए उपभोक्ताओं का अदालत में बचाव करने के लिए तैयार रहेंगे।
सच्चे नवाचार के मूल में अभी भी मानवीय हित हैं
हालाँकि, आशावाद के साथ चैटजीपीटी जैसे भविष्य के उपकरणों को देखने के बहुत सारे कारण हैं।
हमारा मानना है कि नवाचार उपभोक्ताओं के लिए बेहतर काम करने वाले बाजारों को आकार देकर सामाजिक और आर्थिक विकास का लीवर हो सकता है।
हालाँकि, सच्चे नवाचार को सभी के इनपुट की आवश्यकता होती है और यह तभी होता है जब अधिक से अधिक लोगों के जीवन में ठोस लाभ महसूस किए जाते हैं।
लेकिन हम केवल शुरुआत में हैं जो इन इंटरैक्टिव, जनरेटिव प्रौद्योगिकियों के साथ एक दिलचस्प अनुभव बन रहा है।
यह एक निश्चित अंतिम शब्द के लिए बहुत जल्दी हो सकता है, लेकिन एक बात पूरी तरह से निश्चित है: भले ही – और शायद चैटजीपीटी के कारण भी – अभी भी वास्तविक मनुष्यों द्वारा उपभोक्ता संरक्षण की बहुत आवश्यकता होगी।
मार्को पिएरानी पब्लिक अफेयर्स और मीडिया रिलेशंस के निदेशक हैं, और एल्स ब्रुगमैन बेल्जियम, इटली, ब्राजील, स्पेन और पुर्तगाल में पांच उपभोक्ता संगठनों के एक समूह, यूरोकॉन्स्यूमर्स में एडवोकेसी और प्रवर्तन के प्रमुख के रूप में कार्य करते हैं।
यूरोन्यूज़ में, हम मानते हैं कि सभी विचार मायने रखते हैं। पिच या प्रस्तुतियाँ भेजने और बातचीत का हिस्सा बनने के लिए [email protected] पर हमसे संपर्क करें।