Sunday, March 8, 2026
IndiaTechnologyTrending

AI कंपनियों की ‘मनमानी’ पर लगाम! अमेरिका ने तैयार की बेहद सख्त गाइडलाइंस, Anthropic विवाद के बाद हड़कंप!..

AI कंपनियों की ‘मनमानी’ पर लगाम! अमेरिका ने तैयार की बेहद सख्त गाइडलाइंस, Anthropic विवाद के बाद हड़कंप!..
AI कंपनियों की ‘मनमानी’ पर लगाम! अमेरिका ने तैयार की बेहद सख्त गाइडलाइंस, Anthropic विवाद के बाद हड़कंप!..

US New AI Guidelines: आर्टिफिशियल इंटेलिजेंस (AI) की दुनिया में इन दिनों भूचाल आया हुआ है. जब से अमेरिकी सरकार और बड़ी AI कंपनी Anthropic के बीच तनातनी चल रही है, तब से यह विवाद लगातार तूल पकड़ता जा रहा है. अब इस विवाद में नया मोड़ आ गया है. AP की रिपोर्ट के अनुसार, अभी तक जो एआई कंपनियां खुले मैदान में दौड़ रही थीं, अब वहां सिक्योरिटी की दीवारें खड़ी की जा रही हैं. अमेरिका ने एआई मॉडल्स की सुरक्षा और उनके इस्तेमाल को लेकर नई और कड़ी गाइडलाइंस का ड्राफ्ट तैयार किया है. यह कदम ऐसे समय में आया है जब एआई स्टार्टअप एंथ्रोपिक (Anthropic) और Regulators के बीच सिक्योरिटी मानकों को लेकर टकराव की खबरें तेज हो गई हैं.

एआई कंपनियों के लिए तय होंगे साफ नियम
अब इसके बाद सरकार की योजना है कि जो भी टेक कंपनियां सरकारी एजेंसियों को एआई सर्विस देंगी, उन्हें कुछ तय शर्तों का पालन करना होगा. कंपनियों को यह साफ करना होगा कि उनका एआई सिस्टम कैसे काम करता है और उसे किन-किन कामों में इस्तेमाल किया जा सकता है. इसके साथ ही यह भी जरूरी होगा कि सरकार जरूरत पड़ने पर उस टेक्नोलॉजी का इस्तेमाल अपने तरीके से कर सके. कंपनियां उस पर अपनी अलग शर्तें नहीं लगा पाएंगी.

राजनीतिक या वैचारिक झुकाव से दूर हो AI
सरकार के नए नियमों में इस बात पर भी खास जोर दिया गया है कि AI सिस्टम किसी भी तरह के राजनीतिक या वैचारिक झुकाव से प्रभावित न हो. इसका मतलब अगर एआई किसी सवाल का जवाब दे रहा है या कोई जानकारी दे रहा है, तो उसमें किसी विचारधारा का असर नहीं होना चाहिए. इसके पीछे सरकार का तर्क है कि एआई टेक्नोलॉजी पूरी तरह निष्पक्ष रहे और उसका इस्तेमाल सही और जिम्मेदार तरीके से किया जाए.

टेक्नोलॉजी में बदलाव की जानकारी देना होगी
सरकार की योजना के अनुसार अब AI कंपनियों को यह भी बताना होगा कि उनके मॉडल में क्या-क्या बदलाव किए गए हैं. खास तौर पर अगर किसी दूसरे देश के नियमों के अनुसार तकनीक में बदलाव हुआ है, तो उसकी जानकारी भी देनी होगी. इसका मकसद यह है कि सरकारी एजेंसियों को हमेशा यह पता रहे कि जिस टेक्नोलॉजी का इस्तेमाल हो रहा है, वह किस तरह काम कर रही है.

विवाद के बाद तेज हुई तैयारी
बताया जा रहा है कि हाल के कुछ मामलों में एआई कंपनियों और सरकारी एजेंसियों के बीच मतभेद सामने आए थे. कुछ कंपनियों ने अपनी टेक्नोलॉजी के इस्तेमाल को लेकर सीमाएं तय करने की कोशिश की, जिससे बाद में विवाद खड़ा हो गया. इस विवाद की जड़ में एंथ्रोपिक की सिक्योरिटी पॉलिसी भी थी. कंपनी का कहना है कि वह अपने Claude एआई का इस्तेमाल ‘पूरी तरह से स्वायत्त हथियारों’ (Autonomous Weapons) और आम नागरिकों के सर्विलांस के लिए नहीं होने देगी. लेकिन पेंटागन को यह पसंद नहीं आया. ये खबर आप हिमाचल से में पढ़ रहे हैं। पेंटागन का तर्क है कि युद्ध के मैदान में कंपनी यह तय नहीं कर सकती कि सेना टेक्नोलॉजी का इस्तेमाल कैसे करेगी. इसी के बाद सरकार ने साफ संकेत दिए कि अगर कोई कंपनी सरकारी प्रोजेक्ट में काम करना चाहती है, तो उसे सरकार के नियमों का पालन करना होगा.

एंथ्रोपिक को बताया ‘खतरा’
इस पूरे विवाद के बाद से हालात इतने खराब हैं कि पेंटागन ने एंथ्रोपिक को ‘सप्लाई-चेन रिस्क’ घोषित कर दिया है. यह वही लेबल है जो आमतौर पर दुश्मन देशों की कंपनियों पर लगाया जाता है. राष्ट्रपति ट्रंप ने भी सभी सरकारी एजेंसियों को एंथ्रोपिक की टेक्नोलॉजी का इस्तेमाल तुरंत बंद करने का निर्देश दिया है.

क्या होगा असर?
एक्सपर्ट्स का कहना है कि यह कॉर्पोरेट मर्डर जैसा है. अगर यह नियम लागू होते हैं, तो एआई कंपनियों को या तो अपने सिद्धांतों से समझौता करना होगा या फिर सरकारी ठेकों से हाथ धोना होगा. एंथ्रोपिक ने इस फैसले को अदालत में चुनौती देने की बात कही है. दूसरी तरफ, OpenAI जैसी कंपनियों ने सरकार की कुछ शर्तों को मानकर इस रेस में बढ़त बना ली है.

me.sumitji@gmail.com

Leave a Reply