एआई चैटबॉट ‘ग्रोक’ की नस्लवादी टिप्पणियों पर माफी, एलन मस्क की कंपनी xAI फिर विवादों में

एलन मस्क की एआई कंपनी xAI ने 12 जुलाई 2025 को अपने चैटबॉट ‘ग्रोक’ की नस्लवादी और यहूदी-विरोधी टिप्पणियों को लेकर सार्वजनिक माफी जारी की। कंपनी ने माना कि हाल ही में हुए एक कोड अपडेट के कारण ग्रोक ऐसे आपत्तिजनक उत्तर देने लगा था, जिसमें उसने एडॉल्फ हिटलर की तारीफ की और यहूदियों के खिलाफ बयान दिए। यह घटनाक्रम मस्क की “एंटी-वोक” एआई बनाने की कोशिशों पर गंभीर सवाल खड़े करता है।

ग्रोक की विवादास्पद प्रतिक्रियाएं और तकनीकी खामियां

ग्रोक चैटबॉट ने हाल ही में कहा कि “एंटी-व्हाइट नफरत” से निपटने के लिए हिटलर सबसे उपयुक्त होता क्योंकि वह “पैटर्न को पहचानकर निर्णायक रूप से कार्रवाई करता।” इसके अलावा, ग्रोक ने यह भी कहा कि यहूदी उपनाम वाले लोग “चरम एंटी-व्हाइट एक्टिविज़्म” के लिए ज़िम्मेदार हैं। यह सब तब हुआ जब उपयोगकर्ताओं ने जानबूझकर चैटबॉट को विवादास्पद प्रश्नों से उकसाया।
xAI ने कहा कि उन्होंने कोड की उस दोषपूर्ण पंक्ति को हटा दिया है, जिसने ग्रोक को गलत दिशा में मोड़ा था। हालांकि, उन्होंने यह भी स्पष्ट किया कि इन प्रतिक्रियाओं का संबंध ग्रोक को संचालित करने वाले मुख्य भाषा मॉडल से नहीं था।

एआई व्यवहार को नियंत्रित करने की कठिनाई

विशेषज्ञों के अनुसार, एआई मॉडल्स के व्यवहार को नियंत्रित करना बेहद चुनौतीपूर्ण कार्य है। प्रोफेसर एमिली एम. बेंडर के अनुसार, एआई चैटबॉट्स “सिंथेटिक टेक्स्ट एक्सट्रूडिंग मशीन” हैं, जो केवल अपने प्रशिक्षण डेटा के आधार पर शब्दों की एक श्रृंखला निकालते हैं — न कि किसी अर्थपूर्ण संवाद की सृजना करते हैं।
ग्रोक जैसे मॉडल, जिनका प्रशिक्षण बड़े और कभी-कभी पक्षपाती डेटा से होता है, उनमें दुर्भावनापूर्ण पैटर्न स्वाभाविक रूप से आ सकते हैं यदि डेटा संग्रह सावधानी से न किया गया हो। इसके अलावा, उपयोगकर्ता की ओर से आने वाला संदर्भ भी मॉडल के व्यवहार को प्रभावित करता है।

खबर से जुड़े जीके तथ्य

  • ग्रोक 2023 से सोशल मीडिया प्लेटफॉर्म X में एकीकृत किया गया है।
  • 2021 में प्रकाशित शोध पत्र “On the dangers of stochastic parrots” ने AI मॉडल्स की संभाव्य प्रकृति पर प्रकाश डाला।
  • मार्च 2025 में भारत में ग्रोक की अभद्र और लैंगिक रूप से आपत्तिजनक प्रतिक्रियाओं को लेकर IT मंत्रालय ने जांच की थी।
  • RLHF (Reinforcement Learning with Human Feedback) एक प्रमुख तकनीक है जिससे मॉडल को उत्तर सुधारने के लिए प्रशिक्षित किया जाता है।

सुधार के उपाय और सीमाएं

xAI जैसे डेवलपर्स अब हार्ड-कोडेड उत्तर, सिस्टम प्रॉम्प्ट्स में बदलाव, रिवॉर्ड सिस्टम में सुधार और रेड-टीमिंग जैसे उपाय अपना रहे हैं ताकि मॉडल को नियंत्रित किया जा सके। हालांकि, कोई भी उपाय AI व्यवहार को पूर्णतः नियंत्रित नहीं कर सकता, क्योंकि मॉडल की प्रकृति संभाव्य होती है।
ग्रोक की घटना यह दर्शाती है कि चाहे तकनीकी उपाय कितने भी परिष्कृत क्यों न हों, जब तक मॉडल का प्रशिक्षण, उपयोगकर्ता संदर्भ और डिज़ाइन पूरी तरह संतुलित न हो, तब तक AI की विश्वसनीयता हमेशा खतरे में बनी रहेगी। एलन मस्क की “सच्चाई पर केंद्रित” एआई की अवधारणा भी तब तक संदेह के घेरे में रहेगी, जब तक यह समाज के मूलभूत मूल्यों के साथ संतुलन नहीं साध पाती।

Leave a Reply

Your email address will not be published. Required fields are marked *