
-सुनील कुमार Sunil Kumar
ब्रिटिश सरकार आर्टिफिशियल इंटेलीजेंस पर आधारित एक ऐसा औजार बना रही है जो इस बात के संकेत देगा कि कौन लोग आगे जाकर कातिल बन सकते हैं। इसके लिए सरकार पांच लाख लोगों की जानकारी जुटा रही है जो कि कम से कम एक बार सजा पा चुके हैं। और इसके बाद सरकार उनके बारे में बहुत सी और जानकारी इस एआई प्रोग्राम में डालकर देखेगी कि किन लोगों के कातिल होने की अधिक आशंका है। प्रधानमंत्री के स्तर पर यह कार्यक्रम चल रहा है, और मानवाधिकार संगठन इसके खिलाफ तर्क दे रहे हैं कि इसमें ऐसे समूहों की जानकारी भी डाली गई है जो कभी मुजरिम नहीं रहे। और जो खुद मानसिक रूप से विचलित हैं, या कि जिन्होंने घरेलू प्रताडऩा झेली है, उन लोगों को भी इस प्रोग्राम में संदेह के घेरे में रखा गया है, और उसकी वजह से आर्टिफिशियल इंटेलीजेंस एक पूर्वाग्रह से काम कर सकता है।
कुछ लोगों ने इसकी तुलना 2002 में आई हॉलीवुड की एक फिल्म, माइनॉरिटी रिपोर्ट से की है जिसमें कुछ इसी किस्म की कहानी रहती है। एक विज्ञान-अपराधकथा पर बनी इस फिल्म में भविष्य के एक ऐसे समाज की कल्पना की गई थी जिसमें पुलिस की एक खास यूनिट आधुनिक तकनीकों का इस्तेमाल करके उन लोगों को पहले ही गिरफ्तार कर लेती है जो आगे जाकर कोई अपराध करने वाले हो सकते हैं और इस कहानी का समाज हिंसक अपराधों को होने के पहले ही रोक लेने के लिए ऐसी विशेष पुलिस की तारीफ भी करने लगता है। लेकिन जब इस यूनिट का मुखिया पुलिस अफसर अपने आपको भविष्य के एक ऐसे होने वाले कत्ल का आरोपी पाता है जो कि उसने किया भी नहीं है, तो वह अपने को बचाने के लिए मजबूरी में फरार होता है और अपनी बेगुनाही साबित करने के लिए जुर्म की भविष्यवाणी की इस प्रणाली की खामियां तलाशता है। जांच में उसे पता लगता है कि यह टेक्नॉलॉजी बिना चूक वाली नहीं है और इसकी भविष्यवाणियां हमेशा ही सही नहीं होती। और गहराई पर जाने पर वह पुलिस के इस खास संगठन के भीतर की एक साजिश तक पहुंच जाता है जिससे पता लगता है कि इसका इस्तेमाल करने वाले लोग इसमें छेडख़ानी करके इसके भविष्यवाणियों को प्रभावित करते हैं। इस जांच पड़ताल से यह अफसर एक बुनियादी सवाल तक पहुंचता है कि क्या भविष्यवाणियां करने वाली ऐसी प्रणाली पर भरोसा करके किसी ऐसे व्यक्ति को सजा दी जानी चाहिए जिसने कि अब तक जुर्म किया ही नहीं है, और जिसके बारे में यह आशंका भर मिलती है कि वह आगे चलकर कोई जुर्म कर सकता है?
कमोबेश इसी किस्म की बात ब्रिटेन के इस नए प्रयोग में दिख रही है जिसमें अभी तो सरकार ने यह कहा है कि वह अदालत में इस्तेमाल के लिए इस सिस्टम को विकसित नहीं कर रही है। सरकार का यह प्रोग्राम तीन बुनियादी मुद्दों को तय करने में लगा है कि क्या आंकड़ों और जानकारियों का विज्ञान भविष्य की हिंसक घटनाओं की भविष्यवाणी को बेहतर बना सकता है? क्या स्थानीय पुलिस जानकारियों का विश्लेषण करके भविष्य में होने वाले गंभीर हिंसक अपराधों की भविष्यवाणी को बेहतर कर सकती है? और तीसरी बात यह कि कैसे इन औजारों से संभावित मुजरिम को बेहतर समझा जा सकता है? इस बारे में जो खोजी रिपोर्ट ब्रिटिश मीडिया में आई है, उनके मुताबिक सरकार इस एआई औजार पर पांच लाख व्यक्तियों की जानकारी दे रही है जिसमें जुर्म के शिकार, गवाह, गुमशुदा लोग, संदिग्ध लोग, और ऐसे लोग जिन्हें कि समाज के लिए खतरा माना जा रहा है शामिल हैं। इसमें 2015 के पहले की भी जानकारियां डाली गई हैं, और इसमें लोगों की मानसिक सेहत, उनके नशे, विकलांगता, खुदकुशी का मिजाज जैसी बहुत सी जानकारियां शामिल हैं।
यह देखकर लग रहा है कि दुनिया की सरकारें लोगों पर काबू करने के लिए एक और हथियार पा चुकी हैं, और इस बार यह हथियार बंदूक, पिस्तौल न होकर एक ऐसा एआई टूल है जो कि सरकार को लोगों का विश्लेषण करने, और भविष्य की आशंका का अंदाज लगाने की ताकत देता है। एक बिल्कुल ही अलग किस्म की मिसाल देखें, तो आज हिन्दुस्तान के सबसे गरीब इलाकों में भी सरकार की योजना, और उसका इंतजाम ये हैं कि गर्भवती महिला की जचकी के पहले पांच बार उसकी सोनोग्राफी होनी चाहिए, ताकि उसकी कोख में पल रहे बच्चे में अगर कोई विकृति है तो समय रहते उसका पता लग सके। यह एक मामूली टेक्नॉलॉजी ने लोगों के सामने एक संभावना या आशंका खड़ी की है कि वे जन्म के काफी पहले ही किसी विकृति का पता लग जाने पर गर्भपात कर सकें। आज दुनिया के कई देशों में इस पर विचार चल रहा है कि पैदा होने वाले बच्चे सबसे अधिक सेहतमंद, काबिल, ताकतवर रहें, इसकी शिनाख्त कैसे-कैसे हो सकती है। डिजाइनर-बेबी पर बहुत सी बहस चल रही है कि क्या ऐसा करना नैतिकता के हिसाब से ठीक होगा? क्योंकि जब कभी महंगी मेडिकल टेक्नॉलॉजी से कोई जांच हो सकेगी, या कोई इलाज हो सकेगा, तो जाहिर है कि सबसे अधिक दौलतमंद, और ताकतवर लोग उसका इस्तेमाल कर सकेंगे और ऐसे तबके डिजाइनर बेबी की शक्ल में अधिक काबिल और सेहतमंद बच्चे पा सकेंगे। इससे समाज में गैरबराबरी की खाई और बढ़ती चलेगी। अब ब्रिटेन में चल रहे इस प्रयोग को देखें तो यह सरकार के हाथ लोगों के मुजरिम बनने की आशंका की शिनाख्त की एक ताकत दे रहा है, और जैसा कि एआई के बेजा इस्तेमाल से आज लोग फर्जी फोटो वीडियो बना रहे हैं, नकली आवाज में रिकॉर्डिंग कर रहे हैं या टेलीफोन कॉल कर रहे हैं, उसी तरह एआई के बेजा इस्तेमाल से हो सकता है कि सरकार की कोई एजेंसी किसी धर्म या जाति, राष्ट्रीयता या नस्ल, रंग या जेंडर को अधिक मुजरिम साबित करने की साजिश में जुट जाए। और जब यह तकनीक सरकार या बाजार के हाथ लगेगी, तो हो सकता है कि किसी को नौकरी देने, काम पर रखने के पहले सरकार या कंपनी, या निजी मालिक यह देख सकें कि संभावित कर्मचारी के आगे जाकर हिंसक-मुजरिम होने का खतरा कितना है? और फिर जब ऐसे लोगों को नौकरी नहीं मिलेगी, तो जाहिर है कि उनका जुर्म की तरफ जाने का खतरा बढ़ेगा ही बढ़ेगा।
आर्टिफिशियल इंटेलीजेंस जैसी तकनीक को इंसान के ऐसे गहरे विश्लेषण में जोडऩा बहुत ही खतरनाक है। आज भी इस पर बात चल ही रही है कि एआई किसी भी दिन इंसानी काबू से बाहर हो सकता है। वैसे में अगर वह तय करेगा कि किन लोगों के आगे जाकर हिंसक बनने का खतरा है, और वैसे लोगों को वह आज ही खत्म कर देने की तरकीब निकाल लेगा, तो वह कोई पाप होने के पहले उसकी सजा दे देने वाला ईश्वर ही हो जाएगा। यह बहुत खतरनाक नौबत है क्योंकि मानव जीवन का विकास कई किस्म के उतार चढ़ाव से होकर गुजरता है, और आज अगर किसी तरह से यह भविष्यवाणी सच और मुमकिन भी हो कि आगे जाकर कौन हिंसक मुजरिम हो सकते हैं, तो आने वाले बरस इन लोगों को ऐसा भी बदल सकते हैं कि ये कोई जुर्म न करें। इसलिए भविष्य में झांकने की यह कोशिश जब इंसानों की साख को खत्म करने की सरकारी या कारोबारी ताकत के साथ जोड़ी जा रही है, तो अभी उसके पूरे खतरों का अंदाज लगाना भी मुमकिन नहीं है।
(देवेन्द्र सुरजन की वॉल से साभार)