नयी दिल्ली : निर्वाचन आयोग चुनाव प्रचार के लिए कंटेंट तैयार करने में आर्टिफिशियल इंटेलिजेंस (एआई) के दुरुपयोग पर रोक लगाने और बेहतर इस्तेमाल को बढ़ावा देने के लिए दिशा-निर्देश तैयार कर रहा है और इसकी झलक बिहार विधानसभा चुनाव में दिख सकती है।
दलों को एआई संबंधी कंटेंट के बारे में बताना होगा
सूत्रों ने बताया कि संभावित दिशा-निर्देश के तहत राजनीतिक दलों को मीडिया और सोशल मीडिया के लिए जनरेटिव एआई संबंधी कंटेंट के बारे में बताना होगा। प्रचार में एआई के इस्तेमाल के नियम और तरीके स्पष्ट किये जायेंगे। फेक और डीपफेक प्रचार वीडियो और ऑडियो के बारे में भी दिशा-निर्देश तैयार किये जा रहे हैं ताकि एआई कंटेंट का इस्तेमाल करके मतदाताओं को भ्रमित या उनकी पसंद को गलत तरीके से प्रभावित न किया जा सके। साथ ही यह यह करने की कोशिश की जायेगी कि मतदाताओं की निजता या चुनाव की निष्पक्षता पर आंच न आये।
लोकसभा चुनाव में 5 करोड़ से ज्यादा रोबोट कॉल हुईं
आयोग का यह कदम ‘ग्लोबल इलेक्शन ट्रैकिंग’ की एआई पर रिपोर्ट को देखते हुए अहम है। इससे पता चला है कि 2024 लोकसभा चुनाव में एआई का इस्तेमाल अमेरिकी चुनाव से 10 फीसदी और ब्रिटिश चुनाव से 30 फीसदी ज्यादा है। ‘फ्यूचर शिफ्ट लैब्स’ की इस रिपोर्ट में 74 देशों के चुनाव में एआई की ट्रैकिंग की गयी। भारत के चुनाव में इसका सबसे ज्यादा 80 फीसदी इस्तेमाल हुआ। एआई से 5 करोड़ से ज्यादा रोबोट कॉल की गयीं। उम्मीदवारों की आवाज में इन डीपफेक कॉल्स का कंटेंट जेनरेट किया गया। करीब 22 भाषाओं में डीपफेक से प्रचार सामग्री तैयार की गयी।
प्रचार में दिखे थे फेक वीडियो
गृहमंत्री अमित शाह का एक फेक वीडियो कई अकाउंट्स ने शेयर किया गया। यह वीडियो 27 अप्रैल, 2024 को सोशल मीडिया परवायरल हुआ। इसे तेलंगाना कांग्रेस और मुख्यमंत्री रेवंत रेड्डी ने शेयर किया था। इसमें वे एससी-एसटी और ओबीसी के आरक्षण को खत्म करने की बात करते सुनाई दे रहे थे। चुनाव के दौरान ही कांग्रेस नेता अधीर रंजन चौधरी का एक फेक वीडियो शेयर किया।गया जिसमें वे पश्चिम बंगाल के मुर्शिदाबाद की एक रैली में कहते सुनाई दिए कि तृणमूल को वोट देने की बजाय भाजपा को वोट देना अच्छा होगा। लोकसभा चुनाव से पहले अभिनेता आमिर खान डीपफेक वीडियो का शिकार हुए। इसमें वे एक पार्टी का समर्थन करते हुए दिखाई दे रहे थे। एआई की मदद से आमिर की आवाज में फेरबदल कर दिया गया।