செயற்கை நுண்ணறிவு மூலம் போலி செய்திகளை பரப்பி இந்திய தேர்தலை சீர்குலைக்க சீனா சதி: மைக்ரோசாஃப்ட் எச்சரிக்கை

By செய்திப்பிரிவு

புதுடெல்லி: இந்திய மக்களவை தேர்தலை சீர்குலைக்க செயற்கை நுண்ணறிவு (ஏஐ) தொழில்நுட்பத்தை பயன்படுத்தி சீனா சதி செய்யும் என்று மைக்ரோசாஃப்ட் நிறுவனம் எச்சரித்துள்ளது.

இந்தியாவில் 17-வது மக்களவையின் பதவிக் காலம் ஜூன் 16-ம்தேதி முடிவடைகிறது இதையொட்டி, வரும் 19-ம் தேதிதொடங்கி ஜூன் 1-ம் தேதி வரை7 கட்டங்களாக மக்களவை பொதுத்தேர்தல் நடைபெறுகிறது. வாக்குஎண்ணிக்கை ஜூன் 4-ம் தேதிநடக்க உள்ளது.

இந்நிலையில், இந்தியா உட்படபல்வேறு நாடுகளின் தேர்தல்களை சீர்குலைக்க சீனா சதி திட்டம் தீட்டி செயல்படுத்தி வருவதாக மைக்ரோசாஃப்ட் நிறுவனம் எச்சரித்துள்ளது.

மைக்ரோசாஃப்ட் நிறுவனர் பில் கேட்ஸ் கடந்த மாதம் பிரதமர்மோடியை டெல்லியில் சந்தித்து ஆலோசனை நடத்தினார். அப்போது, சமூக நலன், பெண்கள் தலைமையில் நாட்டின் வளர்ச்சி, சுகாதாரம், வேளாண்மை ஆகிய துறைகளில் புதுமைகளை புகுத்துவது உட்பட பல்வேறு வழிகளில் செயற்கை நுண்ணறிவு தொழில்நுட்பத்தை (ஏஐ) பயன்படுத்துவதற்கான சாத்தியக் கூறுகள் குறித்து இருவரும் ஆலோசனை நடத்தினர்.

இந்நிலையில், ஏஐ தொழில்நுட்பத்தை பயன்படுத்தி மற்ற நாடுகளின் தேர்தலை சீர்குலைக்க சீனா சதி செய்து வருவதாக மைக்ரோசாஃப்ட் நிறுவனம் எச்சரித்துள்ளது.

இதுகுறித்து மைக்ரோசாஃப்ட் நிறுவனத்தின் ‘அச்சுறுத்தல் நுண்ணறிவு ஆய்வுக் குழு’ தெரிவித்துள்ளதாவது: உலகம் முழுவதும் சுமார் 64 நாடுகளில் தேர்தல் நடைபெற உள்ளது. இந்த நாடுகளில் உலக மக்கள்தொகையில் 49 சதவீதம் பேர் உள்ளனர். இந்த ஆண்டு இந்தியா, அமெரிக்கா, தென் கொரியா ஆகிய நாடுகளில் பொதுத் தேர்தல் நடைபெறுகிறது. இந்த தேர்தல்களில் தங்களுக்கு சாதகமாக முடிவுகளை மாற்றுவதற்கு சீனா தற்போது ஏஐ தொழில்நுட்பத்தை பயன்படுத்தி வருகிறது. அதன்மூலம், சமூகவலைதளங்களில் தவறான, பொய்யான, நடக்காத சம்பவங்களை நடந்துபோல பரப்புவதற்கு ஏஐ தொழில்நுட்பத்தை பயன்படுத்தி வருகிறது. இதற்காக சீன அரசின்ஆதரவுடன் பல்வேறு சைபர்மோசடி குழுக்கள் களமிறக்கப்பட்டுள்ளன.

தற்போதைக்கு ஏஐ தொழில்நுட்பம் மூலம் தேர்தலில் மிகப்பெரிய அளவில் தாக்கத்தை ஏற்படுத்த முடியாது. எனினும், ஏஐ தொழில்நுட்பத்தை சீனா தொடர்ந்து சோதனை செய்து வருகிறது. தங்களுக்கு சாதகமாக பயன்படுத்திக் கொள்வதற்காக இந்த தொழில்நுட்பத்தை சீனா தொடர்ந்து மேம்படுத்தும். வரும்காலங்களில் இந்த தொழில்நுட்பத்தை சீனா மிக தீவிரமாகவும், அதிகமாகவும் பயன்படுத்தும் அபாயம் உள்ளது.

தைவான் அதிபர் தேர்தலின்போது, ‘ஸ்டார்ம் 1376’ என்ற பெயரில் சீன அரசின் ஆதரவு பெற்ற சைபர் மோசடி கும்பல் களமிறக்கப்பட்டது. இந்த கும்பல் தைவான் அதிபர் தேர்தலில் தங்களுக்கு பிடிக்காதவர்களுக்கு எதிராக பல்வேறு பொய் செய்திகளை பரப்பிவிட்டது.

ஈரானும் ஏஐ தொழில்நுட்பம் மூலம் மக்களை திசைதிருப்ப முயன்றதாக தகவல் உள்ளது. அந்த நாட்டு தொலைக்காட்சி செய்தியாளர்களின் டீப் ஃபேக் வீடியோக்களை கொண்டு மக்களின் மனநிலையை மாற்ற முயற்சி நடந்துள்ளது.

அமெரிக்க அதிபர் தேர்தலில் ஏஐ தொழில்நுட்பத்தை பயன்படுத்தி பொய்யான தகவல்களை பரப்புவது புதிதல்ல. நடைபெற உள்ள அதிபர் தேர்தல் தொடர்பாக தற்போதைய அதிபர் ஜோ பைடன் பேசுவது போன்ற ஒரு போலி ஆடியோ வெளியாகி, பரபரப்பை ஏற்படுத்தியது.

இந்த விஷயத்தில், சீனாவின் தொடர்பு குறித்து ஆதாரங்கள் இல்லை என்றாலும், தேர்தலில் ஏஐ தொழில்நுட்பத்தின் தாக்கம் தெரியவந்தது.

எதிர்வரும் காலங்களில் தேர்தலை சந்திக்கும் இந்தியா, அமெரிக்கா, தென் கொரியா உள்ளிட்ட நாடுகள் மிகவும் எச்சரிக்கையாக இருக்க வேண்டும்.

இவ்வாறு மைக்ரோசாஃப்ட் நிறுவனத்தின் அச்சறுத்தல் நுண்ணறிவு குழுவினர் தெரிவித்துள்ளனர்.

வாக்காளர்களின் எண்ணத்தை மாற்ற முயற்சி: வெளிநாட்டு தேர்தலை ஏஐ தொழில்நுட்பம் மூலம் சீர்குலைப்பதற்கான சோதனை முயற்சியை தைவான் அதிபர் தேர்தலில் சீனா ஏற்கெனவே பயன்படுத்தி உள்ளது. தற்போது வட கொரியாவுடன் சேர்ந்து ஏஐ தொழில்நுட்பம் மூலம் மீம்ஸ்கள், முக்கிய தலைவர்கள் பேசுவது போன்ற போலியான ஆடியோக்கள், வீடியோக்கள், ‘டீப் ஃபேக்’ வீடியோக்கள் போன்றவற்றை உருவாக்கி வாக்காளர்களின் எண்ணத்தை மாற்ற முயற்சிகள் நடைபெறுகின்றன. இதன்மூலம் வாக்காளர்களின் மனதை மாற்றி தேர்தல் முடிவுகளை மாற்றிவிட முயற்சிகள் நடக்கின்றன.

ஏஐ தொழில்நுட்பம் மூலம் போலி அரசியல் விளம்பரங்கள் வெளியிடுவது, அதன்மூலம் வேட்பாளர்களின் கருத்துகளுக்கு எதிராக பொய் தகவல் பரப்புவது போன்ற செயல்கள் அதிகம் நடைபெற வாய்ப்பு உள்ளது. இவை உண்மையா, பொய்யா என்பதை எளிதில் கண்டறிய முடியாத நிலை உள்ளது. எனவே, இந்த அபாயத்தை தடுக்க உடனடியாக நடவடிக்கை எடுக்க வேண்டும். இல்லாவிட்டால் ஏஐ தொழில்நுட்பம் மூலம் பரவும் பொய் செய்திகள், வீடியோக்கள் தேர்தலை பாதிக்கும் அபாயம் உள்ளது என்று மைக்ரோசாஃப்ட் குழு தெரிவித்துள்ளது.

VIEW COMMENTS
SCROLL FOR NEXT ARTICLE