‘ஏ.ஐ.’ யுக அபாயங்களை எப்படித் தவிர்ப்பது?

By வினோத் ஆறுமுகம்

அமெரிக்க முன்னாள் அதிபர் டொனால்டு ட்ரம்ப், ஆபாசப் பட நடிகைக்குப் பணம் கொடுத்ததாக அவர்மீது தொடரப்பட்ட வழக்கு கடந்த மாதம் உலகையே உலுக்கியது. அவர் எந்நேரமும் கைது செய்யப்படலாம் எனும் சூழலில், திடீரென அவர் கைது செய்யப்பட்டு போலீஸாரால் இழுத்துச்செல்லப்படுவது போன்ற ஒளிப்படங்கள் சமூக வலைதளங்களில் வெளியாகின. பிரபலமான ஊடகங்கள்கூட அந்தப் ஒளிப்படங்களைப் பார்த்து சற்றே தடுமாறின. பின்னர்தான் அவை செயற்கை நுண்ணறிவு (Artificial Intelligence - AI) கொண்டு உருவாக்கப்பட்ட போலிப் படங்கள் எனத் தெரியவந்தது.

செயற்கை நுண்ணறிவு மென்பொருளை விமர்சிக்கும் நிபுணர்கள் மத்தியில், இது பெரும் விவாதத்தை உருவாக்கியது. டீப்ஃபேக்ஸ் (DeepFakes), ஜெனரேட்டிவ் ஏஐ (Generative AI) தொழில்நுட்பங்களால் வருங்காலத்தில் ஜனநாயகத்துக்கு ஏற்படப்போகும் ஆபத்துகளை விவாதிக்க வேண்டும் என அவர்கள் வாதிட்டனர். நவீன ஜிபிடி4 (OpenAI‘s GPT-4) ஆய்வுகளைத் தற்காலிகமாக நிறுத்திவைக்க வேண்டும் என்றும் வலியுறுத்தினர்.

சமூகத்திலும் அரசியல் களத்திலும் பெரும் குழப்பங்களை உருவாக்கும் வகையில் ஏற்கெனவே பொய்ச் செய்திகள் பரப்பப்படுகின்றன. இந்நிலையில், மேம்பட்ட செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தின் மூலம், எளிதில் கண்டறிய முடியாத வகையில் துல்லியமாகப் பொய்ச் செய்திகளைப் பரப்ப முடியும் எனும் சூழல் தற்போது உருவாகியிருக்கிறது. இது ஜனநாயக அமைப்பில் பாரதூரமான பாதிப்புகளை ஏற்படுத்தக்கூடியது.

செயற்கை நுண்ணறிவின் ஆபத்துகள்: மனிதர்களைப் போலவே சிந்திக்கும் கணினிகளை உருவாக்க வேண்டும் என்கிற நோக்கத்துடன் தொடங்கப்பட்ட செயற்கை நுண்ணறிவுத் தொழில்நுட்ப ஆய்வுகள் இன்றைக்குப் பெரும் பாய்ச்சலைக் கண்டிருக்கின்றன.

எனினும், மனிதர்களைப் போல தர்க்க – நியாயங்களுடன் விரிவாகச் சிந்திக்கும் மென்பொருள்கள் இன்னமும் சாத்தியப்படவில்லை. உள்ளீடாக (inputs) மனிதர்கள் வழங்கும் தரவுகளின் அடிப்படையில்தான் செயற்கை நுண்ணறிவுத் தொழில்நுட்பங்கள் செயல்படுகின்றன.

இன்றைய செயற்கை நுண்ணறிவுத் தொழில்நுட்பங்களின் உப தொழில்நுட்பங்களான ‘மெஷின் லேர்னிங்’ (Machine Learning), ‘டீப் லேர்னிங்’ (Deep Learning) போன்றவை புள்ளியியல் அடிப்படையில் மட்டுமே இயங்கக்கூடியவை. கற்றலுக்காகக் கொடுக்கப்படும் தரவுகளில் எது அதிகமாகத் திரும்பத் திரும்ப வருகிறதோ அதையே உண்மை என நம்பி கற்றுக்கொள்பவை.

அந்தத் தரவின் அடிப்படையில்தான் அவை இயங்கும், பதில் கொடுக்கும். உதாரணமாக, மைக்ரோசாஃப்ட் நிறுவனம் சோதனைக்காக ‘டே’ (Tay) எனும் டிவிட்டர் ‘பாட்’-ஐ (Bot) அறிமுகப்படுத்தியது. இணையத்தில் மக்களுடன் இயங்கிக் கற்றுக்கொண்டு, அவர்களின் கேள்விகளுக்குப் பதிலளிப்பதுதான் அதன் பணி.

இணையத்தில் இயங்கிவரும் மனிதர்களிடம் கற்றலைத் தொடங்கிய அந்த மென்பொருள், மிகப் பாரபட்சமாக நடந்துகொள்ளத் தொடங்கியது: ‘ஹிட்லர் நல்லவர்’ என்றது; கறுப்பினத்தவர்களை இழிவுபடுத்தும் நகைச்சுவைத் துணுக்குகளைக் கூறியது. ஆபத்தை உணர்ந்த மைக்ரோசாஃப்ட் நிறுவனம் அதை உடனடியாகத் திரும்பப் பெற்றது.

டீப்ஃபேக்ஸ்: டீப்ஃபேக்ஸ் செயலியை நீங்கள் பயன்படுத்தியிருக்க வாய்ப்பு உண்டு. ரஜினிகாந்த் ஆடும் சிறு காணொளி ஒன்றில் உங்கள் ஒளிப்படத்தைக் கொடுத்தால் ரஜினியின் முகத்தை நீக்கிவிட்டு, உங்கள் முகத்தைக் கனகச்சிதமாகப் பொருத்தி, அதே அசைவுகளுடன் ஒரு புதிய காணொளியை உருவாக்கித் தரும்.

ஒளிப்படத்தையும் இப்படி மாற்றலாம். நீங்கள் தமிழில் ஒரு வசனத்தைப் பேசி, அதை இந்த மென்பொருளுக்குக் கொடுத்து, ஒபாமாவின் உருவத்தைத் தேர்வுசெய்தால், உங்கள் தமிழ் வசனத்தை ஒபாமா பேசுவதுபோலவே காணொளியை உருவாக்கிக்கொடுக்கும். உலகப்பிரபலங்கள் தமிழ்ப் புத்தாண்டுக்குத் தமிழில் வாழ்த்துச்சொல்வதைப் போன்ற காணொளிகள் டீப்ஃபேக் செயலியைப் பயன்படுத்தி உருவாக்கப்பட்டவைதாம்.

இந்தத் தொழில்நுட்பத்தைப் பயன்படுத்திப் போலியான ஒலிப்பதிவுகளை, காணொளிகளைத் துல்லியமாக உருவாக்க முடியும். ஓர் அரசியல்வாதி ஒரு குறிப்பிட்ட சாதியை இழிவுபடுத்திப் பேசுவதாக ஒரு காணொளியை உருவாக்கி வாட்ஸ்அப்பில் வைரலாக்க முடியும். இதுபோன்ற ஆபத்துகளைத்தான் நிபுணர்கள் கவலையுடன் சுட்டிக்காட்டுகிறார்கள்.

ஜெனரேட்டிவ் ஏ.ஐ: செயற்கை நுண்ணறிவைக் கொண்டு புதியவற்றை உருவாக்கும் தொழில்நுட்பத்தின் பெயர்தான் ஜெனரேட்டிவ் ஏ.ஐ. ‘நிலவைப் பற்றி ஒரு கவிதை எழுது’ என்றால், மைக்ரோ நொடியில் கணினி கவிதை எழுதிவிடும். குறும்படத்துக்குத் திரைக்கதை எழுதித் தரும். சமீப காலமாகப் பரபரப்பாகப் பேசப்படும் ‘சாட்ஜிபிடி’ (ChatGPT), டால்-இ (DALL-E) ஆகியவை ஜெனரேட்டிவ் ஏ.ஐ. வகையைச் சேர்ந்தவை.

சாட் ஜிபிடி-இடம் தேர்தல் பிரச்சாரத்துக்காக ஒரு மின்னஞ்சல் எழுது என்று கேட்டால், நீங்கள் கொடுக்கும் உள்ளீடுகளை வைத்து மனிதர்களே தோற்கும் அளவு மிகவும் உணர்வுபூர்வமான மின்னஞ்சல் ஒன்றை எழுதிக்கொடுக்கும். டால்-இபோன்ற மென்பொருள்கள் நீங்கள் சொற்களாக அளிக்கும் உள்ளீடுகளைக் கொண்டு உங்களுக்குத் தேவையான ஒளிப்படங்கள், ஓவியங்கள், காணொளிகளை உருவாக்கிக் கொடுக்கும்.

செய்ய வேண்டியவை: இந்தத் தொழில்நுட்பங்களால் பல நன்மைகளும் விளைகின்றன என்பதை மறுக்க முடியாது. மருத்துவ உலகில் விடை காண முடியாமல் தவிக்கும் பல கேள்விகளுக்குச் செயற்கை நுண்ணறிவு விடைதேட உதவிக்கொண்டிருக்கிறது. ஆனால், உண்மைதானோ என்று யோசிக்க வைக்கும் அளவுக்குத் துல்லியமான விஷயங்களை உருவாக்கித் தரும் இந்தத் தொழில்நுட்பங்கள் தவறான நோக்கத்துடன் பயன்படுத்தப்படும்போதுதான் சிக்கல் உருவாகிறது.

சமூக விரோதிகள் இதைப் பயன்படுத்திச் சமூகத்தில் பிளவை ஏற்படுத்தவும் குழப்பம் விளைவிக்கவும் முடியும். அரசியல் நோக்கத்துக்காகத் தவறாகப் பயன்படுத்தவும் பலர் தயங்கமாட்டார்கள். மக்களை ஏமாற்றிப் பணம் பறிக்கும் கும்பல்களும் இந்தத் தொழில்நுட்பங்களைத் துஷ்பிரயோகம் செய்ய முடியும். ஏற்கெனவே, சமூக வலைதளங்களைப் பயன்படுத்தி மக்கள் மத்தியில் விரிசலை ஏற்படுத்துவதில் பலர் ஈடுபட்டிருக்கிறார்கள். இந்தச் சூழலில், இப்படியான அதிநவீனத் தொழில்நுட்பங்கள் அந்த விரிசலைப் பெரும் பிளவுகளாக மாற்றிவிடும் சாத்தியக்கூறுகள் இருக்கின்றன.

வாட்ஸ்அப்பில் வரும் அனைத்தையும் அப்படியே நம்பிவிடும் அப்பாவிகள் நம்மிடையே ஏராளம். எனவே, முதற்கட்டமாக இப்படியான தொழில்நுட்பங்கள் இன்றைக்குப் புழக்கத்தில் இருக்கின்றன என்னும் விழிப்புணர்வை மக்களுக்கு ஏற்படுத்த வேண்டும். இந்தத் தொழில்நுட்பங்கள் தவறானவர்களிடம் சிக்கினால் குழப்பங்கள் நேரிடலாம் என்றும் விளக்க வேண்டும்.

மிக முக்கியமாக, இந்தத் தொழில்நுட்பங்களைக் கட்டுப்படுத்தும் வகையிலான சட்டங்களை, வழிமுறைகளை அரசுகள் உருவாக்க வேண்டும். ஜனநாயக ஆர்வலர்கள், தொழில்நுட்ப வல்லுநர்கள், ஊடகத்தினர், சமூகப் பொறுப்பு மிக்க அரசியல் தலைவர்கள் எனப் பல தரப்பினரும் ஒன்றிணைந்து செயற்கை நுண்ணறிவு எனும் சமகாலப் பூனைக்கு மணி கட்ட வேண்டும்.

- வினோத் ஆறுமுகம் | டிஜிட்டல் சமூக ஆய்வாளர்; தொடர்புக்கு: write2vinod11@gmail.com

To Read in English: How to avert dangers of AI era Vinod Arumugam, Digital social researcher.

VIEW COMMENTS

முக்கிய செய்திகள்

கருத்துப் பேழை

21 hours ago

கருத்துப் பேழை

21 hours ago

கருத்துப் பேழை

1 day ago

கருத்துப் பேழை

2 days ago

கருத்துப் பேழை

2 days ago

கருத்துப் பேழை

2 days ago

கருத்துப் பேழை

3 days ago

கருத்துப் பேழை

3 days ago

கருத்துப் பேழை

3 days ago

கருத்துப் பேழை

4 days ago

கருத்துப் பேழை

4 days ago

கருத்துப் பேழை

4 days ago

கருத்துப் பேழை

5 days ago

கருத்துப் பேழை

5 days ago

கருத்துப் பேழை

5 days ago

மேலும்