“கண்ணால் காண்பதும், காதால் கேட்பதும் பொய். தீர விசாரிப்பதே மெய்” என சொல்லும் அளவுக்கு ஏராளமான கன்டென்ட்கள் ஜெனரேட்டிவ் ஏஐ மூலம் உருவாக்கப்பட்டு இணைய வெளியில் வலம் வருகின்றன. இதில் எது அசல், எது பொய் என்பதை நாம் வித்தியாசம் காணவே முடியாத அளவுக்கு நம்மை திகைக்க செய்கிறது தொழில்நுட்பம். அந்த அளவுக்கு எந்திரங்கள் ஜெனரேட் செய்யும் கன்டென்ட்கள் நம்மை ஆட்கொண்டுள்ளன. அது வீடியோ, ஆடியோ, புகைப்படம் என வேறுபடுகிறது.
ஜெனரேட்டிவ் ஏஐ குறித்த பேச்சு கடந்த 2022-ல் உலக அளவில் பரவலானது. ஜிபிடி, மிட் ஜெர்னி, ட்ரான்ஸ்பார்மர்ஸ் போன்ற ஏஐ டூல்கள்/அப்ளிகேஷன்ஸ் இதற்கு உதவுகின்றன. இந்த பாட்கள் வெளியானபோது, அதனை முதன்முதலில் வேக வேகமாக ஓட்டம் எடுத்து மார்வெல், டிசி காமிக்ஸ்களின் சூப்பர் ஹீரோக்கள் நம் ஊர்ப்புறங்களில் வாழ்ந்தால் எப்படி இருக்கும் என கட்டளையிட்டு சோதித்து பார்த்தவர்கள் ஏராளம். அப்படியே பலரும் தங்களை வெவ்வேறு ஏஐ அவதார்களில் அரிதாரம் பூசி அழகு பார்த்ததும் உண்டு.
அதனை அப்படியே டெக் வல்லுநர்கள் தங்கள் கைப்பக்குவத்தில் மேம்படுத்தினர். ‘காவாலா’ பாடலுக்கு நடிகை தமன்னாவுக்கு மாற்றாக சிம்ரன் ஆடுவது போன்ற வீடியோக்கள் ஜெனரேட் செய்யப்பட்டது. அதனை பார்த்து, ‘ஹை இது நல்லா இருக்கே!’ என சிலாகித்த சமூக வலைதள பயனர்கள் மத்தியில் அந்த வீடியோ வரவேற்பும் பெற்றது. ஃபேஸ் ஸ்வேப்பிங் மூலம் இது உருவாக்கப்பட்டது.
இதே பாணியில் தான் தமிழ் மொழி அறியா பிரதமர் நரேந்திர மோடி, தமிழில் வெளியான பல்வேறு பாடல்களை அவரது சொந்தக் குரலில் பாடும் கன்டென்ட்கள் உருவாக்கப்பட்டன. அவரது மனதின் குரல் நிகழ்ச்சியில் தமிழில் பேசுவது போலவும் ஏஐ துணை கொண்டு உருவாக்கப்பட்டது. வாய்ஸ் குளோனிங் மூலமாக இது சாத்தியமானது. இவை டீப்ஃபேக் கன்டென்ட் ரகம்.
அமெரிக்க அதிபர் ஜோ பைடனும் ‘நான் அவன் இல்லை’ என சொல்லும் அளவுக்கு அவரையே அவரது ஃபேக் வீடியோ ஒன்று பதற செய்தது. அதுகுறித்து அவர் தனது கருத்தையும் தெரிவித்திருந்தார். இதன் பின்னணியில் இருப்பதும் ஜெனரேட்டிவ் ஏஐ தான். அந்த அளவுக்கு அதனை நேர்த்தியாக செதுக்கி வருகின்றனர் ஏஐ டூல் பயன்பாட்டில் கைதேர்ந்த ஏஐ சிற்பிகள். இந்த வகை கன்டென்ட் கிரியேஷன்களில் சில வேடிக்கையாகவும், சில விஷமத்தனத்துடனும் ஜெனரேட் செய்யப்பட்டவை. அவதூறு பரப்ப அல்லது மோசடி மேற்கொள்ளும் நோக்கில் இந்த விஷமத்தன கன்டென்ட்கள் உருவாக்கப்படுகின்றன.
இப்படியாக, டெக் உலகில் டீப்ஃபேக்குகள் உலா வரும் கலாச்சாரம் அதிகரித்து வருகிறது. அதனை அடையாளம் காண்பது எந்திரங்களுக்கே ஹெர்க்யூலியன் டாஸ்க். அதனால் தான் சில தளங்களில் போட்டோ அப்டேட் செய்யும் போது கருவிழி, கண் இமை அசைவு போன்றவற்றை எந்திரம் ஸ்கேன் செய்கிறது. இந்த டெக்னிக்கல் அம்சம் இல்லையெனில் போலி அவதார்கள் ஆதார் கார்டு போன்ற அடையாள அட்டையை பெற்றால் கூட அதில் ஆச்சரியப்படுவதற்கு எதுவும் இல்லை. அப்படி இருக்கும் சூழலில் இணையவெளியில் அசலுக்கும், போலிக்குமான கன்டென்ட்களை சாமானிய பயனர்கள் அடையாளம் காண்பது சவால். அந்த அளவுக்கு செயற்கை நுண்ணறிவை கொண்டு உருவாக்கப்படும் ஃபேக் கன்டென்ட்களின் தன்மை உள்ளது.
Loading...
Deepfake: ஒருவரது படத்தை மேனிப்புலேட் செய்வதென்பது பல ஆண்டு காலமாக பயன்பாட்டில் உள்ளது. தொழில்நுட்ப வளர்ச்சியின் காரணமாக வீடியோ வடிவில் போலிகள் அவதரித்தன. 21-ம் நூற்றாண்டில் ஏஐ அதற்கு உதவுகிறது. ஒரு நபரின் உருவத்தை நம்பத்தகுந்த வகையில் டிஜிட்டல் முறையில் ஏஐ துணையுடன் ஹைப்பர் ரியலிஸ்டிக் கன்டென்ட்கள் உருவாக்கப்படுகின்றன. அது ஆடியோ, வீடியோ அல்லது போட்டோ ஃபார்மேட்டில் இருக்கும். அது தான் டீப்ஃபேக் என அறியப்படுகிறது.
டீப்ஃபேக்குகள் கல்வி, திரைப்படத் தயாரிப்பு, தடயவியல் மற்றும் கலை போன்றவற்றில் இது பெரிதும் பலன் தரும். அதே நேரத்தில் அரசியல் ரீதியாக பொய் பிரச்சாரம், நற்பெயருக்கு களங்கம் ஏற்படுத்துவது, மோசடி, போலி செய்திகளை பரப்புவது, மக்களை ஏமாற்றவும், ஜனநாயக நிறுவனங்களின் மீதான நம்பிக்கையை சிதைப்பது போன்ற பாதக செயல்களுக்கும் பயன்படுத்தப்படுகிறது.
‘அந்த பதிவை எனது அட்மின் பதிவிட்டார்’ என சர்ச்சையான சமூக வலைதள பதிவுகளுக்கு பிரபலங்கள் சிலர் விளக்கம் கொடுத்ததை நாம் பார்த்துள்ளோம். அது போலவே அரசியல் உட்பட பல துறை பிரபலங்கள் டீப்ஃபேக் கன்டென்ட் சார்ந்து விளக்கம் கொடுக்க வேண்டி இருக்கும். காதலர் தினம் படத்தில் ப்ரொபசர் ஜேக் (கவுண்டமணி) - மாணவர் மாண்டி (சின்னி ஜெயந்த்) இடையிலான காட்சிகள் சில வேடிக்கையாக சொல்லப்பட்டு இருக்கும். அது ரொமான்ஸ் மோசடி வகை. இணையவழியில் ஆணிடம் பெண் போலவும், பெண்ணிடம் ஆண் போலவும் பேசி மோசடியில் ஈடுபடுவது. இதற்கு ஏஐ பெரிதும் உதவுகிறது. வாய்ஸ் குளோனிங், ஃபேஸ் ஸ்வேப்பிங் போன்றவற்றின் மூலம் இந்த மோசடி வேலைகள் அதிகரித்து வருகிறது. அமெரிக்காவில் கடந்த 2022-ல் மட்டும் சுமார் ஐம்பதாயிரத்துக்கும் மேற்பட்டவர்கள் ரொமான்ஸ் மோசடிக்கு ஆளாகி உள்ளதாக தகவல்.
உலக அளவில் டீப்ஃபேக் பயன்பாடு: கடந்த 2018-ல் முன்னாள் அமெரிக்க அதிபர் பராக் ஒபாமாவின் ஃபேக் வீடியோ ஒன்று வெளியானது. இதற்கு பின்னணி குரல் கொடுத்தவர் அமெரிக்க நடிகர் ஜோர்டன் பீல். ஃபேக் வீடியோ குறித்த விழிப்புணர்வை ஏற்படுத்தும் நோக்கில் இது உருவாக்கப்பட்டது. அதே போல கடந்த 2020-ல் பெல்ஜியம் நாட்டின் அப்போதைய பிரதமர் சோஃபி, கரோனாவுக்கும் வன அழிப்புக்கும் தொடர்பு இருப்பதாக பேசி இருந்தார். இதுவும் ஃபேக் வீடியோ தான். இதனை சுற்றுச்சூழல் அமைப்பு ஒன்று உருவாக்கி இருந்தது. <வீடியோ லிங்க்>
இந்தியாவில் கடந்த 2020 டெல்லி சட்டப்பேரவை தேர்தலின் போது பாஜக டீப்ஃபேக் வீடியோவை பயன்படுத்தி இருந்தது. அதில் பாஜகவின் மனோஜ் திவாரி இந்தி மொழியில் பேசி இருந்த வீடியோவை ஹரியான்வி மொழியில் மாற்றம் செய்து வெளியாகி இருந்தது. டிஜிட்டல் தொழில்நுட்பத்தின் துணையை கொண்டு நேர்மறையாக பிரச்சாரத்துக்கு பயன்படுத்தியதாக டெல்லி பாஜக விளக்கம் கொடுத்திருந்தது. அமெரிக்க துணை அதிபர் கமலா ஹாரிஸும் ஃபேக் வீடியோ வலையில் சிக்கினார். அவர் பேசாத ஒரு கருத்தை பேசியதாக வீடியோ வலம் வந்தது. அதனால் இணையவெளியில் உலா வரும் கன்டென்ட்களை அப்படியே அது உண்மை என பயனர்கள் நம்பாமல் இருக்க வேண்டியது அவசியம். ஏனெனில், அது ஜெனரேட்டிவ் ஏஐ மூலம் உருவாக்கப்பட்ட கன்டென்ட் மூலம் உருவாக்கப்பட்டதாக இருக்கலாம்.
Watch how BJP used #deepfake in Delhi elections where a voice mimicking Manoj Tiwari is used, making it look like he is speaking.
Vid 1: Deepfake in English
Vid 2: Deepfake in Haryanvi
Vid 3: Original Video
Report: https://t.co/8zcKwnSxbL
This is dangerous, should be illegal! pic.twitter.com/WEXb0zaXdl— Gaurav Pandhi (@GauravPandhi) February 19, 2020
ஏஐ வல்லுநர் விளக்கம்: “ஏஐ தொழில்நுட்பத்தை ட்ரெடிஷனல் ஏஐ, ஜெனரேட்டிவ் ஏஐ என இரண்டு வகைகளாக நாம் பிரிக்கலாம். ஜெனரேட்டிவ் ஏஐ-ல் ஏராளமான கிளை பிரிவுகள் உள்ளன. இதில் பேச்சு, வீடியோ, இமேஜ், அனிமேஷன் போன்ற நிறைய விஷயங்களை உருவாக்க முடியும். ரசிக்கும் வகையிலான வாய்ஸ் குளோனிங் மற்றும் ஃபேஸ் ஸ்வேப்பிங் கன்டென்ட்களை நான் உருவாக்கி உள்ளேன். இன்றைய தொழில்நுட்ப உலகில் முடியாதது என்று எதுவுமே இல்லை. ஆனால், அதை எப்படி பயன்படுத்துகிறோம் என்பதை கவனத்தில் கொள்ள வேண்டும். ஏனெனில், கன்டென்ட் உருவாக்குவது எளிது. அதன் நம்பகத்தன்மையை ஆராய்வது தான் பெரிய வேலை. இரு நாடுகளுக்கு இடையில் போர் நடக்கிறது என்றால் அது சார்ந்து சமூக வலைதளத்தில் பதிவிடப்படும் கன்டென்ட்களின் நம்பகத்தன்மையை அவசியம் கண்டறிய வேண்டும். இல்லையென்றால் அது உலக அளவில் பெரிய தாக்கத்தை ஏற்படுத்தும்.
உதாரணமாக தேர்தலுக்கு முந்தைய நாள் ஒரு பிரபலம் குறித்து பாலியல் ரீதியான குற்றச்சாட்டை பரப்பினால் அதன் எதிர்வினை எந்த அளவுக்கு இருக்கும் என்பதை யோசித்து பாருங்கள். இன்ஸ்டென்ட்டாக கன்டென்ட் உருவாக்கும் காலத்தில் நாம் உள்ளோம். இதில் ஊடக நிறுவனங்கள், மக்கள் என அனைவருக்கும் பெரிய பங்கு உள்ளது. அசல் எது? போலி எது? என சொல்வதே மிகக் கடினம். அந்த அளவுக்கு கம்யூடேஷன் வளர்ச்சி கண்டுள்ளது.
வரும் நாட்களில் அனைத்து துறைகளிலும் ஏஐ பங்கு இருக்கும். நாம் பயன்படுத்தும் டிஜிட்டல் சாதனங்கள், அதிலுள்ள சாஃப்ட்வேர், அப்ளிகேஷன்கள் என அனைத்திலும் ஏஐ இருக்கும். அப்படி இருக்கும் பட்சத்தில் அசல், போலி கன்டென்ட்களை அதுவே அடையாளம் காணும். அந்த அளவுக்கு மாற்றம் வர உள்ளது. அது நடக்கும் போது அனைவரும் சூப்பர்ஹியூமென்களாக ஜெனரேட்டிவ் ஏஐ மூலம் மாறி இருக்கலாம்.
இருந்தாலும் இதனை தவறாக (மிஸ் யூஸ்) பயன்படுத்துவதை இப்போதைக்கு தடுக்க முடியாது. ஆனால், அதை நெறிமுறை செய்ய வாய்ப்பு உள்ளது. தப்பு என தெரிந்தே ஒருவர் அதனை செய்திருந்தால் தண்டனை கூட அரசாங்கம் தரலாம்” என Muonium நிறுவனத்தின் நிறுவனரும், ஜெனரேட்டிவ் ஏஐ வல்லுநருமான செந்தில் நாயகம்.
முந்தைய அத்தியாயம்: AI சூழ் உலகு 12 | மருத்துவத் துறையில் செயற்கை நுண்ணறிவின் உறுதுணைகள்!
முக்கிய செய்திகள்
தொழில்நுட்பம்
4 hours ago
தொழில்நுட்பம்
1 day ago
தொழில்நுட்பம்
2 days ago
தொழில்நுட்பம்
3 days ago
தொழில்நுட்பம்
7 days ago
தொழில்நுட்பம்
11 days ago
தொழில்நுட்பம்
14 days ago
தொழில்நுட்பம்
16 days ago
தொழில்நுட்பம்
24 days ago
தொழில்நுட்பம்
28 days ago
தொழில்நுட்பம்
29 days ago
தொழில்நுட்பம்
30 days ago
தொழில்நுட்பம்
1 month ago
தொழில்நுட்பம்
1 month ago
தொழில்நுட்பம்
1 month ago