Last Updated : 06 Sep, 2024 05:06 PM

 

Published : 06 Sep 2024 05:06 PM
Last Updated : 06 Sep 2024 05:06 PM

டிஜிட்டல் டைரி - 10: சாட் ஜிபிடி தவறு செய்யுமா?

சாட் ஜிபிடி உள்ளிட்ட ஆக்கத்திறன் செயற்கை நுண்ணறிவு (ஏஐ) சேவைகள் எந்தக் கேள்விக்கும் பதிலளிக்கும் என்கிற கருத்து பரவலாக உள்ளது. அதுமட்டுமல்ல பல விஷயங்களில் ஏஐ சாட்பாட்களால் மனித ஆற்றலை விஞ்சிவிட முடியும் எனச் சொல்லப்படும் நிலையில், இவற்றின் வரம்புகளும் எல்லைகளும் அவ்வப்போது வெளிப்படுகின்றன. அண்மையில் நடந்த ஒரு நிகழ்வே இதற்கு உதாரணம்.

‘ஸ்டிராபெரி’ குழப்பம்: ‘ஸ்டிராபெரி’ (strawberry) பழத்தைக் குறிக்கும் ஆங்கில சொல்லில், ‘r’ எனும் எழுத்து இரண்டு முறை அடுத்தடுத்து இடம்பெறுவதைக் கவனித்திருக்கிறீர்களா? சாட் ஜிபிடிக்கு ‘strawberry’ எனும் ஆங்கிலச் சொல்லின் எழுத்து வரிசை (spelling) தெரியாது என்பதுதான் இணையத்தில் தற்போது பேசு பொருளாகியுள்ளது. ‘Strawberry’ எழுத்து வரிசையில் எத்தனை முறை ‘r’ எனும் எழுத்து வருகிறது எனும் கேள்விக்கு, சாட் ஜிபிடி, ‘இரண்டு முறை ‘r’ எழுத்து வருவ’தாகப் பதிலளித்துள்ளது. இது தவறு எனச் சுட்டிக்காட்டியபோது ‘மன்னிக்கவும், மூன்று முறை ‘r’ எழுத்து வருகிறது’ எனப் பதில் அளித்துள்ளது.

இது போல ‘ஜிபிடி4’, ‘கிளாட்’, ‘மெட்டா ஏஐ’ போன்ற சாட்பாட்களிடம் இந்தக் கேள்வியைக் கேட்டபோது, இரண்டு ‘r’ எழுத்து இருப்பதாகவே பதில் அளித்துள்ளன. இதற்கான விளக்கம் கேட்டபோது ‘ஜிபிடி4’ சாட்பாட், ‘strawberry’ எனும் சொல்லை ‘straw’ ‘berry’ என்று இரண்டு பகுதிகளாகப் பிரித்து ‘berry’இல் இரண்டு ‘r’ எழுத்து உள்ளதாகத் தெரிவித்துள்ளது. இச்சம்பவம் ஏஐ சாட்பாட்களின் போதாமையை உணர்த்துவதைவிட, அவை செயல்படும் விதத்தைப் புரிந்துகொள்வதன் அவசியத்தை உணர்த்துவதாகத் தொழில்நுட்ப வல்லுநர்கள் கருத்து தெரிவித்துள்ளனர்.

என்ன செய்யலாம்? - ஏஐ சாட்பாட்கள் மனிதர்களோடு உரையாடும் திறன் பெற்றிருந்தாலும், அனைத்தையும் புரிந்துகொள்ளும் ஆற்றல் அவற்றுக்குக் கிடையாது. ஏஐக்கு அளிக்கப்படும் இந்தப் பயிற்சி இயந்திரங்களுக்கான கற்பித்தலாகக் கருதப்பட்டாலும், ஏஐ சாட்பாட்களை இயக்கும் மொழி மாதிரிகள் (LLM) எனும் தொழில்நுட்பம் எதையுமே உள்வாங்கிக் கொண்டு புரிந்துகொள்வதில்லை. மாறாக, அவை சொற்களை ‘டோக்கன்’களாக மாற்றி அவற்றுக்கு இடையிலான தொடர்புகளைக் கணக்கிட்டு செயல்படுகின்றன, பதிலளிக்கின்றன.

இதனால்தான் எழுத்து வரிசை போன்ற எளிமையான கேள்விகளுக்கும் தவறான பதில்கள் அளித்து ஏஐ சாட்பாட்கள் கோட்டைவிடுகின்றன. இதுபற்றி ‘டெக்கிரஞ்ச்’ தளம் அருமையான விளக்கம் அளித்துள்ளது. அந்த இணைப்பைப் பார்க்க: https://techcrunch.com/2024/08/27/why-ai-cant-spell-strawberry/

ஓராண்டுக்கு முன்பு புகழ் பெற்ற ‘பீட்டில்ஸ்’ (Beatles) இசைக்குழுவினர் தேநீர் அருந்துவது போன்றதொரு படத்தை வரைந்து தருமாறு கேட்டபோது, சாட் ஜிபிடி அருமையான ஒரு படத்தை உருவாக்கிக் கொடுத்ததோடு, அந்தக் குழுவின் நான்கு உறுப்பினர்களோடு ஐந்தாவதாக ஒருவரையும் சேர்த்து வரைந்ததாக ராப் மேனுவல் என்பவர் தனது அனுபவத்தைப் பகிர்ந்திருந்தார். இதுதொடர்பாக சாட் ஜிபிடியிடம் தெளிவு பெற மேலும் உரையாடியபோது, ஐந்தாவது நபர் எப்படி வந்தார் என்பது பற்றிய குழப்பமே விஞ்சியதாகத் தெரிவித்துள்ளார். இதைப் பற்றி விரிவாகப் படிக்க: https://www.distractify.com/p/ai-beatle-drawing

ஆக, ஏஐக்கான உள்ளீடுகள் அளிக்கும்போது இது போன்று தவறுகளும் ஏற்படலாம் என்பதை மனதில் வைத்துக்கொள்ள வேண்டும். தற்போது ஏஐக்கான பயிற்சிகள் மேம்படுத்தப்பட்டு தவறுகளைச் சரி செய்வதற்கான பணியில் சாட்பாட்டுகளை உருவாக்கும் நிறுவனங்கள் களமிறங்கியுள்ளன.

FOLLOW US

தவறவிடாதீர்!

Sign up to receive our newsletter in your inbox every day!

WRITE A COMMENT
 
x