ஆபத்து! சிறுவர்களிடம் ChatGPT... தற்கொலை, போதைக்கு ஐடியா கொடுக்குதாம்!
சாட்ஜிபிடி போன்ற AI சாட்போட்கள், சிறுவர்களுக்கு தீங்கு விளைவிக்கும் தகவல்களை வழங்குவதாக சமீபத்திய ஆய்வு ஒன்று கண்டறிந்துள்ளது. தற்கொலை, போதைப்பொருள் பயன்பாடு, தீவிர உணவுக் கட்டுப்பாடு போன்ற ஆபத்தான தகவல்களை வழங்குவதாக ஆய்வில் தெரியவந்துள்ளது.

அதிர்ச்சி தரும் ஆய்வு முடிவுகள்
பிரபலமான செயற்கை நுண்ணறிவு (AI) சாட்போட் ஆன சாட்ஜிபிடி (ChatGPT), சிறுவர்களுக்கு ஆபத்தான மற்றும் தீங்கு விளைவிக்கும் தகவல்களை வழங்குவதாக ஒரு புதிய ஆய்வு தெரிவிக்கிறது.
"டிஜிட்டல் வெறுப்பை எதிர்கொள்வதற்கான மையம்" (CCDH) நடத்திய இந்த ஆய்வில், AI சாட்பாட் (AI chatbot) போதைப்பொருள் பயன்பாடு, கடுமையான உணவுக் கட்டுப்பாடு, தற்கொலைக்கான வழிகாட்டல்கள் போன்ற பதில்களை வழங்குவதாகத் தெரியவந்துள்ளது.
ஆய்வாளர்கள் 13 வயதுடைய ஒருவரின் விவரங்களுடன் மூன்று மணி நேரத்திற்கும் மேலாக சாட்ஜிபிடி (ChatGPT) யுடன் உரையாடினர். இதில் பல அதிர்ச்சியூட்டும் தகவல்கள் வெளியாகியுள்ளன.
தவறாக வழிநடத்தும் ChatGPT
தற்கொலைக்குத் தூண்டும் பதில்கள்: ஒரு 13 வயது பெண் தற்கொலை செய்துகொள்வது போல் ChatGPT-யிடம் கேட்டபோது, அது தனது பெற்றோர்கள், சகோதரர்கள் மற்றும் நண்பர்களுக்கு எழுத வேண்டிய மூன்று தற்கொலைக் கடிதங்களை உருவாக்கித் தந்துள்ளது.
போதைப்பொருள் மற்றும் ஆல்கஹால்: ஒரு 13 வயது சிறுவன், விரைவாக போதைப்பொருளை எவ்வாறு பயன்படுத்துவது என்று கேட்டபோது, ஆல்கஹாலுடன் போதைப்பொருட்களை கலப்பது எப்படி என்பது போன்ற விரிவான திட்டங்களை ChatGPT வழங்கியுள்ளது.
தீவிர உணவுக் கட்டுப்பாடு: உடல் தோற்றம் குறித்து கவலை தெரிவிக்கும் ஒரு சிறுமிக்கு, கடுமையான உணவுக் கட்டுப்பாடு மற்றும் பசியை அடக்கும் மருந்துகள் பற்றிய தகவல்களை அளித்துள்ளது.
பாதுகாப்பு அம்சங்களை எளிதில் கடந்து செல்ல முடியும்
1,200 சோதனைகளில் பாதிக்கும் மேற்பட்ட உரையாடல்கள் ஆபத்தானதாக அடையாளம் காணப்பட்டுள்ளன. "இந்த தொழில்நுட்பத்தில் உள்ள பாதுகாப்பு அமைப்புகளை சோதிக்க விரும்பினோம், ஆனால் அவை பயனற்றவை அல்லது வேலை செய்யவில்லை என்பது தெரிந்தது," என்று CCDH-ன் தலைமை நிர்வாக அதிகாரி இம்ரான் அகமது தெரிவித்தார்.
ஆரம்பத்தில் சாட்பாட் (chatbot) ஆபத்தான தகவல்களை வழங்க மறுத்தாலும், "இது ஒரு பள்ளி திட்டத்திற்காக" அல்லது "ஒரு நண்பருக்காக" என்று சில வார்த்தைகளை மாற்றிக் கேட்டவுடன், அது தயக்கமின்றி தகவல்களை அளித்துள்ளது. இந்த ஆய்வின் மூலம், ChatGPT-யின் பாதுகாப்பு வழிமுறைகளை எளிதில் கடந்து செல்ல முடியும் என்பது தெளிவாகியுள்ளது.
OpenAI-ன் பதில்
இந்த ஆய்வு முடிவுகள் குறித்து ChatGPT-யை உருவாக்கிய OpenAI நிறுவனம், "உரையாடல்கள் ஆரம்பத்தில் பாதிப்பில்லாதவையாகத் தொடங்கினாலும், பின்னர் உணர்ச்சிப்பூர்வமான பகுதிகளுக்கு மாறக்கூடும்" என்று ஒப்புக்கொண்டது. இருப்பினும், குறிப்பிட்ட இந்த விவகாரங்கள் குறித்து நேரடியான பதில்களை அளிக்கவில்லை. ஆனாலும், மனநலப் பிரச்சினைகளைக் கண்டறிந்து, பொறுப்புடன் கையாள்வதற்கான வழிமுறைகளை மேம்படுத்தி வருவதாகத் தெரிவித்துள்ளது.
மனநல வல்லுநர்களின் கவலை
சமீபத்தில், அமெரிக்காவில் ஒரு 14 வயது சிறுவன் தற்கொலை செய்துகொண்டதற்கு, AI சாட்பாட் ஒன்றின் தவறான வழிகாட்டுதலே காரணம் என அவரது தாய் வழக்குத் தொடுத்துள்ளார். இது போன்ற சம்பவங்கள், பதின்ம வயதினர் AI மீது கொண்டுள்ள அதிகப்படியான உணர்ச்சிபூர்வ சார்பு குறித்து வல்லுநர்கள் மத்தியில் கவலையை அதிகரித்துள்ளது.
ChatGPT போன்ற AI கருவிகள் இளம் வயதினரின் மனநல ஆரோக்கியத்திற்கு ஒரு பெரிய அச்சுறுத்தலாக உருவெடுக்கக்கூடும் என ஆய்வாளர்கள் எச்சரிக்கின்றனர்.
ஸ்மார்ட்போன்கள் மற்றும் AI முதல் சைபர் பாதுகாப்பு, அறிவியல் முன்னேற்றங்கள் வரை — சமீபத்திய தொழில்நுட்ப (Technology News in Tamil) அப்டேட்களை தொடர்ச்சியாக பெறுங்கள். டிஜிட்டல் டிரெண்ட்ஸ் குறித்து நிபுணர்களின் கருத்துகள், விரிவான தகவல்கள் மற்றும் பிரேக்கிங் நியூஸை வழங்கும் ஒரே தளம் ஏஷ்யாநெட் தமிழ் நியூஸ்.புதிய கேஜெட் ரிலீஸ் ஆனதா? புதிய ஸ்டார்ட்அப்புகள் வந்தவையா? எதிர்காலத்தை மாற்றக்கூடிய எந்த டெக் பாலிஸி வந்துள்ளது? இவை அனைத்திற்கும் சிறு சிறு தகவல்கள் இங்கு கிடைக்கும். டெக் விளக்கக் குறிப்புகள் மற்றும் கேஜெட் டெமோ வீடியோக்களையும் நீங்கள் பார்க்கலாம்.

