சில நாட்களுக்கு முன் சமூக வலைத்தளங்களில் பிரபல நடிகை ராஷ்மிகா மந்தனா அரைகுறை ஆடையுடன் ஒரு லிஃப்ட்டுக்குள் வரும் வீடியோ வைரலாகி சர்ச்சையாகியுள்ளது.
உண்மையில் பிரிட்டிஷ்-இந்திய பெண்ணான சாரா பட்டேல் எனும் சமூக வலைத்தள பிரபலத்தின் முகத்தை செயற்கை நுண்ணறிவு தொழில்நுட்பத்தின் உதவியுடன் DEEP FAKE செய்து ராஷ்மிகாவின் முகத்தை பொருத்தி விஷமிகள் வெளியிட்டுள்ளனர் என்று Alt news தளத்தில் செய்தி வெளியிடப்பட்டது.
அந்த வீடியோவில் இருப்பது தாம் தான் என்றும், ராஷ்மிகாவின் முகத்தை DEEP FAKE மூலம் விஷமிகள் பொருத்தியுள்ளனர் என்றும் சாரா பட்டேல் தெரிவித்துள்ளார்.
DEEP FAKE என்பது செயற்கை நுண்ணறிவை பயன்படுத்தி போலியான ஒன்றை உருவாக்குவதாகும். இத்தொழில்நுட்பத்தின் மூலம் ஒருவருடைய முகம், உடல், குரல் உள்ளிட்ட அடையாளங்களில் எதை வேண்டுமானாலும் வேறு ஒருவருடைய முகம், உடல் மற்றும் குரலுடன் பொருத்தி உண்மை போன்ற தோற்றத்தை கொடுக்க முடியும்.
கடந்த 2019-ம் ஆண்டு செப்டம்பர் மாத நிலவரப்படி இணையத்தில் 15000 DEEP FAKE வீடியோக்கள் உலவுவதாகவும் அதில் 99% ஆபாச வீடியோக்கள் என்று செயற்கை நுண்ணறிவு நிறுவனமான Deeptrace அச்சமயம் குறிப்பிட்டிருந்தது. இப்போது கணக்கெடுத்தால் இந்த எண்ணிக்கை சில- பல இலட்சங்களை தாண்டலாம்.
நடிகை ராஷ்மிகா இந்த வீடியோ குறித்த தனது பதிவில் “ தொழில்நுட்பம் தவறாக பயன்படுத்தப்படுவது எனக்கு மட்டுமல்ல; பாதிக்கப்படக்கூடிய அனைவருக்கும் பயத்தை ஏற்படுத்தக்கூடியதாகும்.
ஒரு பெண்ணாகவும்- நடிகையாகவும்,(இதிலிருந்து மீண்டுவர) என்னை ஆதரித்து பாதுகாத்த குடும்பத்தினர், நண்பர்கள் மற்றும் நலன் விரும்பிகள் அனைவருக்கும் நன்றிக்கடன் பட்டுள்ளேன். ஆனால், இதே சம்பவம் எனது பள்ளி அல்லது கல்லூரிக் காலங்களில் நிகழ்ந்திருந்தால் எவ்வாறு சமாளித்திருப்பேன் என்று தெரியவில்லை.
மேலும் பலர் இத்தகைய பாதிப்பிற்கு உள்ளாவதற்குமுன் உடனடியாக சமூகமாக நாம் இதற்கு வினையாற்ற வேண்டும்” என்று பதிவிட்டுள்ளார்.
ராஷ்மிகா வீடியோ சர்சையே ஓயாத நிலையில் தற்போது இன்னொரு பிரபல நடிகையான காத்ரீனா கைஃப்-பும் DEEP FAKE செய்யப்பட்டுள்ளார்.
I feel really hurt to share this and have to talk about the deepfake video of me being spread online.
Something like this is honestly, extremely scary not only for me, but also for each one of us who today is vulnerable to so much harm because of how technology is being misused.…
— Rashmika Mandanna (@iamRashmika) November 6, 2023
சமூக வலைத்தளங்களில் போலி ராஷ்மிகா வீடியோவின் பின்னூட்டங்களில் பல விதமான கருத்துக்களை மக்கள் பதிவிடுகின்றனர். அவற்றில் அவருக்கு ஆதரவான கருத்துக்களை தவிர்த்து மற்ற கருத்துக்களைப் பார்த்தால் பெரும்பாலானோர் ராஷ்மிகா சினிமாவில் காட்டாததையா தற்போது வீடியோவில் காட்டிவிட்டனர்? இதனால் என்ன பெரிய பாதிப்பு? என்ற ரீதியில் பதிவிட்டுள்ளனர்.
ஆபாச உடைகளை அணிந்து பல திரைப்படங்களில் நடித்திருந்தாலும். அவை அவரின் முழு சம்மதத்துடனும் ஒத்துழைப்புடனும் நடக்கிற நிகழ்வு. அதற்கும் அவரின் கவனத்திற்கு தெரியாமலேயே அவரின் முக அடையாளத்தை திருடியதற்கு வினையாற்றியதையும் எப்படி ஒப்பிட்டு பேச முடியும்? சினிமாவை பொறுத்தவரையில் ஆணாதிக்கம் நிறைந்த சமூகத்தில் பெண்களைப் போகப்பொருளாக காட்டினாலே கல்லா கட்டிவிடலாம் என்று பெரும்பாலான திரைத்துறையினர் கருதுகின்றனர். பெரும்பாலான சமயங்களில் அது நடக்கவும் செய்கிறது.
லாபத்தை மட்டுமே முக்கிய குறிக்கோளாகக் கொண்டு இயங்கி வரும் இன்றைய முதலாளித்துவ சமூகத்தில் பெண்களை பெரும்பாலும் போகப் பொருளாக மட்டுமே பார்க்கும் ஆணாதிக்கம் மிகுந்த இந்த சமூகத்தில் ராஷ்மிகா தனது பதிவில் குறிப்பிட்டுள்ளதைப் போல பள்ளி கல்லூரி மாணவிகளுக்கு , எளியவர்களுக்கு இந்த தொழில்நுட்பம் பற்றி தெரிய வாய்ப்பில்லாதவர்களுக்கு இந்த சிக்கல் வந்தால் அவர்கள் அதனை எவ்வாறு எதிர்கொள்ள முடியும்?
பாலியல் ஆபாச வீடியோக்களை தவிர்த்து DEEP FAKE தொழில்நுட்பத்தின் மூலம் பொருளாதார குற்றங்கள் நடைபெறவும் வாய்ப்புகள் அதிகமாக உள்ளன.
DEEP FAKE வீடியோ தயாரித்து பிளாக்மெயிள் செய்து பணம் பறிப்பது, குரல் மாற்றிப்பேசி தான் அபாயத்தில் இருப்பதாகவும் உடனடியாக பணம் அனுப்பவேண்டும் என்று செய்தி அனுப்புவதன் மூலம் பணம் பறிப்பது போன்ற சம்பவங்கள் அங்கொன்று இங்கொன்றாக நடந்திருப்பதாக இணையத்தில் செய்திகள் வருகின்றன. இது பரவலாகி அதிக மக்களை காவு வாங்கும் முன் மக்கள் விழித்துக்கொள்ள வேண்டும்.
இதையும் படியுங்கள்: சாட் ஜிபிடி புதிய தொழில்நுட்பம்! முதலாளிகளுக்கு பணம் காய்க்கும் மரம்!
குறிப்பாக லோன் ஆப் மூலம் கடன் வாங்கும் மக்களை அதிக வட்டி போட்டு சுரண்டுகிறது அந்த ஆப் நிறுவனங்கள். அதனை கட்ட முடியாதவர்களின் தனிப்பட்ட விவரங்களை அவர்களது ஸ்மார்ட்போன்களில் இருந்து திருடி அவர்களது புகைப்படங்களை பயன்படுத்தி ஆபாச வீடியோக்களை அனுப்பி மிரட்டிய நிகழ்வு சமீபத்தில் நிகழ்ந்தது. இதில் ஒருவர் தற்கொலையும் செய்துக் கொண்டார். DEEP FAKE வீடியோ குற்றத்திற்கு இது ஒரு உதாரணம் மட்டும் தான்.
தொழில்நுட்ப வளர்ச்சியில் DEEP FAKE போன்ற மென்பொருள்கள் வருவதை தடுப்பது எளிதான காரியமல்ல. ஆனால் அதனால் ஏற்படும் விளைவுகளை முன்கூட்டியே தடுக்காவிடில் சமூகத்திற்கே பேராபத்தாகிவிடும்.
பெண்களின் படங்களை மார்பிங் செய்தோ அல்லது DEEP FAKE வீடியோக்கள் வெளியிட்டாலோ அவர்களால் இதனை சாதரணமாக கடந்து விட இயலாது. இந்த சமூகம் பெண்களுக்கு கற்பு என்ற தவறான கற்பிதத்தை உருவாக்கியுள்ளது. இதனால் தனது வெற்றுடலை வேறு யாரும் பார்த்தாலே இந்த சமூகத்தில் நடமாடமுடியாது என்ற பயத்தில் தற்கொலையை தேர்ந்தெடுக்கிறார்கள்.
ராஷ்மிகா மந்தனா நடிகை என்பதால் அமிதாப் பச்சன் வரை கருத்து சொல்கிறார், பலரும் உறுதுணையாக இருக்கிறார்கள். இதுவே சாமானிய பெண்கள் என்றால் இந்த ஆணாதிக்க சமூகம் அவர்களை சாவின் விழிம்பிற்கு தள்ளும்.
அரசை பற்றி விமர்சிக்கும் இணையதளங்களையும், இனப்படுகொலையை விவரிக்கும் வீடியோக்களையும் தேடிப்பிடித்து தடை செய்யும் அரசும் இணைய உலக கார்ப்பரேட்டுகளும் ஆபாச வீடியோக்களை சுதந்திரமாக அனுமதிக்கிறார்கள். இவர்கள் இந்த வீடியோக்களை தடை செய்ய மாட்டார்கள்.
ஆனால் மக்கள் நலனில் அக்கறையுள்ள அரசுகள் பாலியல் விழிப்புணர்வு வகுப்புகள் எடுப்பதன் மூலமும், விழிப்புணர்வு பிரச்சாரங்கள் மூலமாகவும் உடனடியாக வினையாற்றுவதன் மூலமும் இந்த சிக்கலை ஓரளவிற்கு சமாளிக்கலாம்.
ஆனால் நிரந்தர தீர்வு இந்த ஆணாதிக்க சமூகத்தில் சாத்தியமில்லை. வர்க்கபேதமற்ற சமூகத்தை உருவாக்குவதன் மூலமே இதுபோன்ற நிகழ்வுகளை தடுக்க முடியும். தொழில்நுட்ப வளர்ச்சிகளை மக்களுக்காக பயன்படுத்த முடியும்.
- தாமோதரன்