Published : 04 Nov 2023 08:30 PM
Last Updated : 04 Nov 2023 08:30 PM
“கண்ணால் காண்பதும், காதால் கேட்பதும் பொய். தீர விசாரிப்பதே மெய்” என சொல்லும் அளவுக்கு ஏராளமான கன்டென்ட்கள் ஜெனரேட்டிவ் ஏஐ மூலம் உருவாக்கப்பட்டு இணைய வெளியில் வலம் வருகின்றன. இதில் எது அசல், எது பொய் என்பதை நாம் வித்தியாசம் காணவே முடியாத அளவுக்கு நம்மை திகைக்க செய்கிறது தொழில்நுட்பம். அந்த அளவுக்கு எந்திரங்கள் ஜெனரேட் செய்யும் கன்டென்ட்கள் நம்மை ஆட்கொண்டுள்ளன. அது வீடியோ, ஆடியோ, புகைப்படம் என வேறுபடுகிறது.
ஜெனரேட்டிவ் ஏஐ குறித்த பேச்சு கடந்த 2022-ல் உலக அளவில் பரவலானது. ஜிபிடி, மிட் ஜெர்னி, ட்ரான்ஸ்பார்மர்ஸ் போன்ற ஏஐ டூல்கள்/அப்ளிகேஷன்ஸ் இதற்கு உதவுகின்றன. இந்த பாட்கள் வெளியானபோது, அதனை முதன்முதலில் வேக வேகமாக ஓட்டம் எடுத்து மார்வெல், டிசி காமிக்ஸ்களின் சூப்பர் ஹீரோக்கள் நம் ஊர்ப்புறங்களில் வாழ்ந்தால் எப்படி இருக்கும் என கட்டளையிட்டு சோதித்து பார்த்தவர்கள் ஏராளம். அப்படியே பலரும் தங்களை வெவ்வேறு ஏஐ அவதார்களில் அரிதாரம் பூசி அழகு பார்த்ததும் உண்டு.
அதனை அப்படியே டெக் வல்லுநர்கள் தங்கள் கைப்பக்குவத்தில் மேம்படுத்தினர். ‘காவாலா’ பாடலுக்கு நடிகை தமன்னாவுக்கு மாற்றாக சிம்ரன் ஆடுவது போன்ற வீடியோக்கள் ஜெனரேட் செய்யப்பட்டது. அதனை பார்த்து, ‘ஹை இது நல்லா இருக்கே!’ என சிலாகித்த சமூக வலைதள பயனர்கள் மத்தியில் அந்த வீடியோ வரவேற்பும் பெற்றது. ஃபேஸ் ஸ்வேப்பிங் மூலம் இது உருவாக்கப்பட்டது.
இதே பாணியில் தான் தமிழ் மொழி அறியா பிரதமர் நரேந்திர மோடி, தமிழில் வெளியான பல்வேறு பாடல்களை அவரது சொந்தக் குரலில் பாடும் கன்டென்ட்கள் உருவாக்கப்பட்டன. அவரது மனதின் குரல் நிகழ்ச்சியில் தமிழில் பேசுவது போலவும் ஏஐ துணை கொண்டு உருவாக்கப்பட்டது. வாய்ஸ் குளோனிங் மூலமாக இது சாத்தியமானது. இவை டீப்ஃபேக் கன்டென்ட் ரகம்.
அமெரிக்க அதிபர் ஜோ பைடனும் ‘நான் அவன் இல்லை’ என சொல்லும் அளவுக்கு அவரையே அவரது ஃபேக் வீடியோ ஒன்று பதற செய்தது. அதுகுறித்து அவர் தனது கருத்தையும் தெரிவித்திருந்தார். இதன் பின்னணியில் இருப்பதும் ஜெனரேட்டிவ் ஏஐ தான். அந்த அளவுக்கு அதனை நேர்த்தியாக செதுக்கி வருகின்றனர் ஏஐ டூல் பயன்பாட்டில் கைதேர்ந்த ஏஐ சிற்பிகள். இந்த வகை கன்டென்ட் கிரியேஷன்களில் சில வேடிக்கையாகவும், சில விஷமத்தனத்துடனும் ஜெனரேட் செய்யப்பட்டவை. அவதூறு பரப்ப அல்லது மோசடி மேற்கொள்ளும் நோக்கில் இந்த விஷமத்தன கன்டென்ட்கள் உருவாக்கப்படுகின்றன.
இப்படியாக, டெக் உலகில் டீப்ஃபேக்குகள் உலா வரும் கலாச்சாரம் அதிகரித்து வருகிறது. அதனை அடையாளம் காண்பது எந்திரங்களுக்கே ஹெர்க்யூலியன் டாஸ்க். அதனால் தான் சில தளங்களில் போட்டோ அப்டேட் செய்யும் போது கருவிழி, கண் இமை அசைவு போன்றவற்றை எந்திரம் ஸ்கேன் செய்கிறது. இந்த டெக்னிக்கல் அம்சம் இல்லையெனில் போலி அவதார்கள் ஆதார் கார்டு போன்ற அடையாள அட்டையை பெற்றால் கூட அதில் ஆச்சரியப்படுவதற்கு எதுவும் இல்லை. அப்படி இருக்கும் சூழலில் இணையவெளியில் அசலுக்கும், போலிக்குமான கன்டென்ட்களை சாமானிய பயனர்கள் அடையாளம் காண்பது சவால். அந்த அளவுக்கு செயற்கை நுண்ணறிவை கொண்டு உருவாக்கப்படும் ஃபேக் கன்டென்ட்களின் தன்மை உள்ளது.
Simran edition #Kaavaalaa @anirudhofficial @simranbaggaoffc @sunpictures @tamannaahspeaks #GenerativeAI #muonium pic.twitter.com/EHBCUaNZq9
Deepfake: ஒருவரது படத்தை மேனிப்புலேட் செய்வதென்பது பல ஆண்டு காலமாக பயன்பாட்டில் உள்ளது. தொழில்நுட்ப வளர்ச்சியின் காரணமாக வீடியோ வடிவில் போலிகள் அவதரித்தன. 21-ம் நூற்றாண்டில் ஏஐ அதற்கு உதவுகிறது. ஒரு நபரின் உருவத்தை நம்பத்தகுந்த வகையில் டிஜிட்டல் முறையில் ஏஐ துணையுடன் ஹைப்பர் ரியலிஸ்டிக் கன்டென்ட்கள் உருவாக்கப்படுகின்றன. அது ஆடியோ, வீடியோ அல்லது போட்டோ ஃபார்மேட்டில் இருக்கும். அது தான் டீப்ஃபேக் என அறியப்படுகிறது.
டீப்ஃபேக்குகள் கல்வி, திரைப்படத் தயாரிப்பு, தடயவியல் மற்றும் கலை போன்றவற்றில் இது பெரிதும் பலன் தரும். அதே நேரத்தில் அரசியல் ரீதியாக பொய் பிரச்சாரம், நற்பெயருக்கு களங்கம் ஏற்படுத்துவது, மோசடி, போலி செய்திகளை பரப்புவது, மக்களை ஏமாற்றவும், ஜனநாயக நிறுவனங்களின் மீதான நம்பிக்கையை சிதைப்பது போன்ற பாதக செயல்களுக்கும் பயன்படுத்தப்படுகிறது.
‘அந்த பதிவை எனது அட்மின் பதிவிட்டார்’ என சர்ச்சையான சமூக வலைதள பதிவுகளுக்கு பிரபலங்கள் சிலர் விளக்கம் கொடுத்ததை நாம் பார்த்துள்ளோம். அது போலவே அரசியல் உட்பட பல துறை பிரபலங்கள் டீப்ஃபேக் கன்டென்ட் சார்ந்து விளக்கம் கொடுக்க வேண்டி இருக்கும். காதலர் தினம் படத்தில் ப்ரொபசர் ஜேக் (கவுண்டமணி) - மாணவர் மாண்டி (சின்னி ஜெயந்த்) இடையிலான காட்சிகள் சில வேடிக்கையாக சொல்லப்பட்டு இருக்கும். அது ரொமான்ஸ் மோசடி வகை. இணையவழியில் ஆணிடம் பெண் போலவும், பெண்ணிடம் ஆண் போலவும் பேசி மோசடியில் ஈடுபடுவது. இதற்கு ஏஐ பெரிதும் உதவுகிறது. வாய்ஸ் குளோனிங், ஃபேஸ் ஸ்வேப்பிங் போன்றவற்றின் மூலம் இந்த மோசடி வேலைகள் அதிகரித்து வருகிறது. அமெரிக்காவில் கடந்த 2022-ல் மட்டும் சுமார் ஐம்பதாயிரத்துக்கும் மேற்பட்டவர்கள் ரொமான்ஸ் மோசடிக்கு ஆளாகி உள்ளதாக தகவல்.
உலக அளவில் டீப்ஃபேக் பயன்பாடு: கடந்த 2018-ல் முன்னாள் அமெரிக்க அதிபர் பராக் ஒபாமாவின் ஃபேக் வீடியோ ஒன்று வெளியானது. இதற்கு பின்னணி குரல் கொடுத்தவர் அமெரிக்க நடிகர் ஜோர்டன் பீல். ஃபேக் வீடியோ குறித்த விழிப்புணர்வை ஏற்படுத்தும் நோக்கில் இது உருவாக்கப்பட்டது. அதே போல கடந்த 2020-ல் பெல்ஜியம் நாட்டின் அப்போதைய பிரதமர் சோஃபி, கரோனாவுக்கும் வன அழிப்புக்கும் தொடர்பு இருப்பதாக பேசி இருந்தார். இதுவும் ஃபேக் வீடியோ தான். இதனை சுற்றுச்சூழல் அமைப்பு ஒன்று உருவாக்கி இருந்தது. <வீடியோ லிங்க்>
இந்தியாவில் கடந்த 2020 டெல்லி சட்டப்பேரவை தேர்தலின் போது பாஜக டீப்ஃபேக் வீடியோவை பயன்படுத்தி இருந்தது. அதில் பாஜகவின் மனோஜ் திவாரி இந்தி மொழியில் பேசி இருந்த வீடியோவை ஹரியான்வி மொழியில் மாற்றம் செய்து வெளியாகி இருந்தது. டிஜிட்டல் தொழில்நுட்பத்தின் துணையை கொண்டு நேர்மறையாக பிரச்சாரத்துக்கு பயன்படுத்தியதாக டெல்லி பாஜக விளக்கம் கொடுத்திருந்தது. அமெரிக்க துணை அதிபர் கமலா ஹாரிஸும் ஃபேக் வீடியோ வலையில் சிக்கினார். அவர் பேசாத ஒரு கருத்தை பேசியதாக வீடியோ வலம் வந்தது. அதனால் இணையவெளியில் உலா வரும் கன்டென்ட்களை அப்படியே அது உண்மை என பயனர்கள் நம்பாமல் இருக்க வேண்டியது அவசியம். ஏனெனில், அது ஜெனரேட்டிவ் ஏஐ மூலம் உருவாக்கப்பட்ட கன்டென்ட் மூலம் உருவாக்கப்பட்டதாக இருக்கலாம்.
Watch how BJP used #deepfake in Delhi elections where a voice mimicking Manoj Tiwari is used, making it look like he is speaking.
— Gaurav Pandhi (@GauravPandhi) February 19, 2020
Vid 1: Deepfake in English
Vid 2: Deepfake in Haryanvi
Vid 3: Original Video
Report: https://t.co/8zcKwnSxbL
This is dangerous, should be illegal! pic.twitter.com/WEXb0zaXdl
ஏஐ வல்லுநர் விளக்கம்: “ஏஐ தொழில்நுட்பத்தை ட்ரெடிஷனல் ஏஐ, ஜெனரேட்டிவ் ஏஐ என இரண்டு வகைகளாக நாம் பிரிக்கலாம். ஜெனரேட்டிவ் ஏஐ-ல் ஏராளமான கிளை பிரிவுகள் உள்ளன. இதில் பேச்சு, வீடியோ, இமேஜ், அனிமேஷன் போன்ற நிறைய விஷயங்களை உருவாக்க முடியும். ரசிக்கும் வகையிலான வாய்ஸ் குளோனிங் மற்றும் ஃபேஸ் ஸ்வேப்பிங் கன்டென்ட்களை நான் உருவாக்கி உள்ளேன். இன்றைய தொழில்நுட்ப உலகில் முடியாதது என்று எதுவுமே இல்லை. ஆனால், அதை எப்படி பயன்படுத்துகிறோம் என்பதை கவனத்தில் கொள்ள வேண்டும். ஏனெனில், கன்டென்ட் உருவாக்குவது எளிது. அதன் நம்பகத்தன்மையை ஆராய்வது தான் பெரிய வேலை. இரு நாடுகளுக்கு இடையில் போர் நடக்கிறது என்றால் அது சார்ந்து சமூக வலைதளத்தில் பதிவிடப்படும் கன்டென்ட்களின் நம்பகத்தன்மையை அவசியம் கண்டறிய வேண்டும். இல்லையென்றால் அது உலக அளவில் பெரிய தாக்கத்தை ஏற்படுத்தும்.
உதாரணமாக தேர்தலுக்கு முந்தைய நாள் ஒரு பிரபலம் குறித்து பாலியல் ரீதியான குற்றச்சாட்டை பரப்பினால் அதன் எதிர்வினை எந்த அளவுக்கு இருக்கும் என்பதை யோசித்து பாருங்கள். இன்ஸ்டென்ட்டாக கன்டென்ட் உருவாக்கும் காலத்தில் நாம் உள்ளோம். இதில் ஊடக நிறுவனங்கள், மக்கள் என அனைவருக்கும் பெரிய பங்கு உள்ளது. அசல் எது? போலி எது? என சொல்வதே மிகக் கடினம். அந்த அளவுக்கு கம்யூடேஷன் வளர்ச்சி கண்டுள்ளது.
வரும் நாட்களில் அனைத்து துறைகளிலும் ஏஐ பங்கு இருக்கும். நாம் பயன்படுத்தும் டிஜிட்டல் சாதனங்கள், அதிலுள்ள சாஃப்ட்வேர், அப்ளிகேஷன்கள் என அனைத்திலும் ஏஐ இருக்கும். அப்படி இருக்கும் பட்சத்தில் அசல், போலி கன்டென்ட்களை அதுவே அடையாளம் காணும். அந்த அளவுக்கு மாற்றம் வர உள்ளது. அது நடக்கும் போது அனைவரும் சூப்பர்ஹியூமென்களாக ஜெனரேட்டிவ் ஏஐ மூலம் மாறி இருக்கலாம்.
இருந்தாலும் இதனை தவறாக (மிஸ் யூஸ்) பயன்படுத்துவதை இப்போதைக்கு தடுக்க முடியாது. ஆனால், அதை நெறிமுறை செய்ய வாய்ப்பு உள்ளது. தப்பு என தெரிந்தே ஒருவர் அதனை செய்திருந்தால் தண்டனை கூட அரசாங்கம் தரலாம்” என Muonium நிறுவனத்தின் நிறுவனரும், ஜெனரேட்டிவ் ஏஐ வல்லுநருமான செந்தில் நாயகம்.
முந்தைய அத்தியாயம்: AI சூழ் உலகு 12 | மருத்துவத் துறையில் செயற்கை நுண்ணறிவின் உறுதுணைகள்!
Sign up to receive our newsletter in your inbox every day!
WRITE A COMMENT