‘डीपफेक’ : सत्य-असत्याच्या रेषा धूसर

‘डीपफेक’ : सत्य-असत्याच्या रेषा धूसर

प्रतिमा संश्लेषण आणि मशीन लर्निंगच्या वापरातून ‘फेक व्हिडिओ’ बनविले जातात. या व्हिडिओची पिक्चर क्वालिटी आणि हावभाव इतके अस्सल असतात की वरवर पाहता ते खोटे असल्याचेच कळून येत नाही. आर्टिफिशियल इंटेलिजन्स आणि डीप मशीन लर्निंग वापरून बनविलेल्या या व्हिडिओला ‘डीपफेक’ (Deepfake) असे म्हटले जाते.

‘प्रतिमा संश्लेषण’ हा शब्द वाचायला सोपा जाऊ शकतो पण समजायला तो तितकाच कठीण आहे. शासनाच्या मराठी भाषा विभागाचा शब्दकोश सोडल्यास या शब्दाचा कधीही कुठे वापर झालेला दिसून येत नाही. मराठी माध्यमातून शिक्षण घेतलेल्यांना ‘प्रकाश संश्लेषण’ हा मराठी शब्द माहिती असेल. झाडे आपल्या पानांमध्ये असलेल्या हरित द्रव्याच्या साहाय्याने हवेतला कार्बनडाय ऑक्साईड आणि पाण्याच्या संयोगातून आपले अन्न तयार करतात आणि या प्रक्रियेला प्रकाश संश्लेषण म्हणतात. प्रतिमा संश्लेषणच्या प्रक्रियेत एखाद्या व्यक्तीचे खूप सारे फोटो आणि व्हिडीओ एकत्र करून त्याचा मशीनच्या मदतीने अभ्यास करून त्या व्यक्तीच्या शरीराचे आकारमान आणि चेहऱ्याचा वापर करीत अस्तित्वातच नसलेली पूर्णतः नवी प्रतिमा तयार करतात. याला प्रतिमा संश्लेषण म्हणतात.

आपल्यापैकी गुगल फोटो वापरणाऱ्यांना काहींना गुगलने त्यांचे स्पेशल इफेक्ट असलेले फोटो वा अॅनिमेशन दाखविले असतील, ज्यात वापरकर्त्याच्या एकसारख्या दिसणाऱ्या प्रतिमा एकत्र करून गुगल आर्टिफिशियल इंटेलिजन्सच्या मदतीने एक व्हिडिओ ‘जीआयएफ’ बनवते आणि लोक ती पाहून उगाचच चकित होतात.

अर्थात ही या तंत्रज्ञानाची अतिशय प्राथमिक पायरी आहे. एखाद्या व्यक्तीचे असंख्य फोटो आणि व्हिडिओ उपलब्ध असल्यास अॅनिमेशनच काय तर पूर्ण लांबीचा एखादा व्हिडिओदेखील बनवला जाऊ शकतो. किंवा मग दुसऱ्या एखाद्या व्हिडिओमधल्या व्यक्तीच्या चेहऱ्याच्या जागी या व्यक्तीचा चेहरा चिकटवून त्या व्यक्तीने अगोदर व्हिडिओसमोर कधीही न केलेली कृत्ये आणि न म्हटलेले शब्द एकत्र करून एक नवाच व्हिडिओ बनविला जाऊ शकतो. या तंत्रज्ञानाचा वापर सिनेमामध्ये थोडा वेगळ्या प्रकारे होतो आहे पण या तंत्रज्ञानाचे फायदे कमी आणि तोटे जास्त असल्याचे समोर येते आहे.

प्रतिमा संश्लेषण आणि मशीन लर्निंगच्या वापरातून ‘फेक व्हिडिओ’ बनविले जातात. या व्हिडिओची पिक्चर क्वालिटी आणि हावभाव इतके अस्सल असतात की वरवर पाहता ते खोटे असल्याचेच कळून येत नाही. आर्टिफिशियल इंटेलिजन्स आणि डीपमशीन लर्निंग वापरून बनविलेल्या या व्हिडिओला ‘डीपफेक’ (Deepfake) असे म्हटले जाते.

व्हिडिओ एडिटींग सॉफ्टवेअर वापरून सिनेमातल्या सेलिब्रिटीजचे खोटे व्हिडिओ बनवण्याचे काम गेली कित्येक वर्षे चालू आहे पण आर्टिफिशियल इंटेलिजन्सने गेल्या काही वर्षात केलेल्या प्रगतीचा आलेख पाहिल्यास हे तंत्र दिवसेंदिवस अधिक प्रगत होते आहे, ते वापरण्यासाठी विशेष मेहनतीची आवश्यकता राहिलेली नाही आणि सर्वात महत्त्वाचे त्याचा काम करण्याचा वेग प्रचंड जास्त आहे.

या तंत्रज्ञानाचा वापर खोटे सेलिब्रिटी पोर्नोग्राफिक व्हिडिओ बनविण्यात होत असून अनेक प्रसिद्ध भारतीय अभिनेत्र्यांचे डीपफेक व्हिडिओ इंटरनेटवर उपलब्ध आहेत. पोर्नोग्राफिक व्हिडिओचे सर्वात लोकप्रिय संकेतस्थळ ‘पोर्नहब’ने अशा व्हिडिओवर कार्यवाही करून ते आपल्या साइटवरून हटविले जातील अशी घोषणा गेल्या वर्षी केली होती. दर्शकांना डीपफेक व्हिडिओ दिसल्यास ते तो व्हिडिओ फ्लॅग करतील आणि त्यानंतर ‘पोर्नहब’ त्याची दखल घेऊन असे व्हिडिओ साईटवरून काढून टाकेल असे साईटतर्फे सांगण्यात आले होते.

या सगळ्या प्रक्रियेत सर्वात मोठा दोष असा की डीपफेक शोधण्यासाठी पोर्नहबला त्यांच्या वापरकर्त्यांची मदत घ्यावी लागणार आहे आणि वापरकर्ते असा व्हिडिओ फ्लॅग करण्याऐवजी, तो लोकप्रिय व्हावा म्हणून अधिक प्रयत्नशील असल्याचे दिसून आले आहे. इंटरनेटवर वाईट आणि खोट्या गोष्टींची लोकप्रियता अधिक वेगाने वाढण्याच्या दिवसात असे डीपफेक व्हिडिओ अधिक जास्त प्रसिद्ध न झाले तरच नवल. शिवाय या व्हिडिओंचा दर्जा अपेक्षेपेक्षा जास्त चांगला असल्याने वापरकर्ते त्यातले असत्य शोधण्यापेक्षा क्षणभरासाठी त्यालाच सत्य मानून कल्पनांच्या दुसऱ्या मनोराज्यात जाणे पसंत करीत आहेत.

डीपफेकचा भयंकर प्रभावी वापर करण्याचे दुसरे क्षेत्र आहे ते म्हणजे राजकारण. एखाद्या लोकप्रिय राजकारण्याच्या भाषणांचे मोठ्या प्रमाणात जमा केलेले व्हिडिओ मशीन लर्निंगला पुरवून त्यातून बनविलेल्या नव्या व्हिडिओतून राजकीय नेत्याच्या तोंडी कुठलेही शब्द आणि वाक्ये घातली जाऊ शकतात. असे व्हिडिओ तुम्ही अगोदरच पाहिलेले असण्याचीही शक्यता आहे परंतु त्याच्याशेवटी येणारे हसऱ्या  इमोजी, वॉटरमार्कमुळे हे व्हिडिओ फक्त गंमतीकरता आहेत हे लगेचच कळून येते.

पण तंत्रज्ञानाच्या सध्याच्या टप्प्यात वॉटरमार्क आणि इमोजी नसल्यास अशा व्हिडिओचा नागरिकांच्या मतांवरती विपरीत परिणाम होऊ शकतो. आपल्या लाडक्या नेत्याच्या तोंडातून निघालेले शब्द मोत्यांसारखे झेलणाऱ्या ‘झॉम्बी अपोकोलिप्टीक’ काळात डीपफेक्सचा वापर झॉम्बी कार्यकर्त्यांना भडकविण्यासाठी केला जाऊ शकतो. सुदैवाने लोकप्रियतेच्या वाटेवर स्वार अनेक नेत्यांचे अस्सल व्हिडिओच बरेचसे भडकावू असल्याने या तंत्रज्ञानाचा म्हणावा तितका धोका अद्याप निर्माण झालेला नाही.

गंमतीची गोष्ट अशी की हेच लोकप्रिय नेते आपल्या विरोधकांचे फेक व्हिडिओ पसरविण्यासाठी मात्र पुढाकार घेत आहेत. सत्याची रीतसर तोडफोड आणि अपलाप करून आलेल्यांचा सत्याशी तसाही फार संबंध नसतो पण समस्या सोडविण्याच्या आधारावर राजकारण करणाऱ्या पक्षांना आणि राजकारण्यांना डीपफेकचा प्रचंड त्रास होऊ शकतो.

डीपफेकचे तंत्रज्ञान राजकारण आणि पोर्नोग्राफीपुरतेच सीमित राहाणार असेल तर लोकांना त्याविषयी विशेष काही वाटणार नाही पण याच तंत्रज्ञानाच्या मदतीने सामान्य नागरिकांचे विशेषतः महिलांचे फेक व्हिडिओ आणि फोटो बनविले जाऊ शकतात ही शक्यता लक्षात घेतल्यास मात्र अनेकांना परिस्थितीचे गांभीर्य समजू शकेल.

गेल्या आठवड्यात ‘व्हाईस’ या अमेरिकी संकेतस्थळाने डीपन्यूड नावाच्या सॉफ्टवेअर संदर्भात जाहीर केलेली माहिती खळबळजनक आहे. डीपन्यूड हे सॉफ्टवेअर कुठल्याही स्त्रीचा कुठलाही फोटो घेऊन त्या फोटोपासून त्या स्त्रीचा नग्न फोटो तयार करू शकतो. व्हाईसने या सॉफ्टवेअरबद्दल बातमी दिल्यानंतर त्याच्या निर्मात्याने ते सॉफ्टवेअर इंटरनेटवरून अधिकृतरित्या काढून घेतले आहे.

पण इंटरनेटवर काही रिलीज झाल्यानंतर ते असेच सहजासहजी गायब होऊ शकत नाही, डीपन्यूडचे अधिकृत व्हर्जन इंटरनेटवर उपलब्ध नसले तरी त्याच्या असंख्य कॉपी निरनिराळ्या हॅकर आणि डार्क संकेतस्थळांवर उपलब्ध असल्याचे ‘व्हाईस’तर्फे सांगण्यात आले आहे. हॅकर्सतर्फे या सॉफ्टवेअरच्या मूळ व्हर्जनमध्ये पुढचे अधिक बदल केले गेले असून ते पूर्वीपेक्षा जास्त सक्षम झाले असल्याचे हे सॉफ्टवेअर इंटरनेटच्या काळ्या बाजारात विकणाऱ्यांचे म्हणणे आहे.

गेल्या काही वर्षांत सत्त्यासत्याच्या रेषा धूसर होत असताना आणि काहींच्या मते सभोवतालची परिस्थिती सत्त्योत्तर म्हणजेच पोस्टट्रुथ असल्याची व्याख्या होत असताना डीपफेकचा प्रसार वाढल्यास माध्यमांतले उरलेसुरले सत्यही नष्ट होऊन मागे उरणारी परिस्थिती महाभयंकर असेल, असे काही समाजशास्त्रज्ञांचे म्हणणे आहे.

तर याच तंत्रज्ञानामुळे सद्यस्थितीत असलेल्या खोट्या बातम्यांच्या मार्केटवरही परिणाम असण्याचीही शक्यता आहे. गेले काही वर्षे टीव्हीवर तद्दन खोट्या आणि रद्दी बातम्या देणारे असंख्य राघुमैना विविध चॅनेलवर आत्मविश्वासाने पोपटपंची करीत आहेत. या बोलक्या राघुमैनांचे भरपूर व्हिडिओ त्यांच्या चॅनेल मालकांकडे जमा झाले आहेत. मशीन लर्निंगला हे व्हिडीओ पुरवून त्यातून अशा राघुमैनांची प्रतिकृती बनवून त्यांच्या तोंडातून रोज हवे ते वदवून घेण्याची कला चॅनेल मालक साधू शकतात. एरव्ही पत्रकारिता आणि बातमीमूल्याशी कुठलीही बांधलिकी न ठेवणाऱ्या न्यूज चॅनेलच्या हडेलहप्पी मालकांना हे तंत्र स्वस्त होत असेल तर हवेहवेसे वाटू शकते.

गेल्या वर्षीच्या नोव्हेंबर महिन्यात एआय तंत्राने बातम्या देणारा कृत्रिम वृत्तनिवेदक बनविल्यानंतर या वर्षीच्या फेब्रुवारी महिन्यापर्यंत या तंत्रज्ञानात चीनने प्रचंड प्रगती केली असून तिथले टीव्ही चॅनेल लवकरच अशा कृत्रिम वृत्तनिवदेकांचा जास्तीत जास्त वापर करण्याच्या प्रयत्नात आहेत.

असे झाल्यास टीव्ही न्यूजचे भविष्य पूर्णपणे बदलून जाईल. रशिया, उत्तर कोरिया आणि वाडीया (उत्तर-पूर्व आफ्रिकेतील एक देश) प्रजासत्ताकातल्या टीव्ही चॅनेल्सची अवस्था पाहता हे तंत्रज्ञान तिथे अधिक फायद्याचे ठरू शकेल असे वाटते.

वाडीया प्रजासत्ताकात स्थानिक भाषांत बातम्या देणाऱ्या वीसहून अधिक वृत्तवाहिन्या आहेत. या सर्व वाहिन्यांवर येणाऱ्या बातम्या या दिवसाचे चोवीस तास वाडीयाचे सर्वेसर्वा जनरल अॅडमिरल अलादीन यांच्या आरत्या गाण्यात मग्न असतात, ज्याचा त्यांना आर्थिक मोबदलाही मिळतो. हा मोबदला कधी भरपूर असतो तर कधी कमी आणि त्याचा मोबदलाही कैकदा वेळेवर होत नाही. सर्वात महत्त्वाचे म्हणजे या सर्व प्रकारांत वाडीयाच्या सरकारी तिजोरीवर बराच भार पडतो.

यामुळे सर्व चॅनेल्सच्या राघुमैनांचे डीपफेक्स बनवून त्यांच्या तोंडून म्हणायचे संवाद एकाच ठिकाणी व्यवस्थित पुरवून नंतर ते चॅनेलवर प्रसारित केल्यास अतिशय मोठ्या प्रमाणावर वेळ, श्रम आणि पैसा वापरला जाऊ शकतो. यातून त्या टीव्ही चॅनेलवर काम करणाऱ्यांचे रोजगार जाऊ शकतात. परंतु या वृत्तनिवेदकांची इन्स्टाग्रामवरची लोकप्रियता पाहता उद्या त्यांचा जॉब गेला तरी ते मॉडेलिंग क्षेत्रात पुन्हा प्रवेश करून आपले भवितव्य सावरू शकतात.

डीपफेकचा धोका तिथेही आहेच पण असेही फेक आयुष्य जगणाऱ्यांना डीपफेकची काळजी करण्याची विशेष गरज नाही.

राहुल बनसोडे, मानववंशशास्त्राचे अभ्यासक असून सॉफ्टवेअर तंत्रज्ञ आहेत.

COMMENTS