‘हेट स्पिच’- कर्मचाऱ्यांच्या इशाऱ्याकडे फेसबुकचे दुर्लक्ष

‘हेट स्पिच’- कर्मचाऱ्यांच्या इशाऱ्याकडे फेसबुकचे दुर्लक्ष

नवी दिल्लीः २०१८ ते २०२० या दरम्यान भारतात मत्सर व विखारयुक्त वक्तव्यातून (हेट स्पीच) ध्रुवीकरण केले जात असल्याची तक्रार व चिंता फेसबुकच्या अनेक कर्मच

आसाममधील भाजप नेत्यावरही फेसबुकची कृपा
संभाषण खासगी व सुरक्षितः व्हॉट्सअपचा खुलासा
नेटीझन्सच्या दबावापुढे झुकरबर्गही झुकला

नवी दिल्लीः २०१८ ते २०२० या दरम्यान भारतात मत्सर व विखारयुक्त वक्तव्यातून (हेट स्पीच) ध्रुवीकरण केले जात असल्याची तक्रार व चिंता फेसबुकच्या अनेक कर्मचाऱ्यांनी व्यक्त केली होती, पण त्या तक्रारीकडे व चिंतेकडे फेसबुकचे तत्कालिन उपाध्यक्ष क्रिस कॉक्स यांनी फारसे गांभीर्याने पाहिले नाही. २०१९मध्ये कंपनीच्या एका अंतर्गत बैठकीत असे सांगण्यात आले की, फेसबुकवर तुलनात्मक रित्या विखारयुक्त, मत्सरयुक्त वक्तव्ये, भाषा कमी दिसत असल्याने काळजी करण्यासारखे कारण नाही. फेसबुककडे हेट स्पीच रोखण्यासाठी असा कोणताही उपाय नसल्याचेही (की वर्ड डिटेक्शन सेटअप) या कर्मचार्यांचे म्हणणे होते.

महत्त्वाची बाब अशी की कॉक्स यांची बैठक भारतात सार्वत्रिक निवडणुका जाहीर होण्याच्या आधी एक महिना झाली होती.

२०१९च्या लोकसभा निवडणुकांआधी जानेवारी व फेब्रुवारी २०१९ मध्ये फेसबुकवर येणार्या विखारी, मत्सर व खराब मजकुराविषयी कंपनीमध्ये चर्चा झाली होती. या संदर्भातील तिसरा व अंतिम अहवाल ऑगस्ट २०२०मध्ये प्रसिद्ध झाला, त्यात असे स्पष्ट करण्यात आले होते की, भारतात फेसबुकवर स्थानिक भाषेत येणारा विखार आणि मत्सरयुक्त व खराब मजकूर फेसबुकचे आर्टिफिशल इंटेलिजन्स शोधू शकत नसल्याने त्याचे अस्तित्व फेसबुकला समजत नाही.

कॉक्स यांच्यासोबत झालेल्या बैठकीच्या नोंदीत या अहवालाचा दाखला देत फेसबुकने भारतातील ग्राहक स्वतःला सुरक्षित समजत असून त्यांचे विशेष तज्ज्ञ हा देश अपेक्षाकृत स्थिर असल्याचा निर्वाळा देत असल्याचे स्पष्ट केले.

‘एडवर्सेरियल हार्मफुल नेटवर्क्स – इंडिया केस स्टडी’ या पहिल्या अहवालात प. बंगालमधून फेसबुकवर प्रसिद्ध होणार्या एकूण मजकुरातील ४० टक्के मजकूर बनावट, खोटा असल्याचे निष्पन्न झाले होते.

दुसरा अंतर्गत अहवाल टेस्ट अकाउंटच्या आधारे कंपनीतील एका कर्मचार्याने तयार केला होता.

टेस्ट अकाउंट म्हणजे फेसबुकचे कर्मचारी एक डमी यूजरचे अकाउंट तयार करतात. त्याच्या खात्यात एकही मित्र (फ्रेंड) नसतो. पण या अकाउंटच्या माध्यमातून फेसबुकवर येणारा विभिन्न स्तरातील मजकूर समजून घेतला जातो.

पण फेसबुकच्या या टेस्ट अकाउंटने अल्गोरिदमद्वारे येणारा मजकूरच तपासला होता. आणि या मजकुराची गुणवत्ता अयोग्य असल्याचा शिक्का मारला होता.

आणखी एक महत्त्वाची बाब अशी की २०१९मध्ये पुलवामा दहशतवादी हल्ला घटनेनंतर फेसबुकच्या अल्गोरिदमने राजकीय प्रेरित व लष्कराशी संबंधित अनेक ग्रुप, पेजेसचा आपल्या ग्राहकांवर भडिमार करण्यास, त्यांच्यावर ती पेजेस, ग्रुप बिंबवण्याचा प्रयत्न केला व त्यातून ग्राहकांना आपल्याकडे खेचले.

फेसबुकचा दावा असाही आहे की, हिंदी व बंगाली भाषेतील मत्सर व द्वेषयुक्त मजकूर तपासण्यासाठी कंपनीने मोठ्या प्रमाणावर गुंतवणूक केली असून त्याची तीव्रताही कमी केली आहे.

मूळ बातमी

COMMENTS

WORDPRESS: 0
DISQUS: