Skip to content

स्ट्यानफोर्ड अनुसन्धानकर्ताहरूले मास्टोडनमा ठूलो बाल दुर्व्यवहार सामग्री समस्या भएको पत्ता लगाए – HD समाचार लाइभ


मास्टोडन, विकेन्द्रीकृत सञ्जाल ट्विटरको एक व्यवहार्य विकल्पको रूपमा हेरिएको छ, बाल यौन दुर्व्यवहार सामग्री (CSAM), एक अनुसार। नयाँ अध्ययन बाट स्ट्यानफोर्डको इन्टरनेट अब्जर्भेटरी (मार्फत द वाशिंगटन पोस्ट)। केवल दुई दिनमा, अन्वेषकहरूले प्लेटफर्ममा 325,000 पोष्टहरूमा ज्ञात CSAM को 112 दृष्टान्तहरू फेला पारे – पहिलो उदाहरण मात्र पाँच मिनेट खोजी पछि देखा पर्यो।

यसको अनुसन्धान सञ्चालन गर्न, इन्टरनेट अब्जर्भेटरीले CSAM को लागि 25 सबैभन्दा लोकप्रिय मास्टोडोन उदाहरणहरू स्क्यान गर्यो। अन्वेषकहरूले Google को SafeSearch API लाई पनि स्पष्ट तस्बिरहरू पहिचान गर्न प्रयोग गरे, PhotoDNA सँगसँगै, एउटा उपकरण जसले फ्ल्याग गरिएको CSAM फेला पार्न मद्दत गर्दछ। यसको खोजीको क्रममा, टोलीले 554 सामग्रीको टुक्रा फेला पार्यो जुन ह्यासट्याग वा किवर्डहरू प्रायः अनलाइन बाल यौन दुर्व्यवहार समूहहरूद्वारा प्रयोग गरिन्छ, जुन सबैलाई Google SafeSearch द्वारा “उच्चतम विश्वास” मा स्पष्ट रूपमा पहिचान गरिएको थियो।

CSAM को खुला पोस्टिंग “अस्तव्यस्त प्रचलित” छ

त्यहाँ मिडिया समावेश गरिएका पोस्टहरूमा फेडिभर्समा शीर्ष 20 CSAM-सम्बन्धित ह्यासट्यागहरूको 713 प्रयोगहरू थिए, साथै 1,217 पाठ-मात्र पोस्टहरू जसले “अफ-साइट CSAM व्यापार वा नाबालिगहरूको हेरचाह” लाई औंल्याए। अध्ययनले नोट गर्छ कि CSAM को खुला पोस्टिंग “अस्तव्यस्त रूपमा प्रचलित” छ।

एउटा उदाहरण विस्तारित सन्दर्भ mastodon.xyz सर्भर आउटेज हामीले यस महिनाको सुरुमा नोट गर्यौं, जुन एउटा घटना थियो जुन मास्टोडनमा पोस्ट गरिएको CSAM को कारण भएको थियो। मा घटना बारे पोस्टसर्भरको एकमात्र प्रबन्धकले भने कि उनीहरूलाई CSAM समावेश सामग्रीमा सतर्क गरिएको थियो तर नोट गर्दछ कि मध्यस्थता उसको खाली समयमा गरिन्छ र हुन केही दिन लाग्न सक्छ – यो ठेकेदारहरूको विश्वव्यापी टोलीसँग मेटा जस्तो विशाल कार्य होइन, यो केवल एक व्यक्ति हो।

उनीहरूले प्रश्नमा रहेको सामग्री विरुद्ध कारबाही गरेको बताए तापनि mastodon.xyz डोमेनको होस्टले जसरी पनि यसलाई निलम्बित गरेको थियो, सर्भरलाई प्रयोगकर्ताहरूका लागि पहुँचयोग्य बनाउन नसक्दासम्म तिनीहरूले यसको सूची पुनर्स्थापना गर्न कसैलाई पुग्न सकेनन्। समस्या समाधान भइसकेपछि, mastodon.xyz को प्रशासकले भविष्यमा हटाउने कार्य रोक्नको लागि रजिस्ट्रारले डोमेनलाई “झूटा सकारात्मक” सूचीमा थपेको बताउँछन्। यद्यपि, अनुसन्धानकर्ताहरूले औंल्याएझैं, “के कारणले कारबाही गलत सकारात्मक थिएन।”

“हामीले कुनै पनि प्रकारको सामाजिक मिडिया विश्लेषण गर्ने हाम्रो संगठनको सम्पूर्ण इतिहासमा सायद दुई दिनको अवधिमा धेरै फोटोडीएनए हिटहरू पायौं, र यो नजिक पनि छैन,” रिपोर्टका अनुसन्धानकर्ताहरू मध्ये एक डेभिड थिएलले एक विज्ञप्तिमा भने। वाशिंगटन पोस्ट। “यो धेरै जसो केन्द्रीकृत सामाजिक मिडिया प्लेटफर्महरूले बाल सुरक्षा चिन्ताहरू सम्बोधन गर्न प्रयोग गर्ने उपकरणको अभावको कारण मात्र हो।”

विकेन्द्रीकृत नेटवर्कको रूपमा जस्तै Mastodon लोकप्रियता मा बढ्छ, त्यसैले सुरक्षा को बारे मा चिन्ता छ। विकेन्द्रीकृत सञ्जालहरूले फेसबुक, इन्स्टाग्राम, र रेडडिट जस्ता मुख्यधारा साइटहरू जस्तै मध्यस्थताको लागि समान दृष्टिकोण प्रयोग गर्दैनन्। यसको सट्टा, प्रत्येक विकेन्द्रीकृत उदाहरणलाई मध्यस्थतामा नियन्त्रण दिइएको छ, जसले फेडिभर्समा असंगतता सिर्जना गर्न सक्छ। यसैले अनुसन्धानकर्ताहरूले सुझाव दिन्छन् कि Mastodon जस्ता नेटवर्कहरूले PhotoDNA एकीकरण र साइबरटिपलाइन रिपोर्टिङको साथ मध्यस्थकर्ताहरूको लागि थप बलियो उपकरणहरू प्रयोग गर्छन्।

स्रोत लिङ्क



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *