Apple आधिकारिक तौर पर बाल दुर्व्यवहार सामग्री के लिए iCloud तस्वीरें स्कैन करने की अपनी योजना को रद्द करता है

Apple आधिकारिक तौर पर बाल दुर्व्यवहार सामग्री के लिए iCloud तस्वीरें स्कैन करने की अपनी योजना को रद्द करता है

Apple आधिकारिक तौर पर बाल दुर्व्यवहार सामग्री के लिए iCloud तस्वीरें स्कैन करने की अपनी योजना को रद्द करता है शीर्षक वाले लेख के लिए छवि

फ़ोटो: एंटोन_इवानोव (Shutterstock)

ऐप्पल ने आधिकारिक तौर पर अपने सबसे विवादास्पद प्रस्तावों में से एक को मार डाला है: एक योजना बाल यौन शोषण सामग्री (या, सीएसएएम) के संकेतों के लिए आईक्लाउड छवियों को स्कैन करने के लिए।

हाँ, पिछली गर्मियों में, सेब की घोषणा की कि यह ऑन-डिवाइस स्कैनिंग शुरू करेगा—iOS में एक नई सुविधा जो खराब सामग्री के संकेतों के लिए व्यक्तिगत उपयोगकर्ताओं की तस्वीरों के माध्यम से चुपचाप छानबीन करने के लिए उन्नत तकनीक का उपयोग करती है। नई सुविधा थी बनाया गया ताकि, यदि स्कैनर को सीएसएएम के सबूत मिलते हैं, तो यह मानव तकनीशियनों को सचेत करेगा, जो संभवतः पुलिस को सचेत करेंगे।

योजना ने तुरंत एक मूसलाधार बारिश को प्रेरित किया प्रतिक्रिया गोपनीयता और सुरक्षा विशेषज्ञों से, आलोचकों का तर्क है कि स्कैनिंग सुविधा को अंततः अन्य प्रकार की सामग्री की तलाश के लिए फिर से तैयार किया जा सकता है। इआईओएस में इस तरह की स्कैनिंग क्षमताओं का होना व्यापक निगरानी दुरुपयोग की ओर एक फिसलन भरा ढलान था, आलोचकों ने आरोप लगाया, और टीवह आम सहमति थी कि उपकरण सीजल्द ही पुलिस के लिए बैकडोर बन जाएगा।

उस समय, Apple ने इनके खिलाफ कड़ा संघर्ष किया आलोचनाओंलेकिन कंपनी अंततः मान गई और, शुरुआत में नई सुविधा की घोषणा करने के कुछ ही समय बाद, उसने कहा कि यह “स्थगित करना” कार्यान्वयन बाद की तारीख तक।

अब तो ऐसा लग रहा है कि वह तारीख कभी नहीं आएगी। बुधवार को, नई आईक्लाउड सुरक्षा की एक बीवी के लिए घोषणाओं के बीच विशेषताएँ, कंपनी ने यह भी खुलासा किया कि वह ऑन-डिवाइस स्कैनिंग की अपनी योजनाओं के साथ आगे नहीं बढ़ेगी। गवाही में साझा वायर्ड पत्रिका के साथ, Apple ने यह स्पष्ट कर दिया कि उसने एक अलग रास्ता अपनाने का फैसला किया है:

पिछले साल प्रस्तावित बाल संरक्षण पहलों पर प्रतिक्रिया एकत्र करने के लिए विशेषज्ञों के साथ व्यापक परामर्श के बाद, हम संचार सुरक्षा सुविधा में अपने निवेश को गहरा कर रहे हैं, जिसे हमने पहली बार दिसंबर 2021 में उपलब्ध कराया था। हमने अपने पहले प्रस्तावित सीएसएएम पहचान के साथ आगे नहीं बढ़ने का फैसला किया है। आईक्लाउड फोटोज के लिए टूल। निजी डेटा के माध्यम से कंपनियों के बिना बच्चों की सुरक्षा की जा सकती है, और हम सरकारों, बाल अधिवक्ताओं और अन्य कंपनियों के साथ काम करना जारी रखेंगे ताकि युवा लोगों की सुरक्षा में मदद मिल सके, उनके निजता के अधिकार को संरक्षित किया जा सके और इंटरनेट को बच्चों और हम सभी के लिए सुरक्षित स्थान बनाया जा सके। .

Apple की योजनाएँ सुविचारित लग रही थीं। CSAM का डिजिटल प्रसार है a प्रमुख समस्या-और विशेषज्ञों का कहना है कि यह हाल के वर्षों में और भी बदतर हो गया है। स्पष्टतः, इस समस्या को हल करने का एक प्रयास अच्छी बात थी। उस ने कहा, अंतर्निहित तकनीक Apple उपयोग करने का सुझाव दिया—और इससे होने वाले निगरानी खतरे—ऐसा लगता है कि ऐसा नहीं था काम के लिए सही उपकरण.

#Apple #आधकरक #तर #पर #बल #दरवयवहर #समगर #क #लए #iCloud #तसवर #सकन #करन #क #अपन #यजन #क #रदद #करत #ह

Yash Studio Keep Listening

yash studio

Connect With Us

Watch New Movies And Songs

shiva music

Read Hindi eBooks

ebook-shiva

Latest News Update

Amar Bangla Potrika

Amar-Bangla-Patrika

Your Search for Property ends here

suneja realtors

Get Our App On Your Phone

X