Apple baru saja memperkenalkan fitur Child Safety, dan sudah membuat beberapa pengamat dan peneliti keamanan khawatir. Fitur tersebut bisa memindai konten Child Sexual Abuse Material (CSAM) secara otomatis.
Apple mengatakan bahwa fitur ini akan memindai semua foto pengguna yang diunggah ke iCloud. Untuk saat ini Apple mengatakan bahwa fitur ini diklaim aman dan tetap mengutamakan privasi pengguna. Fitur ini akan aktif secara otomatis di luar kontrol pengguna. Namun ada satu cara untuk fitur ini bisa dimatikan. Bagaimana caranya?
Apple mengatakan bahwa fitur ini hanya memindai foto yang diunggah ke iCloud Photos Library. Jadi dengan mematikan fitur iCloud Photos Library membuat fitur deteksi CSAM ini juga akan mati.
Fitur ini juga masih dalam tahap uji coba dan akan dirilis untuk pertama kalinya di regional Amerika Serikat ketika iOS 15, iPadOS 15, watchOS 8 dan macOS Monterey dirilis. Kita lihat saja dulu nanti implementasinya.
via MacRumors