iCloud dan iTunes Dituduh Melakukan Pelanggaran Hak Paten

Apple baru saja memperkenalkan fitur Child Safety, dan sudah membuat beberapa pengamat dan peneliti keamanan khawatir. Fitur tersebut bisa memindai konten Child Sexual Abuse Material (CSAM) secara otomatis.

Apple mengatakan bahwa fitur ini akan memindai semua foto pengguna yang diunggah ke iCloud. Untuk saat ini Apple mengatakan bahwa fitur ini diklaim aman dan tetap mengutamakan privasi pengguna. Fitur ini akan aktif secara otomatis di luar kontrol pengguna. Namun ada satu cara untuk fitur ini bisa dimatikan. Bagaimana caranya?

Apple mengatakan bahwa fitur ini hanya memindai foto yang diunggah ke iCloud Photos Library. Jadi dengan mematikan fitur iCloud Photos Library membuat fitur deteksi CSAM ini juga akan mati.

Fitur ini juga masih dalam tahap uji coba dan akan dirilis untuk pertama kalinya di regional Amerika Serikat ketika iOS 15, iPadOS 15, watchOS 8 dan macOS Monterey dirilis. Kita lihat saja dulu nanti implementasinya.

via MacRumors

  ⚡️ HUAWEI SUPER DEVICE! Melihat Kecanggihan Laptop Huawei Terbaru  

SUBSCRIBE CHANNEL KEPOIN TEKNO

NB: Subscribe channel Kepoin Tekno agar tidak ketinggalan berbagai info menarik dan bermanfaat seputar teknologi, setiap hari.