
Hepimiz şahidiyiz ki manzana her zaman sunduğu mahremiyeti savunmuştur, ne yazık ki ısırılan elma kullanıcıları için Cupertino devinin cihazlarında mahremiyete son verecek bazı değişiklikler olabilir, burada size tüm detayları anlatıyoruz.
Apple’da gizlilik tehlikede
manzana bir yayınladı yeni belge burada firma, NCMEC tarafından toplanan bu türden 200 bin görüntü ile eğitilmiş NeuralMatch algoritmasını kullanarak çocuk cinsel istismarı içerikli görüntüleri taramayı planladığını açıklıyor.
Apple’da amacımız, insanları güçlendiren ve hayatlarını zenginleştirirken onların güvende kalmasına yardımcı olan bir teknoloji yaratmaktır. Çocukları, onları işe almak ve sömürmek için iletişim araçlarını kullanan yırtıcılardan korumaya yardımcı olmak ve çocuk cinsel istismarı materyalinin (CSAM) yayılmasını sınırlamak istiyoruz.
Doğru olduğu halde, manzana cihazlarında bu tür materyalleri içeren kişilerin yakalanmasına izin vereceğinden, bu yeni hedefle iyi niyetlidir, ancak bunun için iCloud’a yüklenen her fotoğraf bir «güvenlik kuponu» alacağından kullanıcılarının gizliliğini feda etmesi gerekir. , ve algoritma herhangi bir şüpheli fotoğraf tespit ederse, görüntünün şifresi çözülecek ve yasa dışı olduğu belirlenirse NCMEC’e gönderilecektir.
Çocuk istismarı ciddi bir sorun ve Apple, bununla mücadele etmek için gizlilik koruma duruşunu ikiye katlayan ilk teknoloji şirketi değil” dedi. ne kadar iyi tasarlanmış olabileceğine bağlıdır. Ancak bu seçim, kullanıcının genel gizliliği için yüksek bir fiyata sahip olacaktır. Apple, teknik uygulamasının, önerilen arka kapısında gizliliği ve güvenliği nasıl koruyacağını ayrıntılı olarak açıklayabilir, ancak günün sonunda, kapsamlı bir şekilde belgelenmiş ve dikkatlice düşünülmüş bir araştırma bile» ve dar kapsamlı arka kapı hala bir kapıdır. arka; Electronic Frontier Foundation’ı ilan etti.
Güvenlik araştırmacıları planı alkışlıyor manzana, tamamen olmasa da, bu kararın kullanıcıların gizliliğine zarar vereceğini onayladıklarından, çünkü dünya çapındaki hükümetler yasa dışı materyal olmasa bile kullanıcı verilerine etkin erişime sahip olacaklar. Bu programın ABD’de başlamasının planlandığını belirtmekte fayda var, ancak pek çok hükümetin benzer taleplerde bulunacağına şüphe yok.
Çocuk cinsel istismarı materyaline karşı bu koruma planı onaylanırsa, her şey bu yılın sonunda bir güncelleme ile yürürlüğe gireceğini gösteriyor. iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey. kullanıcıları için manzana, aşağıdakileri dikkate almalıdır:
- Apple, Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi (NCMEC) tarafından sağlanan bilinen CSAM veritabanındaki bir fotoğrafla eşleşip eşleşmediklerini görmek için iCloud Fotoğrafları’na yüklenirken tüm fotoğrafları tarayacak bir tarama özelliği eklemeyi planlıyor.
- Ayrıca çocuk hesapları (reşit olmayanlara ait olarak belirlenen hesaplar) tarafından gönderilen veya alınan tüm iMessage görüntülerini müstehcen materyaller için tarar. Çocuk reşit değilse, müstehcen fotoğraf göndermeye veya almaya çalışırsa Apple onları uyarır ve ebeveynleri bilgilendirir.
Bu yeni haber hakkında ne düşünüyorsunuz? Yorumunuzu yazın.
Makalenin orijinal kaynağını kontrol edin
Bunu severim:
Doluyor…