Forumda yenilikler devam etmektedir , çalışmalara devam ettiğimiz kısa süre içerisinde güzel bir görünüme sahip olduk daha iyisi için lütfen çalışmaların bitmesini bekleyiniz. Tıkla ve Git
x

Apple'a Yapılan ve CSAM Tespit Sistemini Hedef Alan Baskılar Artıyor!

Apple'a Yapılan ve CSAM Tespit Sistemini Hedef Alan Baskılar Artıyor!
0
45

Garfield

FD Üye
Katılım
Ocak 9, 2022
Mesajlar
42,750
Etkileşim
1
Puan
36
Yaş
46
F-D Coin
80
apple-yapilan-ve-csam-tespit-sistemini-hedef-alan-baskilar-artiyor.jpg

Apple'ın kullanıcıların verilerini otomatik olarak tarama ve çocuk istismarı ile ilgili içeriklerin çocuklar tarafından görülmesini engelleme girişimi olan CSAM tespit sistemi, gizlilik ve güvenlik endişeleri nedeniyle Dünya çapında eleştirilmeye devam ediliyor. Karşı çıkanlar, Apple her ne kadar bu girişimi iyi niyetle yapmış olsa da, verileri izlemek için kullanılacak olan teknolojinin uçtan uca şifrelemenin prensiplerini bozmakta olduğunu söylüyor.

Aslında endişeler, böyle bir teknoloji var olduğunda hükümetlerin Apple'a baskı yapıp bu teknolojiyi başka amaçlar için kullanma imkanının bulunması tarafında yoğunlaşıyor. Her ne kadar amaç çocuk istismarını önlemek olsa da, aynı teknoloji ve kurulu sistem sansür ve güvenlik tehdidi olarak da kullanılabilir deniyor. Zira bu teknoloji devreye alındığında uçtan uca şifrelemeli mesaj sistemi sadece gönderici ve aracı arasında doğrudan güvenli ve gizli bir iletişim sunmayacak, dinlenebilir olacak.

Konu ile ilgili bir açıklama yapan itiraz grupları, yayınladıkları yeni bir açık mektupta, "Müstehcen içeriği tespit etmek için tasarlanmış algoritmalar herkesin bildiği gibi güvenilmezdir. Yanlışlıkla sanatı, sağlık bilgilerini, eğitim kaynaklarını, savunuculuk mesajlarını ve diğer görüntüleri de aykırı olarak işaretlemeye eğilimlidirler. Uyarı gönderilecek hesabın sahibi zorbalığı yapan kişi olabilir ve bu işlem, çocuğun güvenliğini ve refahını tehdit edebilir" diyor.
  • Apple'ın CSAM Tespit Sistemi Nedir?
Apple, duyurusundan bu yana dile getirilen endişelere yanıt olarak, kötüye kullanımı önlemek için uygulamaya koymayı planladığı çeşitli politikaları özetleyen bir belge yayınladı ve belirtilen kullanım durumunun ötesinde materyale erişim için bir hükümetin herhangi bir talebini kabul etmeyeceğini söyledi.




 

Similar threads

Birkaç gün önce Apple, makine öğrenimi kullanarak iCloud'a yüklenen fotoğrafları taramasını ve bunların hash kodlarını çocuk istismarına karşı çalışan CSAM ve NCMEC veri tabanlarıyla karşılaştırılan yeni takip teknolojisini kullanmaya başlayacağını duyurmuştu. Firma ayrıca 13 yaşından küçük bir...
Cevaplar
0
Görüntüleme
37
Apple, geçtiğimiz günlerde yeni bir özelliği yürürlüğe koyacağını duyurdu: Çocuk cinsel taciz materyali (Child Sexual Abuse Material - CSAM) tespit özelliği. Yani kullanıcı fotoğraflarını çocuk istismarına karşı kontrol etmek için iCloud'a yüklenen fotoğrafları otomatik olarak taramak. Şirket...
Cevaplar
0
Görüntüleme
80
Apple, geçtiğimiz günlerde kullanıcıların iCloud fotoğraflarında çocuklara yönelik cinsel istismarla ilgili görselleri tarayabilen yeni bir çocuk güvenliği özelliğini kullanıma sundu. Ancak, genellikle olduğu gibi, bu kararı mahremiyet savunucularından gelen ciddi eleştiriler izledi...
Cevaplar
0
Görüntüleme
45
Kullanıcılarının güvenliği konusunda bir hayli çaba sarf eden Apple, geçtiğimiz hafta çocuk istismarını engellemeye yönelik yeni özelliği CSAM'i duyurmuştu. Bu özellik, bu yılın son aylarından itibaren iCloud sistemine yüklenen fotoğrafları tarayacak ve çocuk istismarına yönelik bir fotoğraf...
Cevaplar
0
Görüntüleme
69
ABD merkezli teknoloji devi Apple, dünyadaki en büyük tehlikelerden bir tanesi olan çocuk istismarına karşı yeni ve önemli bir karar aldığını açıkladı. Şirket tarafından yapılan açıklamalara göre iPhone'lar artık, çocuk istismar görüntüsü içerip içermediğinin tespiti adına otomatik olarak...
Cevaplar
0
Görüntüleme
70
858,500Konular
982,373Mesajlar
32,973Kullanıcılar
Üst Alt