Ağustos ayındaki ilk duyurusundan çok sonra ve henüz piyasaya sürülmemiş bir bileşenle ilgili önemli tartışmaların ardından Apple, çocukları cinsel içerik göndermeye veya almaya karşı korumak için tasarlanmış bir iPhone özelliğini İngiltere’ye genişletiyor.
Mesajlarda İletişim Güvenliği sonunda Aralık ayında iOS 15.2 nokta güncellemesinin bir parçası olarak başlatıldı. Ancak şimdiye kadar bu ABD ile sınırlıydı. Guardian, Apple’ın bu özelliği İngiltere’ye getirmeyi planladığını duyurduğu haberini verdi, ancak zaman çerçevesi belirsizliğini koruyor.
Bu özellik, bir çocuğun cihazında etkinleştirildiğinde, Mesajlar üzerinden alınan tüm fotoğrafları çıplaklık açısından taramak için cihaz üzerinde bir yapay zeka aracı kullanır. Bir tane bulunursa, görüntü bulanıklaşacak ve kullanıcı, yardımcı kaynakların bağlantılarının yanı sıra hassas içerik içerebileceğine dair bir uyarı alacaktır. Benzer şekilde, araç gönderilen fotoğrafları tarar. tarafından çocuk ve herhangi bir çıplaklık tespit edilirse materyali göndermemeleri ve bir yetişkinle iletişime geçmeleri tavsiye edilir.
Apple, “Mesajlar, resim eklerini analiz eder ve bir fotoğrafın çıplaklık içerip içermediğini belirlerken mesajların uçtan uca şifrelemesini korur” diye açıklıyor. “Özellik, çıplaklık tespitine dair hiçbir göstergenin cihazdan asla çıkmaması için tasarlandı. Apple, mesajlara erişemez ve ebeveyne veya başka birine herhangi bir bildirim gönderilmez.”
Apple’ın gizlilik gruplarından yaşadığı geri dönüşü yansıtan özellik, ilk planlardan sulandı. Orijinal konseptinde, özelliğin 13 yaşın altındaki çocuklar tarafından gönderilen veya alınan görüntülerde çıplaklık tespit edildiğinde ebeveynleri otomatik olarak bilgilendirmesi gerekiyordu, ancak bu tartışmalı yön kaldırıldı. Bu özellik artık çocuklara, görüntüyü izleme kararından ayrı olarak, isterlerse güvenilir bir yetişkine mesaj gönderme yeteneği veriyor.
Bir dizi çocuk güvenliği özelliği – aynı zamanda, karma kullanarak iCloud’a yüklenen fotoğrafları taramak ve bunları bilinen bir Çocuk Cinsel İstismarı Malzemesi veritabanıyla karşılaştırmak için tartışmalı bir AI aracı da dahil olmak üzere – başlangıçta geçen yılki iOS 15 yazılım güncellemesinin bir parçası olarak görünecekti. . Apple, CSAM bileşenini geçen yılın sonlarında erteledi ve henüz uygulamadı.
Bu benim için ne anlama geliyor?
Özellik iOS 15.2’den beri aktif olduğu için ABD’li okuyucular bu haberden etkilenmedi. Mesajlarda İletişim Güvenliği ikinci bir ülkeye yayılıyorsa, Apple’ın sonuçlarla rahatladığını ve ABD’de geri adım atıp kaldırma olasılığının düşük olduğunu söyleyebiliriz. Bu özellik yalnızca Mesajlar’da alınan resimleri etkiler ve çocuğunuzun Fotoğraf Kitaplığında saklanan fotoğrafları taramaz.
Çocuk sahibi olan İngiltere’deki okuyucular, yakında çocuklarının telefonlarında bu özelliği etkinleştirme seçeneğine sahip olacaklar (varsayılan olarak devre dışıdır) ve böylece potansiyel olarak cinsel içerik için cihazda taramayı etkinleştirecekler. Ancak yukarıda açıkladığımız gibi, bu taramaların sonuçları ebeveynlerle otomatik olarak paylaşılmayacaktır, ancak özelliği etkinleştirmeyi planlıyorsanız, dijital paylaşımın yapılması ve yapılmaması gerekenler hakkında daha geniş bir tartışmanın parçası yapmak akıllıca olacaktır. .
Kaynak : https://www.macworld.com/article/634031/apple-expands-iphone-child-safety-feature-to-the-uk.html