Apple, çocuk istismarına karşı telefonları tarama planını askıya aldı

Mezopotamya

New member
ABD’li teknoloji şirketi Apple, internet sitesinden yaptığı açıklamada, çocukların irtibat araçları ile cinsel istismarını ve bu tıp gereçlerin yayılmasını önlemek için geliştirdikleri özelliklerin kullanıma girmesini, müşterilerden, araştırmacılardan ve hak savunucusu kuruluşlardan gelen yorumlar üzerine ertelediklerini belirtti.

Açıklamada, sistemin büsbütün masadan kaldırılmadığı, lakin tenkitler doğrultusunda geliştirebilmek için lansmanın ertelendiği vurgulandı. Lakin özelliklerin ne vakit devreye girebileceğine ait bilgi paylaşılmadı.

Çocuk istismarına karşı üç evreli tedbir

Apple’ın geçen ay kullanıcıların iCloud içeriklerini çocuk istismarı içeren imaj ve görüntülere karşı tarayacağını açıklaması, şirketin şahsi kapalılık siyasetleriyle çeliştiği için tartışmalara niye olmuştu.

Apple çocuk istismarına karşı aldıkları üç kademeli tedbirlerin birinci basamağında, yapay zeka teknolojileri yardımıyla özel yazışmaları görüntülemeden, sırf CSAM (Child Sexual Abuse Material) olarak anılan hassas içerik taraması yapacağını açıklamıştı.

Kelam konusu sistem, çocuk istismarı ile ilgili kuşkulu görselleri, gerçek şahısların incelemesine sunarak gerektiğinde güvenlik güçlerinin uyarılmasını sağlayacaktı.
 
Üst