Apple’ın çocuk istismarı bahanesi ile aralamak istediği kapı

Fotoğraf: Jan Vašek/Pixabay
Johns Hopkins’den Matthew D. Green, perşembe sabahı Apple’ın çocuğun cinsel istismarını içeren içerikleri kullanıcı tarafında tarayacak yeni bir araç seti yayımlayacağını duyurdu. İlk bakışta çocuğun cinsel istismarı ile mücadele açısından oldukça akla yatkın gözüken bu yaklaşımın haberi hızla yayıldı ve güvenlik uzmanları ile kişisel mahremiyet savunucularından itirazlar art arda yükseldi. Apple bir açıklama yayınlayarak durumu doğruladı. Uygulamanın ABD’de yıl sonuna doğru iOS 15 ile başlatılması hedefleniyor.
Birkaç hatırlatma ile başlayalım. Çocuğun cinsel istismarı gerek sansür tartışmalarında gerekse de kişisel verilerin gizliliği tartışmalarında sık kullanılan bir argüman. Bu argüman sansür yasalarının topluma kolayca kabul ettirilmesi açısından da işlev üstleniyor. Türkiye’de Internet sansürünün bel kemiği 5651 sayılı yasanın tartışmaları “çocuk pornosu” ve “Atatürk’e karşı işlenen suçlar” üzerinden yürütülmüştü. Yasanın ucu açıklığı ve bunun sansüre yol açacağı ile ilgili uyarılarda bulunanlar dikkate alınmamış, yasa muhalefetin ciddi bir itirazına uğramadan Meclisten geçirilmişti. 5651 sayılı yasa ve buna dayanarak kurulan kurumların bugün nasıl kullanıldığı, neyi sansürlediği hepinizin malumu.
NeuralMatch, ABD Kayıp ve İstismara Uğrayan Çocuklar Merkezinin oluşturduğu veri tabanından 200 bin görselle eğitilecek bir algoritma. Kullanıcı tarafındaki yazılım neuralMatch ile haberleşerek benzeşen eşleme olup olmadığına bakacak ve birden fazla benzeşen eşleme halinde insanlar tarafından kontrol edilmesi için görselleri Apple’a iletecek.
Başta istihbarat servisleri olmak üzere birçok kurum şifrelemenin “terörle mücadelede” kendilerine nasıl engel olduğunu uzun uzadıya anlatıp teknoloji şirketlerine sistemlerine arka kapılar koymaları için baskıda bulunuyor. Bu baskıya hangi şirketler boyun eğmiştir bilinmez ancak Apple’ın bu konuda geçmişi temiz değil. Snowden belgeleri Apple’ın dev bir telekulak sistemi olan PRISM programının katılımcısı olduğunu ortaya çıkarmıştı. Yine Apple’ın Çin’deki politikası da zaman zaman devlet baskısına boyun eğebildiğinin kanıtı. Apple’ın çocuğun cinsel istismarının engellenmesi üzerinden aklayarak aralamaya çalıştığı bu arka kapının yarın yeterli baskı ile başka içerikler için kullanılması küçük bir olasılık değil.
NeuralMatch algoritmaları büyük olasılıkla ticari sır olarak gizleneceği için algoritmanın neyi neyle ve nasıl eşlediğine, ne kadar hatalı eşleme yaptığına dair bir fikrimiz yok. Bugüne kadar veri setleri ile eğitilen algoritmalardan bildiğimiz trajikomik hatalar yapabildikleri. Kasıtlı hatalı eşlemeye yol açabilecek içeriklerin zorlanmadan üretilebileceği tartışmaları bir yana bu hatalı eşlemelerin insanların hayatını karartması da ciddi bir olasılık.
Çocuğun cinsel istismarı materyalleri gibi büyük bir suçu geçtim herhangi bir ufak suç için dahi resmi makamların cihazınızda tarama yapabilmesi için çoğu ülkede ya mahkeme kararına ya da sizin onayınıza ihtiyaç duyuluyor. Apple’ın “cihazınızı sizden izinsiz tarama hakkım var” minvalindeki bu pratiği yasalarla korunan bir hakkın da baypas edilmesi.
Apple’ın bu kapıyı aralamasının ardından diğer teknoloji şirketlerinin de Apple’a katılıp kapıyı ardına kadar açmaları halinde hepimizin olağan şüpheli sayılarak dev bir gözetim mekanizmasının içine atılacağımız kesin. Böyle bir gözetim mekanizmasının hayalleri ile ağzı sulanan istihbarat servisleri şimdiden bu mekanizmaları nasıl kullanabileceklerine dair plan yapmaya başlamıştır.
Son bir not olarak çocuğun cinsel istismarını içeren materyallerle mücadele kulağımıza hoş gelse de bunu üreten yapılar ve sistemlerle değil bunların ortaya çıkardıkları ile mücadeledir. Söz konusu mücadele, bunları ortaya çıkaran yapılarla ve sistemlerle açık, doğrudan ve sistematik bir mücadelenin olmadığında beyhude bir çabadır.
Evrensel'i Takip Et