Yapay zeka tehdidi
Görsel: DALL-E
Yapay zeka alanındaki gelişmeler, insanlığın çıkarına pek çok olasılığın yanı sıra çok sayıda riski de barındırarak geliyor. Yapay sinir ağları üzerine çalışmaları ile tanınan, derin öğrenme alanındaki çalışmaları ile 2018’de Turing Ödülü’ne layık görülen ve kimilerince “yapay zekanın vaftiz babası” olarak da anılan Geoffrey Hinton, yapay zekanın insanlık için bir tehdit olacak denli gelişmesinin akıl almaz bir senaryo olmadığını ifade ediyor. Böyle bir senaryonun anti kahramanı olması muhtemel kendi kendine yetebilecek yapay genel zekaların henüz çok yakınında değiliz. Hinton ve alanın diğer pek çok uzmanına göre daha nereden baksanız 15-20 yılımız var. Bu nedenle Terminatör ya da Matrix benzeri senaryoları tartışmak için biraz erken. Ancak GPT ve benzeri geniş dil modelleri de kullanımlarında yaşanan hızlı büyüme göz önünde bulundurulduğunda ciddi risklerle birlikte geliyor.
Feedly, birkaç gün önce iki yeni yapay zeka modelini kullanıma açmanın “heyecanını duyduklarını” belirten bir açıklama yayımladı. Yeni modeller “eylemlerin” ve “şiddet içeren eylemlerin” takibi içindi. Feedly’nin ilk tanıtımından doğrudan amacı aktarayım: “Güvenlik analistlerinin bir şirketin varlıkları ve çalışanları için risk oluşturan ayaklanmaları, grevleri ve mitingleri takip etmelerine yardımcı olurlar. Bu yapay zeka modelleri sayesinde belirli coğrafyalar, sosyopolitik olaylar veya şirketlerle ilgili protestoların takibi daha kolay ve verimli hale geliyor.” Zaten dünya genelinde eylemler, eylemciler ve genel olarak muhalifler başta iktidarlar olmak üzere çoğunlukla da yasallığı tartışmalı araçlar ve yollarla gözetim altında tutulurken yapay zekanın bir kullanım alanı olarak eylemler ve eylemcilerin gözetlenmesinin şirketlere hizmet olarak sunulması başlı başına bir mesele.
Yükselen tepkiler üzerine Feedly “Mesajımız yanıltıcı olmuş, bu çalışanların güvenliğini sağlayabilmek içindi” diyerek geri basmış gibi görünse de Feedly yapay zeka destekli gözetim konusunda yalnız değil. Geçen hafta Fransa Ulusal Meclisi, 38 örgüt ve kurumun itirazlarındaki gerekçeleri [1] görmezden gelerek 2024 olimpik ve paralimpik oyunlarının güvenlik kamerası görüntülerinin “ölçekleri veya koşulları itibariyle terör eylemleri riskine veya kişilerin güvenliğine yönelik ciddi tehditlere özellikle maruz kalan spor, eğlence veya kültür etkinliklerinin güvenliğini sağlamak amacıyla” otomatikleştirilmiş analizine onay verdi. Açık sosyal medya hesaplarından 30 milyara yakın sayıda fotoğrafı izinsiz olarak topladığı için Avrupa ve Avustralya’da defalarca kez milyon dolarlık cezalara çarptırılan “yüz tanımlama servisi” Clearview AI’ın CEO’su ABD polisinin 1 milyona yakın yüz sorgulaması yaptığını BBC’ye verdiği röportajda açıkladı.
Yapay zeka destekli gözetim gibi risklerin dışında oltalama saldırıları ve dolandırıcılık amaçlı kullanımlardan tutun da kötü niyetli kullanımlar için kişilerin üsluplarının ya da seslerinin vb. taklit edilmesine dek uzanan genişçe bir risk haritası var önümüzde. Üstelik bu risk haritası üzerinde yer alan birçok başlıkta şirketler ve devletlerin çıkarları ile insanlığın çıkarları uyuşma halinde olmayı geçtim taban tabana zıt. Hal böyle iken yapay zekanın denetimi ve kontrolünü şirketlere de devletlere de bırakmayan çözümlere ihtiyaç var.
- Sosyal medyaya yaş sınırlaması çocukları koruyabilir mi? 30 Kasım 2024 04:50
- Medyanın arama tekeli ile imtihanı 23 Kasım 2024 05:01
- Teknoloji patronları ABD seçiminin galiplerinden 09 Kasım 2024 04:32
- Platformlar ve yayıncılar çevrim içi radikalleşmenin neresinde? 19 Ekim 2024 06:56
- Hamam böceği yuvası mutfakta değil 10 Ekim 2024 04:55
- ‘Yerli ve milli’lik siber güvenliğin neresinde? 21 Eylül 2024 06:01
- Sızan/sızmayan veri ve sonrası 14 Eylül 2024 04:54
- Modern İskenderiye Kütüphanesi yanarken 07 Eylül 2024 04:43
- Genç oyun geliştiricilere vadedilen kabus 24 Ağustos 2024 05:58
- Oyunları kim, neden hedefe koyar? 17 Ağustos 2024 05:04
- Sansür, ebeveynler ve oyunlar 10 Ağustos 2024 06:30
- Roblox sansürü çocukları koruyabilir mi? 09 Ağustos 2024 04:15