İşlevini arayan alet: Yapay zekâ
İllüstrasyon: Gerd Altman/Pixabay
Stanford Üniversitesinin yapay zeka alanına dair yıllık olarak hazırladığı “yapay zeka endeksi raporu” birkaç gün önce yayımlandı. Yazım ve düzenlenmesinde ChatGPT ve Claude geniş dil modellerinden de yararlanılan beş yüz sayfalık rapor alandaki hemen her konu ve tartışmayı ele almaya çalışmış. Rapor alanın sorunlarına da değinmekle birlikte genelde yapay zekanın özelde de geniş dil modellerinin geleceğine dair büyük ölçekte olumlu bir tablo çiziyor. Raporun destek ortakları arasında OpenAI, Google ve QUID gibi geniş dil modellerinden doğrudan gelir elde eden şirketlerin bulunması raporu biraz daha şüpheci bir gözle ele almamızı da zorunlu kılıyor.
Detaylandırılabilecek çokça başlık olmakla birlikte raporda öne çıkartılan bazı iddialar şöyle:
- 2023’te şirketler 51 geniş dil modeli üretirken akademinin ürettiği model sayısı 15 ile sınırlı kaldı. 21 model ise “üniversite-sermaye” iş birliği ile geliştirildi.
- Görsel sınıflandırma, İngilizceyi anlama ve görsel muhakeme gibi bazı işlerde insandan daha başarılı hale geldi. Ancak daha pek çok işte insan seviyesinin altında.
- Modellerin eğitimi için gereken işlem gücü maliyeti milyon dolarlarla ölçülen seviyelere çıktı.
- Öne çıkan modellerin geliştirilmesinde ABD 61 modelle başı çekiyor. 2023’te Avrupa Birliği 21, Çin ise 15 model geliştirdi.
- Yapay zeka alanına yapılan yatırımlar yıldan yıla düşmekle birlikte üretken yapay zeka (gen. AI) alanına yapılan yatırımlar ciddi oranda arttı.
- GNoME, AlphaDev ve AlphaMissence gibi bilimsel gelişmeyi hedefleyen yapay zeka uygulamaları ile yapay zekanın bilimsel gelişmeye katkısı arttı.
- Yapay zeka alanında alınan patent sayısında ciddi artış var. Çin gerek yeni patentlerde gerek patent toplamında başı çekiyor.
- Geniş dil modellerinin çıktıları telifli materyaller içerebiliyor. Bunların telif ihlali oluşturup oluşturmadığı hâlâ çözülmemiş bir problem.
- Yapay zekanın kötüye kullanımı artıyor.
- Yapay zeka kullanımı çeşit alanlarda maliyeti düşürürken kârı arttırıyor. Şirketlerin iş akışlarına yapay zekayı dahil etme oranları artıyor.
- “Fortune 500” şirketlerinin 394’ünün kazanç duyuruları yapay zekaya atıfta bulunuyor.
Raporun toplamda yapay zeka alanını dikensiz bir gül bahçesi gibi göstermeye çalışmadığını ama tüm sorunlarına rağmen iyimser bir gelecek öngörüsü sunduğunu söyleyebiliriz. Ancak tam da bu noktada raporun çizdiği pembemsi tabloya koca bir soru işareti koymamız gerekiyor. Soru işaretlerimizi -şimdilik- raporun öne çıkarttığı noktalarla kısıtlı tutmaya çalışarak başlayalım:
- Yapay zekanın geleceği açısından belirleyici unsurun akademi değil de şirketler olması yapay zeka teknolojilerinin genel olarak insanlığın çıkarlarını değil şirketlerin çıkarlarını baz alarak ilerleyeceği anlamına gelir.
- Gen. AI modelleri ile çeşitli işlerde kısmi başarılar elde edildi elbette ancak bu kısmi başarılar modellerin geliştirilmesi için yapılan ve her yeni model için de katlanarak artan masrafı karşılayacak düzeyde değil. Üstelik dil modellerinin niteliğini lineer olarak arttırabilmek için gereken veri miktarı üstel olarakartıyor. ve gen. AI modellerini geliştiren şirketler yasal ve yasa dışı yollardan bulabilecekleri verilerin neredeyse tamamını kullanmış durumdalar. Geniş dil modellerindeki ilerleyiş bu nedenle oldukça yavaşlamış durumda.
- Gen. AI üreticisi şirketler büyük vaatlerle pek çok şirketten ya yatırım aldılar ya da pek çok şirketi müşterileri haline getirdiler. Ancak vaatlerin büyük kısmı henüz hayat bulmadığından geniş dil modellerinin üreticisi olmayan ama bunları kullanmaya çalışan şirketlerde bu modellerin geleceğine dair şüpheler de artmaya başladı.
- GNoME ile keşfedilen materyallerin pek de öyle anlamlı keşifler olmadığının ortaya çıkması ve ilk “yapay zeka yazılım mühendisi Devin”in koca bir pazarlama numarası olduğunun anlaşılması gibi örnekler bilimsel gelişmeye katkı iddialarını şüpheli hale getiriyor.
Yapay zekaya dair gerçek durumun ne olduğundan bağımsız olarak yükselen trendle birlikte kurumlar, hükümetler ve şirketler yapay zeka uygulamalarını çeşitli işlere entegre etmeye çalışıyor. Ancak bu entegre çabasının kesin bir şekilde doğru bilgi aktarmayı vb. gerektiren kritik işlerde kullanımı şimdiye kadar tek bir iyi sonuç vermedi. Son olarak Dünya Sağlık Örgütünün sohbet botu SARAH, gerçekte var olmayan hastanelerin vb. adresini vererek mevcut modellerin bu tip işlere uygun olmadığını milyonuncu kez kanıtladı. Özetle elimizde sınırlı da olsa işe yarayan ancak vadedildiği işlerin çoğunda istenilen verimi göstermenin oldukça uzağında olan modeller var. Bu modellerin sorunlarını aşarak ciddi bir ilerleme kaydetmeleri ise oldukça şüpheli görünüyor. Modellerde radikal bir gelişme gerçekleşmezse geniş dil modellerini derin bir çöküş bekliyor.
- Çocukları çevrimiçi tehlikelerden kim koruyacak? 14 Aralık 2024 04:24
- Sosyal medyaya yaş sınırlaması çocukları koruyabilir mi? 30 Kasım 2024 04:50
- Medyanın arama tekeli ile imtihanı 23 Kasım 2024 05:01
- Teknoloji patronları ABD seçiminin galiplerinden 09 Kasım 2024 04:32
- Platformlar ve yayıncılar çevrim içi radikalleşmenin neresinde? 19 Ekim 2024 06:56
- Hamam böceği yuvası mutfakta değil 10 Ekim 2024 04:55
- ‘Yerli ve milli’lik siber güvenliğin neresinde? 21 Eylül 2024 06:01
- Sızan/sızmayan veri ve sonrası 14 Eylül 2024 04:54
- Modern İskenderiye Kütüphanesi yanarken 07 Eylül 2024 04:43
- Genç oyun geliştiricilere vadedilen kabus 24 Ağustos 2024 05:58
- Oyunları kim, neden hedefe koyar? 17 Ağustos 2024 05:04
- Sansür, ebeveynler ve oyunlar 10 Ağustos 2024 06:30