Sevgili eski ev arkadaşım Assoc. Prof. Elif Gezgin ile yaptığımız bir sohbette, toplumsal meselelerden yapay zekâya uzandık. Eski bir sosyolog olarak, son günlerde bu alana yeniden bu gözle bakmam gerektiğini hissettim. Elif’in eleştirileri beni şu düşünceye götürdü:
“Yapay zekâyı konuşurken hep ne yapabildiğini soruyoruz; ama ne yapmaması gerektiğini çok az konuşuyoruz.”
Bu sohbetten sonra şunu fark ettim: Responsible AI (Sorumlu Yapay Zekâ) çoğu zaman teknik bir başlık gibi anlatılıyor ama aslında doğrudan bizi, yani kullanıcıyı ilgilendiriyor. Ve bu alanda çalışan biri olarak, bu konuyu daha çok konuşmamız ve daha çok anlatmamız gerektiğini bir kez daha hissettim. Bu yüzden bunları yazmak istedim.
Günlük hayatta kullandığımız ürünleri düşünün: ChatGPT, Google Translate, DeepL, Grammarly, Microsoft Copilot, Google Search’teki AI özetleri, YouTube–Netflix–Spotify öneri sistemleri…
Farkında olsak da olmasak da, bu ürünlerin hepsi kararlarımızı etkiliyor.
Responsible AI tam olarak burada devreye giriyor. Çünkü sorumlu bir AI ürünü, sadece iyi sonuç üretmez; bunu nasıl sunduğuna da dikkat eder.
Somut örneklerle düşünelim:
• ChatGPT, verdiği cevapların kesin doğru olmayabileceğini açıkça belirtmeli
• Google Translate ve DeepL, tek bir çeviri dayatmak yerine bağlama göre alternatifler sunmalı
• Microsoft Copilot, yaptığı önerilerin hangi verilerden ve bağlamdan geldiğini açıklamaya çalışmalı
• Netflix, YouTube ve Spotify, “neden bunu öneriyoruz?” açıklamalarıyla öneri mantığını görünür kılmalı
Bunların hepsi küçük ama çok kritik işaretlerdir.
Çünkü Responsible AI, yapay zekânın sana karar vermesi değil, kararını desteklemesi demektir.
Seni yönetmesi değil, bilgilendirmesi demektir.
Bir kullanıcı olarak şunu sormak çok doğal olmalı:
Bir ürünü kullanırken gerçekten sorumlu olup olmadığını nereden anlayacağız?
Tek bir yer yok ama bazı net ipuçları var. Büyük ürünler bunu genelde
“Responsible AI”, “AI Principles”, “Trust & Safety” veya “Transparency” başlıkları altında açıklar.
Web sitelerindeki “About”, “Safety” ya da “Trust Center” sayfalarında şunları arayabilirsiniz:
• AI nerede ve ne amaçla kullanılıyor?
• Nerelerde sınırlı olduğu açıkça söyleniyor mu?
• “Bu kesin sonuçtur” mu diyor, yoksa belirsizlikleri gösteriyor mu?
• Geri bildirim verdiğimde bunun bir karşılığı var mı?
Eğer bir ürün bunları hiç anlatmıyorsa, bu da aslında önemli bir bilgidir.
“Peki bunun bir yasası yok mu?” sorusu da çok kritik.
Evet, var — ama her yerde aynı değil.
Örneğin Avrupa Birliği’nin AI Act’i, yapay zekâ sistemlerini risk seviyelerine göre sınıflandırıyor ve özellikle işe alım, sağlık, eğitim gibi alanlarda ciddi yükümlülükler getiriyor. Dünyanın diğer bölgelerinde ise daha çok ilke bazlı düzenlemeler var. Yani denetim artıyor ama henüz her ürün aynı düzeyde kontrol edilmiyor.
Bu yüzden bu konunun daha çok konuşulması gerektiğini, özellikle de Orta Doğu gibi daha hiyerarşik ve otorite odaklı toplumlarda, çok önemsiyorum. Aksi hâlde, Elif’in de söylediği gibi, tartışma kolayca şu noktaya kayıyor:
“Bu teknoloji bize ne yapabilir?” ya da “Biz bu teknolojiyle ne yapabiliriz?”
Oysa asıl soru şu olmalı:
Yapay zekâ, insanla nasıl bir ilişki kurmalı?
Yapay zekâdan sadece daha fazlasını değil,
daha sorumlusunu istemek hepimizin hakkı.
Son olarak şunu da özellikle söylemek istiyorum: Elif gibi sosyologların bu konularda sorduğu sorular, biz teknik alanlarda çalışanlar için gerçekten dönüştürücü oluyor. Çünkü bu sorular yalnızca “nasıl çalışıyor?”u değil, “neye hizmet ediyor, kimi dışarıda bırakıyor, kime güç veriyor?” sorularını da masaya koyuyor. Açıkçası bu soruların daha yumuşak değil, daha sert, daha belirgin ve daha ısrarcı sorulması gerektiğini düşünüyorum. Yapay zekâ gibi toplumu doğrudan etkileyen teknolojilerde, teknik ilerleme ancak sosyal bilimlerin açtığı bu eleştirel alanla birlikte anlamlı ve sağlıklı bir yere oturabiliyor.