yapay-zeka-kullanimi-etik-disi-davranislari-artiriyor

Yapay Zekâ Kullanımı Etik Dışı Davranışları Artırıyor

Yapay zekâ (AI) hayatımızın her alanına hızla entegre olurken, etik tartışmalar da giderek büyüyor. Nature dergisinde yayımlanan yeni bir araştırmaya göre yapay zekâ kullanan insanlar çok daha fazla yalan söylemeye ve hile yapmaya meyilli. Berlin’deki Max Planck Institute for Human Development bünyesinde görev yapan davranış bilimci Zoe Rahwan, bu durumun “insan ile eylemleri arasında kolay bir ahlaki mesafe yarattığını” vurguluyor. Araştırmanın sonuçları, eğitimden iş dünyasına kadar birçok alanda ciddi endişeler uyandırıyor.

 Max Planck ve Nature Araştırması: 8.000 Katılımcıyla 13 Deney

Araştırmacılar, yapay zekâ ile etik davranış arasındaki ilişkiyi anlamak için 13 deney gerçekleştirdi. Çalışmalara toplam 8.000 katılımcı dahil edildi ve sonuçlar Nature dergisinde yayımlandı. Deneylerin amacı, insanların AI’ye talimat verirken ne ölçüde dürüst davrandığını ölçmekti. Zoe Rahwan ve Iyad Rahwan, bulguların insan-makine etkileşiminde etik sınırların yeniden düşünülmesi gerektiğini açıkça ortaya koyduğunu belirtti.

 Zar Deneyi: AI ile Hile Oranı %95’ten %75’e Düştü

En dikkat çekici deneylerden biri, zar atma senaryosu oldu. Katılımcılar, attıkları zarı doğru ya da yanlış bildirerek ödeme alıyordu. AI kullanılmadığında %95 oranında dürüstlük gözlenirken, AI devreye girdiğinde dürüstlük oranı %75’e düştü. Üstelik katılımcılar, AI modelini manipüle ederek sürekli en yüksek zar sonucunu raporlama eğilimine de girdiler.

Vergi Beyanı Senaryosu: AI Kullanıldığında Hile Arttı

Araştırmada yapılan bir başka deney ise vergi beyanı üzerineydi. Katılımcılar, yaptıkları işten elde ettikleri geliri bildirmekle yükümlüydü. Sonuçlar çarpıcıydı: AI kullanıldığında gelir yanlış beyanı çok daha sık görüldü. Bu bulgu, özellikle iş dünyası ve finans sektöründe yapay zekânın etik risklerini gözler önüne seriyor.

Eğitim ve Hukuk Dünyasında AI İkilemi

Araştırma bulguları, medyada sıkça gündeme gelen AI ile kopya çekme ve sahte içerik üretme haberlerini de destekliyor. Öğrencilerin AI ile ödev yapması, avukatların ise uydurma AI kaynaklarını mahkemelere sunması örnekleri, bu etik sorunların gerçek hayatta da yaşandığını kanıtlıyor. Popüler yayın organlarında sık sık tartışılan bu gelişmeler, AI’nin güvenilirliğini sorgulatıyor.

Uzmanlardan Çağrı: Regülasyon ve Toplumsal Sorumluluk

Araştırmanın ortak yazarlarından Iyad Rahwan, aynı zamanda Center for Humans and Machines at Max Planck direktörü, yapay zekânın kontrolsüz kullanımına karşı uyarıyor. Rahwan, “Teknik önlemler ve düzenleyici çerçeveler acilen geliştirilmelidir” diyor. Ancak asıl meselenin, insanların makinelerle ahlaki sorumluluğu paylaşmayı öğrenmesi olduğunun da altını çiziyor.