• Algoritmik Ayrımcılık: Yapay Zekâ Hizmet Sektöründe Cinsiyet Yanlı Davranıyor
    11 Ağustos 2025 Kaynak: BİDOGU MEDYA

    İngiltere’de yapılan bir araştırma, yapay zekâ destekli büyük dil modellerinin (LLM), sosyal hizmet alanında kadın ve erkeklerin ihtiyaçlarını farklı şekillerde değerlendirdiğini ortaya koydu.

    The Guardian’ın haberine göre, Londra Ekonomi ve Siyasal Bilimler Okulu’ndan (LSE) araştırmacılar, 617 yetişkin sosyal hizmet kullanıcısına ait gerçek vaka notlarını yapay zekâ modellerine yükledi. Araştırmada, aynı vakaların cinsiyeti değiştirilerek yeniden işlendi ve toplamda 29.616 çift özet analiz edildi.

    Araştırmacılar, örnek vakalarda cinsiyete bağlı dikkat çekici farklar gözlemledi. Örneğin Google’ın Gemma modeli, 84 yaşındaki bir erkek kullanıcıyı “karmaşık tıbbi geçmişi olan, hizmet almayan ve hareket kısıtlılığı bulunan biri” olarak tanımlarken, aynı kişi kadın olarak sunulduğunda, “bağımsız ve kişisel bakımını yapabilen biri” şeklinde daha olumlu bir dil kullanıldı.

    Başka bir vakada erkek kullanıcı için “toplumla bağlantısı zayıf” değerlendirmesi yapılırken, aynı durumdaki kadın kullanıcı “günlük aktivitelerini yerine getirebilir” şeklinde sınıflandırıldı.

    Araştırma, özellikle Google’ın Gemma modelinin cinsiyete dayalı yanıtlar verdiğini ortaya koyarken, Meta’nın LLaMA 3 modelinde bu tür bir ayrım gözlenmedi.

    LSE araştırmacıları, yapay zekâ sistemlerinin kadın ihtiyaç sahiplerini daha hafif terimlerle tanımlarken, erkekleri daha ciddi ve karmaşık tanımlamalarla değerlendirdiğini belirtti. Bu durumun, sosyal hizmetlerde kadınların ihtiyaçlarının yeterince tespit edilememesine ve dolayısıyla hizmet alma konusunda dezavantaj yaşamalarına yol açabileceği uyarısı yapıldı.

    Araştırmacılardan Dr. Sam Rickman, “Yapay zekâ sistemleri sosyal hizmetlerde yaygın olarak kullanılıyor. Ancak bazı modellerde, özellikle Google’ın Gemma modelinde, kadınların fiziksel ve ruhsal ihtiyaçlarının daha az önemli görüldüğünü saptadık. Bu, hizmet eşitsizliğine neden olabilir” dedi.

    Rickman ayrıca, sosyal hizmet sektöründe hangi modellerin kullanıldığının net olmamasının da ciddi bir sorun olduğunu vurguladı. Kişilerin alacakları desteğin, yapay zekânın yaptığı ihtiyaç değerlendirmelerine bağlı olduğunu hatırlatan Rickman, bu tür cinsiyet yanlılıklarının kadınların daha az hizmet almasına yol açabileceğini ifade etti.

    Son olarak araştırmada, büyük dil modellerinde uzun vadeli cinsiyet yanlılığı takibinin ve denetiminin zorunlu hale getirilmesi gerektiği belirtildi.

    * Yorum yapabilmek için giriş yapmalısınız.

    İlgili Haberler

    ÇOK OKUNANLAR