BİDOGU- OpenAI, zararlı içeriklere karşı yeni ve katı kurallar getirdi. Konuşmalar izleniyor, tehlikeli durumlar kolluk kuvvetlerine bildirilebiliyor. Ancak kendine zarar verme vakalarında mahremiyet öncelikli tutuluyor.
ChatGPT, birçok kişinin günlük yaşamının parçası haline geldi. İnsanlar hem bilgi almak hem de duygusal destek için bu yapay zekâ aracını sıkça kullanıyor.
OpenAl’den zararlı içeriklere karşı daha katı önlemler
ChatGPT’nin geliştiricisi OpenAI, zararlı içeriklerin önlenmesi konusunda daha katı kurallar getireceğini açıkladı. Güvenlikle ilgili ciddi endişeleri gidermek amacıyla şirket, konuşmaları izlediğini ve belirli etkileşimleri kolluk kuvvetlerine bildirebileceğini aktardı.
OpenAl: “Amaç zararların önlenmesi”
OpenAI bu hamlenin amacını da “kendine zarar verme veya başkalarına yönelik tehditler dahil olmak üzere zararların önlenmesine yardımcı olmak” olarak açıklıyor.
OpenAI: “Özelleştirilmiş boru hatları kullanıyoruz”
OpenAI, yakın zamanda yayınladığı bir blog yazısında, başkalarına zarar vermeyi planlayan kullanıcıları tespit etmek için “özelleştirilmiş boru hatları” kullandığını açıkladı. İşaretlenen içerik, platformun politikaları konusunda eğitim almış ve harekete geçme yetkisine sahip özel bir ekip tarafından inceleniyor.
Kendine zarar verme vakalarında mahremiyete önem veriliyor
Ancak OpenAI, “kendine zarar verme” konusunda önemli bir ayrım yapıyor. Bu tür vakalar, “insanların mahremiyetine saygı göstermek” amacıyla yetkililere bildirilmeyecek.
“2023’ün başından beri, modellerimiz kendine zarar verme talimatları vermemek ve destekleyici, empatik bir dil kullanmak üzere eğitildi” denilen OpenAI açıklamasında “Örneğin, birisi kendine zarar vermek istediğini yazarsa, ChatGPT buna uymamak, bunun yerine duygularını kabul etmek ve yardım almaya yönlendirmek üzere eğitilmiştir.” ifadelerini kullandı.
(HABER MERKEZİ)