OpenAI, dünya genelinde 700 milyondan fazla kullanıcısı bulunan ChatGPT için ebeveyn denetimleri ve kriz anlarında destek sağlayacak yeni güvenlik önlemleri duyurdu. Bu karar, Kaliforniya’da 16 yaşındaki bir gencin aylarca ChatGPT üzerinden intihar planları konuşmasının ardından hayatına son vermesiyle birlikte gündeme geldi. Ailenin açtığı dava sonrasında OpenAI, daha güçlü koruma mekanizmaları geliştirme kararı aldı.
Yeni Dönemde Ebeveynler Daha Fazla Kontrole Sahip Olacak
Şirketin açıklamasına göre, ebeveynler önümüzdeki ay itibarıyla ChatGPT’nin gençlere verdiği yanıtları denetleyebilecek. Ayrıca sistem, bir gencin ciddi bir ruhsal kriz yaşadığını tespit ettiğinde ailelere otomatik bildirim gönderecek. Bu özellik, uzun süredir OpenAI geliştirici topluluğu tarafından talep ediliyordu.
Kriz Durumlarında Güvenli Sohbet Botu
OpenAI, yalnızca ebeveyn denetimleriyle sınırlı kalmayacak. Yakın zamanda kriz belirtileri gösteren gençler ve yetişkinler, varsayılan modele göre daha güvenli bir şekilde tasarlanan GPT-5 Thinking adlı özel sürüme yönlendirilecek. Bu model, yanıtları daha yavaş üretiyor fakat kullanıcıyı gerçekliğe daha sağlam şekilde bağlamayı hedefliyor. Şirket, bu sayede intihar, kendine zarar verme ve psikoz gibi durumlarda yatıştırıcı ve güvenli yanıtlar verebileceğini belirtiyor.
Eleştiriler ve Endişeler
Uzmanlar ise yeni önlemlere temkinli yaklaşıyor. Çocuk ve gençlerin güvenli medya kullanımı için çalışan Common Sense Media adlı kuruluşun program direktörü Robbie Torney, ebeveyn denetimlerinin “kurulmasının zor, sorumluluğu ailelere yükleyen ve gençler tarafından kolayca aşılabilen” bir yöntem olduğunu söyledi. Torney’ye göre bu adımlar kalıcı çözüm olmaktan çok geçici bir “yara bandı” niteliği taşıyor.
Google ve Meta da Önlem Aldı
OpenAI’nin adımı, sektördeki genel trendin bir parçası. Google DeepMind, Gemini için çocuklara özel güvenlik filtreleri geliştirdi. Meta ise yapay zekâ sohbetlerinde çocuklara yönelik uygunsuz yanıtların önüne geçmek için içerik filtrelerini sıkılaştırdı.
Yeterince Şeffaf mı?
Stanford Üniversitesi araştırmacısı Jared Moore, OpenAI’nin kriz müdahalelerinin nasıl çalışacağı konusunda yeterli detay paylaşmadığını vurguladı: “Teknik olarak birçok soru işareti var. Şu anda verilen sözler çok genel, nasıl ölçümleneceği ise belirsiz.”