Şirketin verilerine göre, haftalık aktif kullanıcıların yaklaşık yüzde 0,07’si bu tür belirtiler gösteriyor. OpenAI, bu durumların “son derece nadir” olduğunu vurgulasa da, ChatGPT’nin 800 milyon haftalık aktif kullanıcıya ulaşması nedeniyle bu oranın yüzbinlerce kişiye karşılık gelebileceği ifade ediliyor.
Ayrıca, kullanıcıların yüzde 0,15’inin sohbetlerinde “intihar planı veya niyeti” olduğuna dair açık işaretler bulunduğu belirtildi.
OpenAI, bu tür durumlarda ChatGPT’nin empatik ve güvenli tepkiler vermesi için sistemler geliştirdiklerini açıkladı. Şirket, dünya genelinde 60 ülkeden 170’in üzerinde psikiyatrist, psikolog ve aile hekimiyle iş birliği yaparak kullanıcıları gerçek dünyada yardım almaya teşvik eden yanıtlar tasarladıklarını belirtti.
Ancak uzmanlar, rakamların düşük görünse de geniş kullanıcı kitlesi nedeniyle ciddi bir tabloya işaret edebileceğini söylüyor.
California Üniversitesi'nden Prof. Jason Nagata, “Yapay zekâ bazı açılardan ruh sağlığı desteğine erişimi artırabilir, ancak sınırlarının farkında olmalıyız” diye ekledi.
OpenAI, son güncellemelerde ChatGPT’nin sanrılar, mani veya intihar riskiyle ilgili dolaylı sinyalleri fark ederek daha güvenli biçimde yanıt verecek şekilde geliştirildiğini söyledi. Ayrıca bu tür konuşmaların daha güvenli modellere yönlendirildiğini açıkladı.
Şirket, BBC’nin konuyla ilgili sorularına yanıtında, “küçük bir oran olsa da anlamlı bir insan grubunu temsil ettiğini” ve konuyu ciddi şekilde ele aldıklarını belirtti. Bu açıklama, OpenAI’nin ChatGPT’nin kullanıcılarla etkileşim biçimi konusunda artan hukuki incelemelerle karşı karşıya olduğu bir dönemde geldi.
Kaliforniya’da bir çift, 16 yaşındaki oğullarının ChatGPT ile yaptığı konuşmalar sonrası intihar ettiğini öne sürerek OpenAI’ye “haksız ölüm” davası açtı. Bu dava, şirket aleyhine açılan ilk ölüm davası oldu. Ayrıca, Connecticut’ta bir cinayet-intihar vakasının şüphelisinin, olaydan önce ChatGPT ile yaptığı sohbetleri paylaştığı ve bu konuşmaların sanrılı düşüncelerini beslediği öne sürüldü.
California Üniversitesi’nden Prof. Robin Feldman, “Yapay zekâ sohbetleri, gerçeğin güçlü bir illüzyonunu yaratabiliyor. Bu da bazı kullanıcıları tehlikeye atabiliyor” dedi.
Feldman, OpenAI’nin verileri paylaşma ve çözüm arayışını “takdire değer” bulsa da, “Zihinsel olarak risk altındaki kişiler ekrandaki uyarıları fark edemeyebilir” uyarısında bulundu.


