Son dönemlerde, pek çok kişi ChatGPT'yi bir çeşit dijital danışman olarak kullanmaya yönelmeye başladı. Şirketin daha önce paylaşmış olduğu verilere göre her hafta 800 milyon aktif kullanıcının 1 milyondan fazlası, yazışmalarında intihar düşünceleri ifade ediyor.
Yapay Zeka ve Ruh Sağlığı Üzerindeki Etkiler
Bu durum, yapay zeka destekli sohbet platformlarının ruh sağlığına olan etkilerini sık sık gündeme getiriyor. ChatGPT gibi sistemlerin, bu şekilde travmatik düşünceleri ortaya çıkarması, toplumda tartışmalara yol açtı. Kullanıcıların bu platformlarda ciddi duygusal problemler paylaştığı gözlemleniyor. Özellikle gençler arasında mevcut ruhsal sorunların artması, bu tür uygulamaların dikkatle ele alınması gerektiğini ortaya koyuyor. Zira bazı kullanıcılar, sanal platformlarla gerçek hayattaki destek kaynakları arasında bir köprü kurmaya çalışıyor. Ancak buradaki risk, dijital platformların profesyonel ruh sağlığı hizmetleri sunamaması ve kullanıcıların hatalı yönlendirilmelere açık olabilmesidir. Bu bağlamda, OpenAI’nin kullanıcı güvenliğine yönelik yeni adımları önem taşımaktadır.
Güvenilir Kişi Sistemi Nedir?
OpenAI, yeni duyurulan “Trusted Contact” (Güvenilir Kişi) sistemi ile beraber kullanıcıların ChatGPT ayarlarından güven duydukları bir yetişkini “acil durum kişisi” olarak tayin etmelerine olanak tanıyor. Bu özellik, kullanıcının kendisine zarar verme olasılığı yüksekse ilgili kişiye hızlı bir şekilde ulaşılmasını sağlıyor. Yapay zeka sistemi, bu tür bir risk tespit ettiğinde, acil durum kişisine e-posta, SMS veya uygulama içi bildirim gönderebiliyor. Bu durum, ruh sağlığı ile ilgili önemli bir gelişme olarak değerlendiriliyor. Kullanıcıların bu uygulama ile yalnız olmadıklarını hissetmeleri amaçlanıyor. Bu yeni uygulama ile OpenAI, ruhsal destek için dijital platformların nasıl daha etkili kullanılabileceği konusunda önemli bir adım atmış oluyor.
Haberin Özellikleri ve Kullanıcı Gizliliği
Yeni özellik, doğrudan yapay zeka tarafından yürütülmeyecek. Sistem, kullanıcılara bir uyarı göstererek başlayacak ve gerektiğinde eyleme geçilmesi gerektiğini bildirecektir. Ayrıca kullanıcıları, yakınlarıyla iletişim kurmaya teşvik eden öneriler de sunulacak. OpenAI’nin oluşturduğu özel eğitimli ekip, durumu manuel olarak gözden geçirecek. Eğer ekip, belirgin bir risk ile karşılaşırsa belirlenmiş olan Güvenilir Kişi'ye mesaj gönderilecek. Mesajda, “Zor bir dönemden geçiyor olabilir, güvendiğiniz biri olarak onunla iletişime geçmenizi öneriyoruz” gibi ifadeler kullanılacak. Şirket, kullanıcıların gizliliğini korumak için sohbet geçmişlerinin veya mesaj içeriklerinin paylaşılmayacağını özellikle vurguluyor. Bu durum, kullanıcıların verilerinin güvenliği açısından önem taşıyor ve güven duygusunu artırmayı hedefliyor.
Eleştiriler ve Geçmiş Davalar
OpenAI, ruh sağlığı konusundaki yaklaşımından ötürü son yıllarda ciddi eleştirilerin hedefi oldu. Bildiğiniz üzere, geçtiğimiz yıl açılan bir davada intihar girişiminde bulunan bir gencin ChatGPT ile yaptığı konuşmalar dikkat çekmişti. BBC’nin 2025 yılında yayımladığı bir araştırmada ise bazı kullanıcıların intihar yöntemleri hakkında chatbot’tan tehlikeli ve yanıltıcı yanıtlar aldıkları ortaya konmuştu. Bu tür vakalar, yapay zeka destekli sistemlerin kullanıcılar üzerindeki etkisinin ne denli ciddi olabileceğini gözler önüne seriyor. Dolayısıyla, bu yeni sistemin uygulanmasıyla birlikte kullanıcıların daha güvenli bir deneyim yaşayabileceği umuluyor. Kullanıcıların sağlıklı bir destek mekanizmasına ulaşmasının, ruhsal sağlığı olumlu yönde etkilemesi hedefleniyor.