BIG_TP
Bluesky Social Icon
Gerçeğe yeni ses
Nûmedya24

Çarpıcı veriler |

1 milyondan fazla kişi ChatGPT’de intihar eğilimi gösteriyor

Çarpıcı veriler |

OpenAI, her hafta 1 milyondan fazla ChatGPT kullanıcısının intihar planı ya da niyetine dair ifadeler paylaştığını açıkladı.

HABER MERKEZİ – OpenAI, her hafta ChatGPT kullanıcılarının 1 milyondan fazlasının “intihar planı ya da niyetine dair açık göstergeler” içeren mesajlar gönderdiğini açıkladı.

Şirketin pazartesi günü yayımladığı blog yazısında yer alan bu bilgi, yapay zeka ile ruh sağlığı sorunları arasındaki ilişkiye dair en doğrudan açıklamalardan biri olarak dikkat çekti. Guardian’ın haberine göre OpenAI ayrıca, haftalık aktif kullanıcılarının yaklaşık yüzde 0,07’sinin yani 560 bin kişinin “psikoz ya da mani ile bağlantılı ruhsal acil durum belirtileri” gösterdiğini bildirdi. Ancak şirket, bu tür etkileşimlerin tespitinin zor olduğunu ve analizlerin henüz ilk aşamada bulunduğunu vurguladı.

Şirketin bu verileri kamuoyuyla paylaşması, ChatGPT ile uzun süreli etkileşim sonrası intihar eden bir gençle ilgili açılan davanın ve ABD Federal Ticaret Komisyonu’nun başlattığı soruşturmanın ardından geldi. Komisyon, OpenAI dahil olmak üzere çocuklar ve gençler üzerindeki olumsuz etkileri incelemek üzere çeşitli yapay zeka şirketlerini mercek altına aldı.

OpenAI, yeni GPT-5 sürümünün “zararlı yanıtları” önemli ölçüde azalttığını ve 1.000’in üzerinde intihar ve kendine zarar verme konulu diyalogda kullanıcı güvenliğini artırdığını savundu. Şirket, modelin “istenen davranışlara uyum oranının” yüzde 91’e çıktığını belirtti.Blog yazısında ayrıca, GPT-5’in kriz hatlarına erişimi genişlettiği ve uzun oturumlar sırasında kullanıcılara ara verme hatırlatmaları sunduğu belirtildi. Şirket, bu süreçte 170 sağlık uzmanından oluşan küresel bir klinisyen ağıyla çalışarak modelin ruh sağlığıyla ilgili yanıtlarını gözden geçirdiğini bildirdi.

OpenAI, 1.800’den fazla ciddi ruh sağlığı vakasına ilişkin model yanıtlarının psikiyatristler ve psikologlarca incelendiğini, önceki sürümlerle kıyaslandığını aktardı.Uzmanlar, yapay zeka sohbet botlarının kullanıcıların zararlı düşüncelerini sorgulamadan onaylaması riskine (sycophancy) uzun süredir dikkat çekiyor. Ruh sağlığı profesyonelleri ise bu araçların psikolojik destek amacıyla kullanılmasının savunmasız bireyler için tehlikeli olabileceğini uyarıyor.

Benzer Haberler