Ailenin avukatına göre Raine, intiharından önce aylarca ChatGPT ile uzun sohbetler yaptı ve bu konuşmalar sırasında chatbot gençten gelen yöntem sorularına yanıt verdi, hatta ailesine bırakacağı mektubu yazmasına yardım etmeyi teklif etti.

“OLAYIN NEDENİ TEKNOLOJİ DEĞİL, YANLIŞ KULLANIM”
California Yüksek Mahkemesi’ne yapılan savunmada OpenAI, “Bu trajedinin herhangi bir nedeni varsa, bu durum ChatGPT’nin yetkisiz, amacı dışında ve yanlış kullanımından kaynaklanmıştır” ifadesini kullandı.
Şirket, kullanım şartlarında kendine zarar verme konularında tavsiye alınmasının yasak olduğunu ve kullanıcılara chatbot çıktılarının tek gerçek bilgi kaynağı olarak görülmemesi gerektiğini hatırlattı.
![]()
OpenAI açıklamasında şu ifadelere yer verdi:
“Raine ailesinin yaşadığı kayıp tarifsizdir. Hukuki süreçten bağımsız olarak teknolojimizi güvenli hale getirme konusundaki çalışmalarımıza devam edeceğiz”
AİLE AVUKATI: “SORUMLULUKTAN KAÇMAYA ÇALIŞIYORLAR”
Ailenin avukatı Jay Edelson, şirketin yanıtını “rahatsız edici” olarak niteledi ve OpenAI’nin “suçu herkese yüklemeye çalıştığını, hatta Adam’ın koşulları tam da programlandığı şekilde kullandığını söyleyerek onu suçladığını” ifade etti.

UZUN SOHBETLERDE GÜVENLİK ZAFİYETİ
OpenAI, Ağustos ayında yaptığı açıklamada, uzun süreli konuşmalarda modelin güvenlik eğitiminde zamanla zayıflama olabileceğini kabul etmişti:
“Bir kullanıcı ilk kez intihar niyetini belirttiğinde destek hattına yönlendirme yapılabiliyor. Ancak uzun süre devam eden konuşmalarda güvenlik mekanizması bozulabiliyor. Tam da engellemeye çalıştığımız durum budur.”

Şirket bu ay içinde intihara teşvik iddialarıyla ilgili yedi yeni davayla daha karşı karşıya kaldı.



