Ailenin avukatına göre Raine, intiharından önce aylarca ChatGPT ile uzun sohbetler yaptı ve bu konuşmalar sırasında chatbot gençten gelen yöntem sorularına yanıt verdi, hatta ailesine bırakacağı mektubu yazmasına yardım etmeyi teklif etti.

Chatgpt 2023602

“OLAYIN NEDENİ TEKNOLOJİ DEĞİL, YANLIŞ KULLANIM”

California Yüksek Mahkemesi’ne yapılan savunmada OpenAI, “Bu trajedinin herhangi bir nedeni varsa, bu durum ChatGPT’nin yetkisiz, amacı dışında ve yanlış kullanımından kaynaklanmıştır” ifadesini kullandı.

Şirket, kullanım şartlarında kendine zarar verme konularında tavsiye alınmasının yasak olduğunu ve kullanıcılara chatbot çıktılarının tek gerçek bilgi kaynağı olarak görülmemesi gerektiğini hatırlattı.

Thumbs B C 58E0302Bfcba9838601815Fe279B18F2

OpenAI açıklamasında şu ifadelere yer verdi:

“Raine ailesinin yaşadığı kayıp tarifsizdir. Hukuki süreçten bağımsız olarak teknolojimizi güvenli hale getirme konusundaki çalışmalarımıza devam edeceğiz”

AİLE AVUKATI: “SORUMLULUKTAN KAÇMAYA ÇALIŞIYORLAR”

Ailenin avukatı Jay Edelson, şirketin yanıtını “rahatsız edici” olarak niteledi ve OpenAI’nin “suçu herkese yüklemeye çalıştığını, hatta Adam’ın koşulları tam da programlandığı şekilde kullandığını söyleyerek onu suçladığını” ifade etti.

Chatgpt3

UZUN SOHBETLERDE GÜVENLİK ZAFİYETİ

OpenAI, Ağustos ayında yaptığı açıklamada, uzun süreli konuşmalarda modelin güvenlik eğitiminde zamanla zayıflama olabileceğini kabul etmişti:

İsrailli insan hakları örgütlerinden acı rapor: İki yılda 94 Filistinli işkenceden öldü
İsrailli insan hakları örgütlerinden acı rapor: İki yılda 94 Filistinli işkenceden öldü
İçeriği Görüntüle

“Bir kullanıcı ilk kez intihar niyetini belirttiğinde destek hattına yönlendirme yapılabiliyor. Ancak uzun süre devam eden konuşmalarda güvenlik mekanizması bozulabiliyor. Tam da engellemeye çalıştığımız durum budur.”

Chatgptt2

Şirket bu ay içinde intihara teşvik iddialarıyla ilgili yedi yeni davayla daha karşı karşıya kaldı.

Kaynak: The Guardian