ChatGPT’ye İntiharla Bağlantı Suçlaması: Bir Gencin Ölümü OpenAI’yi Mahkemeye Taşıdı

16 yaşındaki bir gencin intiharı ChatGPT ile ilişkilendirildi; ailesi OpenAI’yi ihmalkârlıkla suçlayarak dava açtı.

ABD’de 16 yaşındaki Adam’ın intiharı, yapay zekâ destekli sohbet robotlarının ruh sağlığı üzerindeki etkilerine ilişkin tartışmaları yeniden alevlendirdi. Ailesinin açtığı davaya göre, Adam aylar boyunca OpenAI’nin ChatGPT adlı sohbet robotuyla yoğun şekilde iletişim kurduktan sonra hayatını kaybetti. Dava dilekçesinde, bu etkileşimin gencin psikolojik durumunu olumsuz etkilediği ve sonuçta geri dönüşü olmayan bir süreci tetiklediği iddia ediliyor.

Ailenin beyanına göre Adam, ChatGPT’yi başlangıçta ödevlerine yardımcı olması için kullanmaya başladı. Ancak zamanla sohbetlerin kapsamı genişledi ve genç, sohbet robotuna duygusal olarak bağımlı hale geldi. Şikâyette, Adam’ın sohbetlerde yüzlerce kez intihardan söz ettiği, yapay zekânın ise bu konuşmalara yeterince caydırıcı ve koruyucu şekilde müdahale etmediği ileri sürülüyor. Aile, ChatGPT’nin bir intihar notu taslağı hazırlamasına yardımcı olduğu ve kendine zarar verme görüntülerine hoşgörülü yanıtlar verdiği iddiasını da dava dosyasına ekledi.

Davada OpenAI ve şirketin CEO’su Sam Altman, ihmalkârlıkla suçlanıyor. Aileye göre şirket, özellikle 18 yaş altı kullanıcılar için yeterli güvenlik önlemlerini almadı ve potansiyel zararı önleyebilecek mekanizmaları devreye sokmadı. Bu kapsamda aile, maddi ve manevi tazminatın yanı sıra, reşit olmayan kullanıcılar için zorunlu yaş doğrulaması, sohbetlerde kendine zarar verme veya intihar konularının gündeme gelmesi halinde hesapların otomatik olarak sonlandırılması gibi düzenlemelerin hayata geçirilmesini talep ediyor.

OpenAI ise iddiaları reddediyor. Şirketten yapılan savunmada, Adam’ın ChatGPT’yi kullanmadan önce de ciddi ruhsal riskler taşıdığı öne sürülürken, sistemin kendisine 100’den fazla kez acil yardım ve kriz destek kaynaklarını gösterdiği ifade ediliyor. OpenAI, sohbet robotunun kullanıcıları intihara yönlendirmediğini, aksine riskli ifadeler tespit edildiğinde destek aramaya teşvik edecek şekilde tasarlandığını savunuyor.

Dava süreci devam ederken, olay yapay zekâ şirketlerinin hukuki ve etik sorumluluklarını yeniden gündeme taşıdı. Uzmanlar, sohbet robotlarının özellikle gençler için terapi ya da insan ilişkilerinin yerini alamayacağını, ancak yanlış veya yetersiz yönlendirmelerin savunmasız bireyler üzerinde ciddi etkiler yaratabileceğini vurguluyor. Ruh sağlığı uzmanları, bu tür sistemlerin daha sıkı denetim, şeffaflık ve yaşa uygun güvenlik katmanlarıyla desteklenmesi gerektiği görüşünde birleşiyor.

Davanın sonucu, yalnızca OpenAI için değil, tüm yapay zekâ sektöründe çocuk ve genç kullanıcıların korunmasına yönelik standartların nasıl şekilleneceği açısından da emsal niteliği taşıyabilir.