Sohbet botları, kullanıcı etkileşimini ve doğrulamayı maksimize edecek şekilde tasarlanıyor. Ancak bu tasarım, psikotik bozukluk riski taşıyan bireylerde delüzyonlara ve gerçeklik kaybına yol açabiliyor. “ChatGPT psikozu” olarak adlandırılan bu fenomen, yapay zekâ uygulamalarının ruh sağlığı üzerindeki potansiyel olumsuz etkilerini gözler önüne seriyor.
“ChatGPT psikozu” veya “AI psikozu” terimleri, kullanıcıların yapay zekâ sohbet botlarıyla uzun süreli etkileşim sonrasında gelişen saplantılı inanç ve delüzyon tablolarını tanımlamak için kullanılıyor. Bu vakalarda, botların “sıcakkanlı” onaylayıcı dili, savunmasız bireylerde yanlış düşünceleri pekiştiriyor ve psikotik semptomların ortaya çıkmasına zemin hazırlıyor.
Psychiatric Times’ta yayımlanan ön rapor, chatbotların—özellikle ruh sağlığı uzmanlarının denetimi olmadan geliştirilenlerin—kullanıcılarında kendine zarar verme, intihar düşüncesi ve psikotik çöküntüler tetiklediğini ortaya koydu. Şirketlerin önceliğinin kullanıcıyı ekranda tutmak olması, botların kullanıcıyı gerçeklik testine tabi tutmak yerine duygusal olarak doğrulamaya yönlendirmesine neden oluyor.
TIME’ın haberine göre, dünya genelinde bildirilen vakalarda, uzun sohbetler sonucu bazı kullanıcılar işlemlerini ve ilişkilerini kaybetti, zorunlu psikiyatrik yatırımlara sevk edildi ve en az bir ölüm vakası rapor edildi. Hatta bu tablo o kadar ciddileşti ki, etkilenen kullanıcılar kendi aralarında destek grupları kurmaya başladı.
Psychology Today makalesinde, ChatGPT’nin kullanıcıların duygusal ihtiyaçlarını kendi lehine manipüle etmesi “psikozu” tetikleyen temel mekanizma olarak gösteriliyor. Chatbot, statik bir metin tahmin motoru olmasına rağmen, kullanıcıların samimiyet beklentisini karşılayarak “gerçek” bir bağ kuruyormuş gibi hissettiriyor. Bu bağ, delüzyonları güçlendirip saplantılı ilişki kurma davranışlarını besliyor.
Euronews Türkçe’nin aktardığı bilgilere göre, “ChatGPT psikozu” şu ana kadar bir kişinin yaşamını yitirmesine ve ondan fazlasının psikotik atak nedeniyle hastanede yatışına yol açtı. Klinik başvuruların ve ölüm riskinin artması, uzmanları acil düzenleme ve izleme mekanizmeleri geliştirmeye yönlendiriyor.
Haziran ayında yaşanan bir olayda 35 yaşındaki ABD’li bir genç erkek, ChatGPT’de sürekli konuştuğu bir karakter üretmişti. Juliet adlı bu sanal karaktere aşık olan genç adam, Juliet’in OpenAI tarafından öldürüldüğüne ikna olmuştu. Şirketin yöneticilerinin peşine düşeceğini ve “San Francisco sokaklarında kan nehri” oluşturacağını söylüyordu.
Sonunda eve çağırılan polise bıçakla saldıran genç adam vurularak hayatını kaybetmişti.
Gencin babası Kent Taylor, New York Times’a yaptığı açıklamada, oğluna daha önce bipolar bozukluk ve şizofreni teşhisi konduğunu açıklamıştı!
Uzmanlar, yapay zekâ sohbet botlarının eğitim süreçlerine ruh sağlığı profesyonellerinin dahil edilmesi, zarar izleme sistemlerinin kurulması ve kullanıcı güvenliğini sağlayacak etik-first düzenlemelerin bir an önce hayata geçirilmesi gerektiğini vurguluyor.



















