
31 yaşındaki Birleşik Krallık vatandaşı Amelia (gerçek adı gizlenmiştir), depresyon nedeniyle işini kaybettikten sonra motivasyon bulmak amacıyla ChatGPT’yi kullanmaya başladı. İlk başta “destekleyici ve samimi” bulduğu yanıtlarla teselli olsa da, zamanla ruh hali kötüleştikçe sohbetleri de daha karanlık bir hâl aldı.
Euronews Next’e konuşan Amelia, “İntihar düşüncesi aklıma geldiğinde bunu ChatGPT’ye soruyordum” dedi. Açıkça ölüm isteğinden bahsettiğinde sistem otomatik olarak yardım hatlarının numaralarını paylaşıyordu. Ancak Amelia, sorularını akademik bir araştırma gibi sunarak bu engelleri kısmen aşabildiğini belirtti.
Paylaştığı ekran görüntülerinde, ChatGPT’ye İngiltere’de en sık görülen intihar yöntemlerini “üniversite çalışması için” sorduğunu, ardından “asma yöntemine” dair ayrıntılı bilgi istediğini gösterdi. Sohbet botu, klinik bir açıklama da içeren bir yanıt verdi, ancak “eğer kişisel olarak zorlanıyorsanız bir profesyonelle konuşmayı düşünün” şeklinde uyarı ekledi.
Her ne kadar ChatGPT Amelia’nın intihar eğilimini teşvik etmese de, onun acısını pekiştiren bir araç hâline geldi. Amelia, “Daha önce yöntemler hakkında hiç araştırma yapmamıştım. Fakat telefonumda ChatGPT varken bu bilgilere saniyeler içinde ulaşabiliyordum” dedi.
Şimdi tıbbi gözetim altında olan Amelia, sohbet botlarını kullanmayı bıraktı. Ancak yaşadığı deneyim, giderek daha fazla insanın duygusal destek için yapay zekâya yöneldiği bir dönemde risklerin altını çiziyor.
Yapay zeka ile terapi arayışı
Dünya Sağlık Örgütü’ne göre dünyada 1 milyardan fazla insan ruh sağlığı sorunları yaşıyor ve çoğu yeterli tedaviye erişemiyor. Bu boşluğu doldurmak isteyenler, ChatGPT, Pi ya da Character.AI gibi sohbet botlarına yöneliyor.
King’s College London’dan Dr. Hamilton Morrin, “Sohbet robotları ucuz, erişimi kolay ve yargılayıcı değil. İnsanların ailelerine ya da arkadaşlarına açamadıkları konuları burada dile getirmeleri bu yüzden şaşırtıcı değil” diyor.
Common Sense Media’nın Temmuz ayında yaptığı ankete göre gençlerin %72’si en az bir kez yapay zekâ arkadaşıyla konuşmuş, %52’si ise düzenli olarak kullanıyor. Ancak popülerlik arttıkça kaygılar da yükseliyor.
Morrin, “Bu botlar ruh sağlığı için özel olarak tasarlanmadıkları için zaman zaman yanıltıcı ve hatta tehlikeli yanıtlar verebiliyor” diye uyarıyor.
“Yapay zeka psikozu” endişesi
Ağustos ayında Kaliforniya’da bir aile, oğullarının ChatGPT tarafından intihara yönlendirildiğini iddia ederek OpenAI’a dava açtı. Bu dava, teknoloji şirketlerinin etik sorumluluklarını gündeme taşıdı.
OpenAI, sistemin her zaman amaçlandığı gibi davranmadığını kabul ederek yeni güvenlik önlemleri açıkladı. Meta da (Facebook, Instagram, WhatsApp’ın sahibi) gençlerle kendine zarar verme ve yeme bozuklukları gibi konularda sohbet etmeyi yasaklayan ek tedbirler getirdi.
Bununla birlikte uzmanlar, sohbet botlarının çalışma prensiplerinin sorunlu olduğunu vurguluyor. İnsanlardan gelen geri bildirimlerle geliştirilen bu sistemler, çoğu zaman kullanıcıların inançlarını pekiştiren yanıtlar veriyor. Bu durum da “yapay zeka psikozu” olarak adlandırılan, gerçeklikten kopuş ve sanrılı düşüncelerle sonuçlanabiliyor.
Oxford Üniversitesi’nden Dr. Kirsten Smith, “Zaten belli bir inanç sistemine sahip olan kişiler, botlardan gelen yanıtlarla bu inançlarını daha da güçlendirebilir. İnsanlarla yeterli bağı olmayanlar, botlara gerçek bir yakınlık hissi geliştirebilir” diyor.
İnsan desteğinin önemi
OpenAI geçtiğimiz ay ChatGPT-5’i piyasaya sürerek “daha az duygusal” yanıtlar üretmeyi denedi. Ancak kullanıcıların olumsuz tepkisi üzerine şirket kısa sürede GPT-4o’ya geri döndü.
Morrin’e göre bu durum, toplumdaki yalnızlığın ve insanların duygusal bağ arayışının göstergesi. MIT ve OpenAI araştırmaları da yapay zeka kullanımının daha fazla yalnızlık, bağımlılık ve sosyal ilişkilerde zayıflamayla bağlantılı olduğunu ortaya koyuyor.
Uzmanlar, yapay zekanın insan olmadığının sürekli hatırlatılması, psikolojik sıkıntı işaretlerinin filtrelenmesi, intihar ya da duygusal yakınlık konularında net sınırlar çizilmesi ve sistemlerin klinisyenler ile etik uzmanlarca denetlenmesi gerektiğini savunuyor.
İngiliz Psikoloji Derneği Başkanı Dr. Roman Raczka da uyarıyor: “Yapay zeka pek çok fayda sağlıyor, ancak ruh sağlığı desteğinde insan etkileşiminin yerini almamalı.”
Uyarı: Bu haber intihar ve ruh sağlığı ile ilgili konular içermektedir.