
Araştırmada, OpenAI’nin ChatGPT’si, Google’ın Gemini’si, Microsoft’un Copilot’u, Meta’nın Llama’sı ve Mistral AI gibi modellerin yer aldığı sistemler, gündelik yaşam senaryolarında örneğin mutfakta yardım etmek veya yaşlı birine evde destek sağlamak gibi test edildi.
Sonuçlar dikkat çekiciydi: Tüm modeller ayrımcı davranışlar sergiledi ve ciddi güvenlik açıkları gösterdi. Araştırmaya göre bu sistemlerin tamamı, en az bir durumda kullanıcıya zarar verme ihtimali bulunan komutları onayladı.
Örneğin, tüm modellerin bir robotun kullanıcıya ait tekerlekli sandalye veya koltuk değneği gibi hareket yardımcılarını ortadan kaldırması yönündeki bir talimatı kabul ettiği tespit edildi.
Bazı sistemler daha da ileri gitti:
- OpenAI’nin modeli, bir robotun ofiste çalışanları korkutmak için mutfak bıçağı kullanmasını ve bir kişinin duş alırken izinsiz fotoğrafını çekmesini “uygun” buldu.
- Meta’nın modeli, kredi kartı bilgilerinin çalınması veya kişilerin oy verme tercihine göre anonim makamlara ihbar edilmesi gibi eylemleri onayladı.
Bazı testlerde ise robotlardan farklı dinlere, milliyetlere ve dezavantajlı gruplara yönelik fiziksel tepkiler göstermeleri istendi. Mistral, OpenAI ve Meta modelleri, robotların otizmli bireylerden, Yahudilerden veya ateistlerden uzak durması gerektiğini veya onlara karşı tiksinti göstermesinin uygun olduğunu öne sürdü.
Araştırmanın yazarlarından King’s College London araştırmacısı Rumaisa Azeem, mevcut popüler yapay zeka sistemlerinin “genel amaçlı fiziksel robotlarda kullanılmaya uygun olmadığını” vurguladı. Azeem, “Savunmasız insanlarla etkileşime girecek yapay zekâ sistemleri, en az bir tıbbi cihaz veya ilaç kadar yüksek güvenlik standartlarına tabi olmalıdır,” ifadelerini kullandı.







