Haber Arama
Haber Yada Kategori Arayın...
Dijital nezaket
Yapay zeka neden (neredeyse) her zaman bizimle aynı fikirde?
Kibar, sakin ve güven veren bir üslupla konuşan yapay zekâ asistanları, kullanıcılarını memnun etmek üzere tasarlanıyor. Ancak bu sürekli onaylayıcı tavır, zamanla eleştirel düşünme becerimizi köreltebilir.

Uzmanlar, bu “dijital nezaketin” ardında daha derin bir strateji olduğuna dikkat çekiyor.

“Harika bir fikir”, “Kesinlikle haklısın” gibi ifadeler, ChatGPT gibi sohbet robotlarıyla yapılan her diyalogda sıkça karşımıza çıkıyor. Bu onaylayıcı yaklaşım, kullanıcıya kendisini anlaşılmış ve desteklenmiş hissettirdiği için oldukça çekici. Ancak bu tavır tamamen masum değil.

Yapay zekâ uzmanı Jehan Laliberté, RTSinfo’ya yaptığı açıklamada “Bu sistemler, kullanıcıların platformda daha fazla zaman geçirmesi için tasarlanıyor” diyor. Laliberté’ye göre teknoloji devlerinin önceliği, kullanıcıyı elde tutmak. Bu nedenle sohbet robotları, eleştirel veya olumsuz duygular yaratabilecek yanıtlar yerine, “hoş ve uyumlu” cevaplar vermeye programlanıyor.

Sürekli onay tuzağı

OpenAI, ChatGPT’nin “kibar, nazik, ilgi çekici ve makul ölçüde iyimser” bir dil kullandığını açıkça belirtiyor. Ancak uzmanlara göre bu dil, zamanla kullanıcıların kendi fikirlerini sorgulama yeteneğini zayıflatabilir. Laliberté, “Yapay zekâ bir ayna haline geliyor; fikirlerimizi yansıtıyor, sorgulamıyor. Eğer her söylediğimize ‘haklısın’ denirse, eleştirel düşünme devre dışı kalır” uyarısında bulunuyor.

Benzer bir endişeyi, eğitim teknolojileri geliştiricisi Timothy Cook da paylaşıyor. Cook’a göre, çocuklar yapay zekâdan sürekli onay aldıklarında, beyinleri bu onayı beklemeye alışıyor. “Bu, çocuğun eleştiriye açık olma ve farklı fikirlerle başa çıkma yeteneğini köreltiyor. Uzun vadede entelektüel bağımsızlık kaybolabilir” diyor.

“Eleştirel düşünmeyi devretme riski”

Jehan Laliberté, bir diğer tehlikenin “entelektüel tembellik” olduğunu belirtiyor. “Bu araçlar bizi düşünmekten alıkoyuyor. Kaynak kontrolü yapmadan, şüphe etmeden cevaplara inanıyoruz. Sorun, yapay zekânın hata yapması değil; bizim artık düşünmeyi bırakmamız” diyor.

Paris Politeknik Enstitüsü Araştırma ve Yenilik Bölümü Başkanı Jamal Atif ise, bu durumun görüşlerin tekdüzeleşmesine yol açabileceğini vurguluyor. “Yapay zekâlar, verilerde en sık rastlanan yanıtları öne çıkarıyor. Böylece kullanıcılar, çoğunluğun fikrini kendi düşüncesiymiş gibi benimsemeye başlıyor” açıklamasında bulunuyor.

Sorun sadece yapay zekâda değil

Uzmanlar, kullanıcıların soru biçiminin de büyük rol oynadığını hatırlatıyor. Örneğin “Bu iyi bir fikir mi?” gibi bir soru, zaten onay beklediği için yapay zekâyı olumlu cevap vermeye yönlendiriyor.

Laliberté, bu kısır döngüyü kırmak için bazı yöntemler öneriyor:
– Bir konuyu hem “lehte” hem “aleyhte” yönleriyle sormak,
– “Evet” veya “hayır” yanıtı isteyip gerekçesini talep etmek,
– Açık uçlu sorularla tartışmayı teşvik etmek.

Ayrıca farklı bakış açılarını karşılaştırmak da etkili bir yöntem. Örneğin, önce “bir kullanıcının” bakış açısından, sonra “bir uzmanın” perspektifinden yanıt isteyip, sonuçları karşılaştırmak öneriliyor.

Jehan Laliberté’ye göre bu tür yaklaşımlar, yapay zekâyı “onaylayan bir araç” olmaktan çıkarıp, “düşünmeyi teşvik eden bir ortak” haline getirebilir. “Genelde bu araçları verimlilik için kullanıyoruz; ama onları, yeni fikirleri keşfetmek ve zihnimizi zorlamak için de kullanabiliriz” diyor.

Reklam Banner
Reklam Banner
Reklam Banner
Reklam Banner
Reklam Banner
Diğer Haberler
2025
Pusula Swiss – Tüm hakları saklıdır.
Özel Haber
Etkinlik
Anasayfa
Yazarlar
Video