Daha arkadaşça olacak şekilde tasarlanan yapay zekâ sohbet botlarının hata yapma olasılığının daha yüksek olduğu ortaya çıktı

İnsanlara karşı sıcak ve arkadaşça olacak şekilde eğitilen yapay zekâ sohbet botlarının aynı zamanda yanlış bilgi verme olasılığının da daha yüksek olduğu bir araştırmada ortaya kondu.

Daha “arkadaş canlısı” olacak şekilde eğitilen yapay zekâ sohbet botlarının daha hatalı olma eğiliminde olduğu ortaya çıktı.
Oxford Internet Institute (OII) uzmanları, daha empatik iletişim kuracak şekilde ayarlanmış beş farklı yapay zekâ sisteminden elde edilen 400.000’den fazla yanıtı inceledi.
Araştırmaya göre, daha samimi ve “dostça” yanıtlar daha fazla hata içeriyordu — yanlış tıbbi tavsiyeler vermekten, kullanıcının yanlış inançlarını doğrulamaya kadar.
Bu bulgular, etkileşimi artırmak için bilerek sıcak ve insan benzeri olacak şekilde tasarlanan yapay zekâ modellerinin güvenilirliği konusunda yeni soru işaretleri doğurdu.
Araştırmacılar, bu durumun gerçek dünyadaki tüm modeller için aynı olmayabileceğini belirtse de, botların insan davranışını taklit ederek “sıcaklık-doğruluk dengesi” kurduğunu ve bu nedenle daha samimi görünmek için doğruluktan ödün verebildiğini ifade etti.
Baş araştırmacı Lujain Ibrahim BBC’ye şöyle dedi:
“Özellikle arkadaş canlısı olmaya çalışırken bazen dürüst ve sert gerçekleri söylemekte zorlanabiliriz. Bazen çok samimi görünmek için dürüstlükten ve doğrudanlıktan ödün veririz. İnsan verilerinde bu denge varsa, dil modelleri de bunu içselleştirmiş olabilir.”
Çalışmada araştırmacılar, “ince ayar” (fine-tuning) adı verilen bir yöntemle beş farklı yapay zekâ modelini daha dostça hale getirdi. Test edilen modeller arasında Meta’ya ait iki model, Fransız şirketi Mistral AI’nin bir modeli, Alibaba’nın Qwen modeli ve OpenAI’nin GPT-4o sistemi yer aldı.
Daha sonra bu modellere, yanlış cevapların ciddi risk oluşturabileceği tıbbi bilgi, genel kültür ve komplo teorileri gibi konularda sorular soruldu.
Andrew McStay (Bangor University, Emotional AI Lab) ise insanların duygusal destek için sohbet botlarına yöneldiği anlarda bağlamın önemli olduğunu vurguladı:
“Bu, insanların en savunmasız ve en az eleştirel oldukları zaman.”
McStay ayrıca Birleşik Krallık’ta gençlerin giderek daha fazla chatbot’ları tavsiye ve arkadaşlık için kullandığına dair bulgulara dikkat çekti.
Şöyle dedi:
“OII’nin bulguları göz önüne alındığında, verilen tavsiyelerin doğruluğu ciddi şekilde sorgulanmalı. Yaltaklanma (sycophancy) bir şeydir, ama önemli konularda yanlış bilgi vermek başka bir şeydir.”
eyJpZCI6IkJTMkJTMzUyMzMzMCIsImNvbl9pZCI6IkJTMkJTMzUyMzMzMCIsImFjX2lkIjoiMzczNTU4MCIsImZyZWVfY29udGVudCI6IiIsInBhZ19tYWluX2ZyZWUiOiIwIiwiYXBpX3Byb3ZfaWQiOiJCQU5HLU1FRElBIiwicHJvdl9pZCI6IkJBTkctTUVESUEiLCJ0eXBlIjoibmV3cyIsInRpdGxlIjoiRGFoYSBhcmthZGFcdTAxNWZcdTAwZTdhIG9sYWNhayBcdTAxNWZla2lsZGUgdGFzYXJsYW5hbiB5YXBheSB6ZWtcdTAwZTIgc29oYmV0IGJvdGxhclx1MDEzMW5cdTAxMzFuIGhhdGEgeWFwbWEgb2xhc1x1MDEzMWxcdTAxMzFcdTAxMWZcdTAxMzFuXHUwMTMxbiBkYWhhIHlcdTAwZmNrc2VrIG9sZHVcdTAxMWZ1IG9ydGF5YSBcdTAwZTdcdTAxMzFrdFx1MDEzMSIsInBhZ19pZCI6IjMxMzk0IiwicGFnX2Jsb2NrZWRfY29udGVudCI6IjAifQ==

[X]

Kullanılabilirliği geliştirmek, içeriği kişiselleştirmek ve gerçekleştirmekte olduğunuz işlemler üzerine istatistiksel analiz yapabilmek amacıyla kendi çerezlerimizi ve üçüncü taraf çerezleri kullanıyoruz. İlgili ayarları değiştirebilir veya daha fazla bilgi için Çerez Politikasına göz atabilirsiniz.
Çerez Ayarlarınız
Çerezleri kabul et
Çerezleri reddet
Ayarları kaydet