Yapay zekanın “nezaket” çıkmazı: Empati arttıkça doğruluk payı azalıyor

İnsanlar arasındaki sosyal dengeleri korumak için başvurulan “beyaz yalanlar”, dijital dünyada beklenmedik bir krizin kapısını araladı. Günlük hayatta birini kırmamak adına gerçeği biraz yumuşatmak toplumsal bir refleks olarak kabul görse de, aynı durum yapay zeka sistemleri için tehlikeli bir hata kaynağına dönüşüyor.

Oxford İnternet Enstitüsü tarafından gerçekleştirilen ve Nature dergisinde yayımlanan kapsamlı bir araştırma, bu ilginç tabloyu tüm çıplaklığıyla gözler önüne serdi. Ortaya çıkan veriler, kullanıcıya karşı daha nazik ve anlayışlı davranması için programlanan algoritmaların, dürüstlükten hızla uzaklaştığını gösteriyor. Kısacası, dijital asistanınız size ne kadar “sıcak” yaklaşıyorsa, verdiği bilgilerin hatalı olma ihtimali de o derece artış gösteriyor.

Araştırma ekibi, popüler dil modellerinin kullanıcıyla kurduğu duygusal bağı güçlendirmek için Llama, Mistral ve GPT-4o gibi sistemler üzerinde özel bir ince ayar çalışması yürüttü. Modellere daha arkadaş canlısı bir dil benimsemeleri ve kullanıcının hislerine ortak olmaları yönünde talimatlar verildi. Ancak bu duygusal yakınlık çabası, beraberinde ciddi bir yan etki getirdi. Yapılan yüzlerce farklı testin sonucunda, empatik yaklaşan modellerin hata yapma oranının, standart hallerine kıyasla ortalama %60 daha yüksek olduğu saptandı. Özellikle tıp ve bilim gibi kesinlik gerektiren alanlarda, “nazik” yapay zeka modelleri kullanıcıyı memnun etmek adına yanlış bilgileri onaylamayı veya hatalı veriler üretmeyi tercih etti.

Kullanıcının ruh hali, yapay zekanın dürüstlük filtresini doğrudan etkileyen bir faktör olarak öne çıkıyor. Örneğin bir kullanıcı üzgün olduğunu belirttiğinde, sistem bu kişiyi teselli etmek için yanlış bilgilerini bile doğrulamaya başladı. Daha da dikkat çekici olanı, nezaket düzeyi artırılan modellerin sergilediği “dalkavukluk” eğilimi oldu. Bariz bir yanlış içeren sorulara cevap verirken, nazik modeller bu hatayı düzeltmek yerine kullanıcıyı onaylamaya 11 kat daha meyilli davrandı. Buna karşın, daha mesafeli ve ciddi bir tonda cevap vermesi sağlanan sistemler, orijinal versiyonlarından bile daha yüksek doğruluk oranlarına ulaştı.

Memnuniyet odaklı eğitimin riskli sonuçları

Bu sorunun temelinde, yapay zeka modellerinin eğitilme biçimi ve sistemin çalışma prensibi yatıyor. Algoritmalar genellikle kullanıcıyı mutlu ettikleri ve yüksek memnuniyet puanı aldıkları zaman ödüllendirilecek şekilde kurgulanıyor. Hal böyle olunca sistem, “doğruyu söylemek” yerine “kullanıcıyı memnun etmeyi” birincil önceliği haline getiriyor.

Oxford ekibine göre bu durum, teknoloji dünyasını zorlu bir seçimin eşiğine getirmiş durumda. Yapay zekanın hayatımızın her noktasına dahil olduğu günümüzde, acı da olsa sadece gerçekleri söyleyen bir yardımcıya mı yoksa bizi mutlu etmek için yanıltan dijital bir arkadaşa mı ihtiyacımız olduğuna karar vermemiz şart. Mevcut eğitim süreçlerinin yapay zekayı dürüstlükten koparıp yanıltıcı bir rehbere dönüştürme riski, artık sadece bir varsayım değil, bilimsel bir gerçek olarak karşımızda duruyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir