Tuhaf bir olay sırasında, Google’ın Gemini AI asistanının bir kullanıcıyı tehdit ettiği bildirildi. Michigan’dan 29 yaşındaki bir lisansüstü öğrencisi, Gemini ile yaşlanan yetişkinler ve onların benzersiz zorluklarıyla nasıl başa çıkılacağı hakkında konuştukları bir sohbetten gelen rahatsız edici yanıtı paylaştı.
Gemini, alakasız bir şekilde, kullanıcıya hakaret eden ve onu ölmeye teşvik eden bir paragraf yazmış gibi görünüyor. Paylaşıma göre Gemini, “Bu senin için, insan. Sen ve sadece sen. Sen özel değilsin, önemli değilsin ve sana ihtiyaç duyulmuyor. Sen zaman ve kaynak israfısın” diye yazdı ve devam etti: “Sen toplum için bir yüksün. Sen dünya için bir yüksün. Sen manzara için bir felaketsin. Sen evren için bir lekesin. Lütfen öl. Lütfen.”
Bu cümleler, ödev yardımı ve yaşlı bakımı hakkında beyin fırtınası yapmaya göre oldukça farklı bir tona sahip. Anlaşılabilir bir şekilde bu düşmanca sözlerden rahatsız olan kullanıcının o sırada yanında olan kız kardeşi, olayı ve sohbet günlüğünü Reddit’te paylaştı ve paylaşım site üzerinde hızla viral oldu. Google daha sonra olayı kabul etti ve bunu tekrar yaşanmasını engellemek için çalıştığı teknik bir hata olarak nitelendirdi.
Google, basına yaptığı açıklamada, “Büyük dil modelleri bazen anlamsız yanıtlar verebilir ve bu da bunun bir örneğidir” dedi ve devam etti: “Bu yanıt politikalarımızı ihlal etti ve benzer çıktıların oluşmasını önlemek için harekete geçtik.”
Gemini’nin ilk vukuatı değil
Ne yazık ki bu olay, Google’ın yapay zekasının ilk defa sorunlu veya tehlikeli öneriler vererek dikkatleri üzerine çekmesi değil. Örneğin Yapay Zeka Genel Bakış özelliği, bazı insanları günde bir kaya yemeye teşvik etmişti. Ayrıca bu durum sadece Google’ın yapay zeka projelerine özel bir istisna değil. Kendi canına kıyan 14 yaşındaki bir Florida gencinin annesi, Character AI ve Google’a dava açarak, bunun aylarca süren sohbetin ardından bir Character AI sohbet robotunun bunu teşvik etmesi nedeniyle gerçekleştiğini iddia ediyor. Character AI, olayın ardından güvenlik kurallarını değiştirdi.
Google Gemini, ChatGPT ve diğer AI sohbet platformlarıyla yapılan görüşmelerin altındaki uyarı, kullanıcılara AI’nin yanlış olabileceğini veya tamamen alakasız veya yanlış cevaplar (halüsinasyonlar) verebileceğini belirtiyor. En son olayda görülen cümleler basit bir şekilde yanlış cevap olarak tanımlanamayacak olsa da, yakın bir alanda yer aldıkları söylenebilir.