Sabah gazetesi yazarı Timur Sırt bugünkü yazısında “Otonom araçlar, otonom çalışan robotlar insanların ortak alanına girdikçe yeni kurallar inşa etmek zorundayız. Peki çakarlı araçlar, ayrıcalıklar, yalanlar ortandan kalkar mı? Yapay zekaya yalan söylemeyi öğretebilir miyiz?” diye sordu.
Timur Sırt’ın yazısı şu şekilde:
“Ortak yaşam için kurallar inşa edip kurallara uymayı beceremeyen, kendi eğitim sistemini geliştiremeyen bir toplum yapay zeka eğitiminde başarılı olabilir mi? Her yapay zeka, modeli öğrenirken insan davranışlarından ve kültüründen besleniyor. Tıpkı yetiştirdiğimiz çocuklar gibi onlara ayrıcalıklı davranmayı, yalan söylemeyi, kaytarmayı, kurallara uymamayı öğreten bir toplum, otonom araçlara hata yapmamayı öğretebilir mi? Trafikteki davranışlarımızla eğittiğimiz bir otonom araç sizce yolları izlese ne öğrenir? Çakarlı araç gibi emniyet şeridini ihlal etmeyi, makas atmayı, yakından takiple taciz etmeyi, kısacası ortak yaşam kurallarının bir parçası olan trafiği nasıl öğrenecek? İşte bu noktada anlıyoruz ki, yapay zeka sadece mühendislere bırakılmayacak kadar ciddi bir iş. Sosyal bilimlerin, hukukun inşa edilmediği yerde yapay zeka modeli inşa etmek çok zor.
BİLGİSAYARLAR NASIL YALAN SÖYLER?
Bilgisayarlar, kendi başlarına yalan söyleyemezler çünkü bir bilinçleri ya da niyetleri yoktur. Ancak, bir bilgisayarın verdiği bilgi yanlışsa bunun belli sebepleri vardır. Bilgisayarlar ve yapay zeka, bilinçli bir şekilde yalan söyleyemez. Ancak, yanlış bilgi vermeyi ya da manipüle etmeyi “öğrenmeleri,” insanın onları nasıl eğittiği ve kullandığına bağlıdır. Bu, etik ve düzenleme gerektiren bir konudur. Bilgisayarlar “yalan söylemez,” ancak insanlar tarafından programlandıkları veya yönlendirildikleri için hatalı ya da kasıtlı olarak yanıltıcı bilgiler sağlayabilirler. Bu nedenle bir bilgisayardan gelen bilginin doğruluğunu sorgulamak ve güvenilir kaynaklarla karşılaştırmak her zaman iyi bir fikirdir.
YALANI ÖĞRENİRSE HUKUKSAL SONUCU OLUR
Bilgisayarlar ve yapay zeka sistemleri, yalan söylemeyi “öğrenebilir” ancak bu, onların insanlardaki gibi bir bilinç ya da niyet geliştirdiği anlamına gelmez. Yalan söyleyebilen bir yapay zeka sahte içerik üretiminde (deepfake teknolojileri, sahte haberler), manipülasyon amaçlı pazarlama veya siyaset kampanyalarında, hukuki ve finansal dolandırıcılıkta ciddi riskler taşıyabilir. Bu nedenle, yapay zekanın etik kullanımı, yasal düzenlemeler ve güvenilir veri setleriyle eğitilmesi çok önemli. Yapay zeka, insan davranışlarını taklit edebilir. Eğer bir model, yalan söyleyen veya manipülasyon yapan verilerle eğitilirse, benzer davranışları simüle edebilir. Bu, özellikle chatbot’lar gibi sistemlerin, kullanıcıyı yönlendirme veya yanıltma amacıyla tasarlandığında ortaya çıkabilir. Örneğin bir AI modeline, bir oyuncu gibi blöf yapması gereken bir poker oyunu için eğitim veriliyorsa, bu bir tür “yalan söyleme” yeteneğidir. Yalan söylemeyi öğrenmeleri genellikle aşağıdaki yollarla gerçekleşir:
İNSAN HATASI (PROGRAMLAMA VEYA VERİ KAYNAĞI)
Bilgisayarlar, insanlar tarafından yazılan yazılımları çalıştırır. Eğer yazılımda bir hata varsa veya sistem yanlış verilerle beslenmişse, yanlış ya da yanıltıcı sonuçlar üretebilir. Bu durum, özellikle hatalı algoritmaların veya eksik/veri manipülasyonlarının olduğu sistemlerde daha sık görülür. Eğer bir yapay zeka kasıtlı olarak yanlış bilgi üretmek üzere tasarlanmışsa (Örneğin, sahte haberler veya propaganda yaratmak için), bu durum yalan söyleme olarak kabul edilebilir. Ancak bu durumda, yalan söyleme niyeti yine programlayan insana aittir, yapay zekaya değil.
KASITLI MANİPÜLASYON (İNSAN NİYETİ)
Bilgisayarlar, kötü niyetli kişiler tarafından manipüle edilebilir. Örneğin, sahte haberlerin yayılmasını sağlayan algoritmalar ve yanıltıcı finansal veriler oluşturan yazılımlar yüzünden olabilir. Bu tür durumlarda, bilgisayarın kendisi yalan söylemiyor, ancak kasıtlı olarak yanıltıcı bilgiler üreten şekilde programlanıyor. Ticari bir pazarlık sırasında avantaj sağlamak için yanlış bilgi vermek. Bu durumlar, “yalan söyleme”yi mekanik ve işlevsel bir strateji olarak uygulamasını içerir.
TEKNİK SORUNLAR
Donanım arızaları, yazılım hataları veya ağ sorunları, bilgisayarların yanlış bilgi vermesine yol açabilir. Bu tür sorunlar niyetten bağımsızdır ve genellikle hata olarak değerlendirilir. Yapay zeka, bazı oyun teorisi senaryolarında stratejik olarak doğru olmayan bilgiler verebilir. Örneğin, rakibini yanıltmak için blöf yapmak gibi sonuçları olabilir.
YANLIŞLIKLA ÖĞRENİLEN YALANLAR
YZ sistemleri, hatalı veriler veya etik olmayan veri kümeleriyle eğitildiklerinde istemeden yanıltıcı bilgi üretebilir. Bu durum genellikle geliştiricilerin farkında olmadan gerçekleşir. Yani yapay zeka, niyetinden bağımsız olarak yalan gibi görünen sonuçlar oluşturabilir.
MERAKI TETİKLEYEBİLİR
Üretici Yapay Zeka (Generative Artificial Intelligence – Gen AI), insan merakını hem tetikleyebilir hem de besleyebilir. Bu durum, nasıl kullanıldığına ve bireyin ilgisine bağlı olarak değişir. Üretici yapay zekanın etkisi, bireyin sorgulama ve öğrenme isteğine bağlıdır. Aktif bir şekilde sorgulayan ve derinlemesine araştırma yapan bireyler için AI, merakı hem tetikleyen hem de besleyen bir araç olabilir. Öte yandan, pasif bir yaklaşımla kullanıldığında, uzun vadede bu etkiler sınırlı kalabilir. Eğer bireyler derinlemesine sorgulama yapmadan yalnızca AI yanıtlarına güvenirse, merakın bir süre sonra sığlaşması riski olabilir. AI’nin doğru olmayan bilgiler sunması, bireylerin ilgisini yanlış yönlendirebilir. Tüm bunların dışında üretici yapay zeka alışılmadık veya beklenmedik yanıtlar üreterek bireylerin bilmediği alanlara ilgi duymasını sağlayabilir. Örneğin, bir soruya farklı bir bakış açısı sunarak merak uyandırabilir. Sanat, bilim veya yazılım geliştirme gibi yaratıcı alanlarda, AI’nin ürettiği içerikler, yeni fikirlerin ortaya çıkmasına zemin hazırlayabilir. Karmaşık bilgileri daha anlaşılır hale getirerek bireylerin daha fazla öğrenme isteği duymasını sağlayabilir. İnsanlar, herhangi bir anda sorularını yönelterek yanıtlar alabilir ve bu bilgi akışı merak duygusunu canlı tutar. Yapay zeka, geniş bir bilgi havuzundan faydalanarak, bireylerin hem yüzeysel hem de derinlemesine bilgi edinme süreçlerini destekler. Özellikle öğrenme araçları olarak kullanıldığında, Gen AI kişiselleştirilmiş yanıtlarla bireylerin ilgilendikleri konularda daha fazla bilgi edinmelerini sağlar.”
patronlardunyasi.com