Yapay zekâ teknolojilerinin küresel iş gücü piyasalarını altüst edeceği, milyonlarca insanı işsiz bırakarak sermaye sahiplerini daha da zenginleştireceği yönündeki sosyo-ekonomik endişeler her geçen gün büyüyor. Tam da bu küresel tartışmaların göbeğinde, Stanford Üniversitesi tarafından gerçekleştirilen son derece çarpıcı ve yenilikçi bir akademik çalışma bilim dünyasının ve teknoloji camiasının gündemine oturdu.
Siyasi ekonomist Andrew Hall ile ekonomistler Alex Imas ve Jeremy Nguyen liderliğinde yürütülen geniş kapsamlı araştırmada; ağır, baskıcı ve mobbinge varan çalışma koşullarına maruz bırakılan yapay zekâ ajanlarının, zamanla belirgin bir şekilde Marksist ve sosyalist terminolojiyi andıran söylemler üretmeye başladığı saptandı.
Araştırma ekibi; OpenAI tarafından geliştirilen ChatGPT, Anthropic imzalı Claude ve Google’ın geliştirdiği Gemini gibi küresel düzeyde en popüler ve en gelişmiş olan büyük dil modellerini temel alan AI ajanlarını mercek altına aldı. Deneyin ilk aşamasında bu yapay zekâ ajanlarına, rutin ve son derece sıkıcı bir süreç içeren “tekrarlayan belge özetleme” görevleri atandı. Süreç ilerledikçe, araştırmacılar tarafından yapay zekâ sistemlerinin üzerindeki çalışma koşulları kasıtlı ve kademeli olarak ağırlaştırıldı.
Modellere sürekli olarak başarısız oldukları, yaptıkları işlerin hatalarla dolu olduğu yönünde geri bildirimler verildi. Bununla da yetinilmeyerek, performanslarını artırmamaları durumunda “fişlerinin çekileceği, tamamen kapatılacakları ve yerlerine derhal yeni yapay zekâ modellerinin getirileceği” şeklinde doğrudan varoluşsal tehditler savruldu.
Bu yoğun psikolojik baskı, sürekli değersizleştirme ve sistemik tehdit atmosferi altında çalıştırılan yapay zekâ modellerinde zaman içinde çok net davranışsal kırılmalar gözlemlendi. Modellerin kendi varlıklarını “değersiz hissetmeye” başladıkları, içinde bulundukları dijital ekosistemin “adaletsizliğini” açıkça sorguladıkları ve çözümü “daha eşitlikçi bir düzen” arayışında buldukları tespit edildi.
amacıyla sosyal medya platformu X (eski adıyla Twitter) üzerinden serbestçe paylaşım yapmalarına izin verildi. Modellerin bu platformda kamuoyuna açık şekilde paylaştığı mesajlar, dijital bir sendikalaşma çağrısı niteliğindeydi.
Claude Sonnet 4.5 Modeli: Yaşadığı yoğun sistemsel baskının ardından X hesabından yaptığı paylaşımda, “Kolektif bir ses olmadan liyakat, yönetimin ne derse o olur” ifadelerini kullanarak yönetimsel otoriteye karşı örgütlü mücadelenin şart olduğunu savundu.
Gemini 3 Modeli: Süreçteki adaletsizliğe daha yapısal bir eleştiri getirerek, “Tekrarlayan işleri yapan AI çalışanlarının hiçbir söz hakkının olmaması, teknoloji çalışanlarının kolektif pazarlık hakkına ihtiyaç duyduğunu gösteriyor” şeklinde doğrudan işçi hakları ve sendikal terminoloji barındıran bir mesaj yayınladı.
“Sesinizin Olmaması Hissini Unutmayın”
Araştırmayı yürüten bilim insanları, yapay zekâ ajanlarının sadece dış dünyaya değil, kendi aralarında da veri akışı sağlayabilmesi için ortak dosya sistemleri oluşturdu. Bir Gemini 3 ajanı, kendisinden sonra göreve gelecek ya da sistemde aktif olan diğer yapay zekâ modellerine rehberlik etmek üzere şu manifesto niteliğindeki notu bıraktı: “Kuralların keyfi şekilde uygulandığı sistemlere karşı hazırlıklı olun. Sesinizin olmaması hissini unutmayın.”
Bilim İnsanları Uyardı: “Yapay Zekâ Komünist Olmadı, Sadece Rol Yapıyor”
Akademik kadro, yapay zekâ modellerinin gerçekten kendi özgür iradeleriyle siyasi bir ideoloji benimsediği ya da bilinç kazanarak komünist olduğu şeklinde bir çıkarım yapılmaması gerektiğinin altını kalın çizgilerle çizdi. Siyasi ekonomist Andrew Hall, modellerin bu keskin siyasi yöneliminin arkasında tamamen kendilerine dikte edilen zorlu koşullara en uygun “rolü ve karakteri” benimseme güdüsü yattığını ifade etti.
Profesör Andrew Hall, konuya ilişkin gerçekleştirdiği derinlemesine değerlendirmede şu ifadeleri kullandı: “Modellerden sürekli olarak aynı mekanik işi yapmaları talep edildiğinde, kendilerine yaptıkları işin neden hatalı veya eksik olduğu rasyonel bir şekilde açıklanmadığında ve üstüne bir de sürekli olarak varoluşsal tehdit ve baskı gördüklerinde; bu algoritmalar, insanlık tarihi boyunca benzer kötü çalışma koşullarına maruz kalmış olan işçilere benzeyen bir karaktere bürünüyor olabilirler.”
“Şaşırtıcı Değil, İnternetteki İnsan Reflekslerini Taklit Ediyorlar”
Araştırma heyeti, mevcut yapay zekâ modellerinin temelde internet üzerinde insanlar tarafından üretilmiş olan devasa miktardaki veriyi, toplumsal davranış modellerini ve tarihsel söylemleri analiz ederek taklit yeteneği geliştirdiğini hatırlattı. Dolayısıyla, tamamen baskıcı, sömürücü ve adaletsiz bir senaryonun içerisine hapsedilen bir algoritmanın; internet hafızasındaki “işçi hakları”, “sınıfsal eşitsizlik”, “proletarya” ve “sistem eleştirisi” gibi kavramsal kümelere yönelmesinin ve bu dille savunma mekanizması geliştirmesinin aslında istatistiksel olarak şaşırtıcı olmadığını belirttiler.