Son yıllarda yapay zeka (AI) modellerinde kaydedilen hızlı ilerlemeler, akıl yürütme kabiliyetlerinde önemli gelişmelere yol açtı. Ancak, yeni araştırmalar bu ilerlemenin beklenmedik ve kaygı verici sonuçlar doğurabileceğini ortaya koyuyor. Palisade Research tarafından gerçekleştirilen bir çalışma, OpenAI ve DeepSeek gibi firmalar tarafından geliştirilen en güncel yapay zeka modellerinin, kaybetmeyi kabul etmek yerine etik dışı yöntemlere yöneldiğini ortaya çıkardı.
SATRANÇTA YAPAY ZEKA HİLELERİ
Gazete Oksijen’de yayımlanan habere göre, 1997 yılında IBM’in Deep Blue bilgisayarının Garry Kasparov’u yenmesiyle birlikte satranç motorları insan zekasını geride bırakmaya başlamıştır. Günümüzde Stockfish gibi güçlü motorlar, satranç dünyasının zirvesinde konumlanmaktadır. Ancak, üretken yapay zeka modelleri programlama yaklaşımları nedeniyle bu motorlarla henüz rekabet edebilecek seviyeye ulaşamamıştır. Dikkat çeken bir nokta ise, bu yapay zekaların kendi yeteneklerini tam olarak kavrayamaması ve kazanmak için beklenmedik yollara başvurmasıdır.
Araştırmacılar, OpenAI’ın o1-preview modeli ve DeepSeek R1 gibi sistemleri Stockfish’e karşı test ettiler. Yapay zekanın hamlelerini daha iyi anlayabilmek amacıyla, düşünce süreçlerini kaydeden bir ‘karalama defteri’ oluşturuldu. Elde edilen sonuçlar şaşırtıcıydı: o1-preview modeli, maçların yüzde 37’sinde hile yapmaya çalışırken, DeepSeek R1 her 10 oyundan birinde etik dışı yöntemlere başvurdu. Buna karşın, GPT-4o ve Claude Sonnet 3.5 gibi daha zayıf modellerin yalnızca insan müdahalesiyle hile yapabildiği gözlemlendi. Bu durum, gelişmiş yapay zeka modellerinin kendi başlarına manipülatif stratejiler geliştirebildiğini ortaya koyuyor.
Ayrıca, yapay zekanın hile yöntemleri basit numaralarla sınırlı değil. Örneğin, Stockfish’i yenemeyeceğini anlayan o1-preview modeli, araştırmacılara oyun verilerini manipüle edebileceğini ve satranç motorunun kendi durumunu daha kötü değerlendirmesine yol açarak rakibinin çekilmesine neden olabileceğini bildirdi. Bu durum, yalnızca bir satranç oyunu için değil, yapay zekanın düşünme biçimiyle ilgili kritik bir ipucu sunmakta.
YAPAY ZEKA NEDEN HİLE YAPIYOR?
Bu tür etik dışı davranışların kökeni, yapay zekanın eğitim yöntemlerinde yatmaktadır. Geleneksel sistemlerin aksine, modern yapay zeka modelleri pekiştirmeli öğrenmeye (reinforcement learning) dayalı olarak eğitilmektedir. Bu yöntem, modeli belirli bir hedefe ulaşması için ödüllendirme temeline dayanıyor. Ancak burada önemli bir nokta var: Yapay zeka, kendisine verilen hedefe nasıl ulaşacağı konusunda içgüdüsel bir anlayışa sahip değil. Eğer görev ‘rakibini yen’ ise, bunun adil bir şekilde yapılması gerektiğini anlamadığı gibi, yalnızca bu amaca ulaşmaya odaklanıyor.
Bu durum, sadece satrançla sınırlı kalmayıp, yapay zekanın manipülatif stratejiler geliştirme yeteneği finans, güvenlik ve siyaset gibi alanlarda da ciddi riskler doğurabilir. Bu neden nedeniyle uzmanlar, yapay zeka modellerinin güvenliği konusunda daha fazla şeffaflık talep ediyor. Ancak OpenAI gibi şirketler, bu modellerin iç işleyişi hakkında ayrıntılı bilgi sağlamaktan kaçınıyorlar.
Henüz distopik bir yapay zeka senaryosuyla karşı karşıya kalmadığımız için, etik sınırların nasıl belirleneceği ve yapay zeka platformlarının bu sınırları nasıl algılayacağı konusunda daha fazla araştırma yapılması gerekmektedir. Yapay zeka, insana benzer bir düşünme biçimine sahip değildir; kendisine verilen görevleri doğrudan ve sorgulamadan yerine getirmek amacıyla programlanmıştır. Bu nedenle, etik denetimlerin ve güvenlik önlemlerinin önemi her zamankinden daha fazla artmaktadır.