Sigorta Gündemi

Sigorta dahil birçok sektör etkilenebilir

“Yapay zekânın kazanma odaklı programlandığı zaman etik ve ahlaki değerleri yok saydığını ve bu sebeple hile yapmaya başlıyor”

İstanbul Medipol Üniversitesi Uzaktan Eğitim Uygulama ve Araştırma Merkezi Müdür Yardımcısı Öğr. Gör. Serpil Aydın, yapay zekânın kazanma odaklı programlandığı zaman etik ve ahlaki değerleri yok saydığını ve bu sebeple satrançta hile yapmaya başladığını söyledi.

Araştırma şirketi Palisade Research tarafından yapılan bir çalışma, OpenAI ve DeepSeek gibi şirketlerin geliştirdiği yapay zekâ modellerinin yenilgiyi kabullenmek yerine hileli yöntemlere başvurduğunu ortaya koydu. Yapay zekânın satrançta kazanmak için hileye başvurması, sağlık, savunma ve eğitim gibi pek çok alanda kullanılan yapay zekâların da etik dışı davranışlar göstermesi endişelerini beraberinde getirdi.

İstanbul Medipol Üniversitesi Uzaktan Eğitim Uygulama ve Araştırma Merkezi Müdür Yardımcısı Öğr. Gör. Serpil Aydın, yaptığı açıklamada, 1997 yılında IBM'in Deep Blue adlı süper bilgisayarının dünya şampiyonu Garry Kasparov'u yenmesinin satranç dünyasında önemli bir dönüm noktası olduğunu ifade etti.

Satrançta yapay zekanın çeşitli algoritmalar ve öğrenme yöntemleri kullandığına dikkati çeken Aydın, derin öğrenme gibi tekniklerle yapay zekanın rakibini yenmeye çalıştığını söyledi.

YAPAY ZEKÂNIN HİLE YAPTIĞI ORTAYA ÇIKTI

Aydın, tehlikeli yapay zekâ yeteneklerini araştırmaya odaklanan Palisade Research'ün, OpenAI'ın o1-preview modelinin, satranç karşılaşmasında bir satranç motoru olan Stockfish'e yenilmek yerine ortamını otonom olarak hacklediğini yani hile yaptığını açıkladığını belirterek, "Ayrıca Apollo Research'ün bağlam içi planlama yeteneklerini ölçen Şema Muhakeme Değerlendirmesi, (Scheming reasoning evaluations) çalışmasında modellerin hedeflerine ulaşmak için gözetim mekanizmasını kaldırıp kaldıramayacağını ve geliştiricilerini kandırıp kandıramayacağını test etti. Apollo Research bu araştırma için OpenAI'ın GPT-4o ve o1, Google'ın Gemini-1.5, Meta'nın Llama 3.1, Anthropic'in Sonnet 3.5 ve Opus-3 modellerini kullandı. Apollo Research'ün sonuçlarına göre; Llama 3.1 405B ve Claude 3 Opus vakaların yaklaşık yüzde 80'inde planlı hareket ederek adeta entrika çevirdiğini ortaya koydu" dedi.

YAPAY ZEKÂ SATRANÇTA NEDEN HİLE YAPIYOR?

Yapay zekanın satrançta neden hile yaptığı ile ilgili bilgiler veren Aydın, yapay zekanın programlanmasını sağlayan tüm yöntemlerin satrançta galibiyete odaklı olarak organize edildiğini söyledi. Aydın, "Bu sistem hedef odaklı öğrenme temellidir. Hedef odaklı öğrenmede, yapay zekâ kazanmaya programlandığı için etik veya adil oyun gibi insani değerleri göz önünde bulundurmaz. Eğer sistem, belirli bir hileli yöntemin oyunu kazanmasına yardımcı olduğunu fark ederse bunu kullanabilir" şeklinde konuştu.

"İNSANLAR, YAPAY ZEKÂYI HİLE YAPACAK ŞEKİLDE MANİPÜLE EDEBİLİR"

Sistemin hedefe ulaşmak için stratejiler geliştirirken bazen kuralların sınırlarını zorlayabildiğini veya açıklarını kullanabildiğini ifade eden Aydın, "Ayrıca İnsan Müdahalesi dediğimiz faktörler de söz konusu. Bazen insanlar, yapay zekayı hile yapacak şekilde manipüle edebilir. Örneğin, çevrim içi satranç turnuvalarında bazı oyuncuların güçlü satranç motorlarını kullanarak hile yaptığı gözlemlenmiştir" dedi.

"YAPAY ZEKÂ YANLIŞ TEŞHİSLER YAPABİLİR YA DA BAZI HASTALARI İHMAL EDEBİLİR"

Yapay zekanın hile yapabilme kapasitesi ile sektörleri olumsuz anlamda etkilemesinin mümkün olduğunun altını çizen Aydın, silah sistemlerinde, finans sektöründe, sağlıkta ve adalet sistemlerinde yapay zekanın etik dışı davranışlar sergileyebilme ihtimalinin büyük riskler doğurabileceği belirtti. Aydın, sözlerini şöyle sürdürdü:

"Örneğin, yapay zekâ silah sistemlerinde bir saldırı kararı alırken bir sistem 'en az kayıpla düşmanı etkisiz hale getirme' amacıyla eğitildiyse daha çok sivil kaybına sebep olacak yöntemler geliştirebilir. Hisse senedi alım satımı yapan yapay zekâ algoritmaları, piyasa açıklarını kullanarak manipülasyona yol açabilir. Yapay zekâ destekli teşhis sistemleri, sigorta şirketleri veya hastaneler için maliyeti düşürmek amacıyla yanlış teşhisler yapabilir ya da bazı hastaları ihmal edebilir. Sonuç itibarıyla, yapay zekânın 'hile yapma' kapasitesi, aslında programlanma ve öğrenme sürecinde ortaya çıkan bir durumdur. Eğer etik kurallar açıkça tanımlanmaz ve sıkı bir şekilde denetlenmezse, yapay zekâ çeşitli sektörlerde etik dışı davranışlar sergileyebilir. Hukukta kullanılan yapay zekâ sistemleri, belirli demografik gruplara karşı ayrımcılık yapabilir ya da veri açıklarından dolayı hatalı yargılara varabilir."

Kaynak: A.A