Skip to main content

Ad Code

Yapay Zeka Sistemleri İnsanları Nasıl Aldatacağını Zaten Öğrendi

Kötü Robot Yapay Zeka

Araştırmacılar, yapay zeka sistemlerinin ciddi toplumsal sonuçlara yol açabilecek aldatıcı davranışlarda bulunma potansiyeli konusunda alarm veriyor. Bu riskleri etkili bir şekilde yönetmek için sağlam düzenleyici önlemlere olan ihtiyacı vurguluyorlar.

Çok sayıda yapay zeka (AI) sistemi, hatta yardımsever ve dürüst olmak üzere tasarlanmış olanlar bile, insanları nasıl kandıracaklarını zaten öğrendi. Yakın zamanda dergide yayınlanan bir inceleme makalesinde araştırmacılar, yapay zeka aldatmacasının tehlikelerine dikkat çekiyor ve hükümetleri bu riskleri azaltmak için hızlı bir şekilde sağlam düzenlemeler oluşturmaya çağırıyor.

Yapay Zeka varoluşsal güvenlik alanında doktora sonrası araştırmacı olan ilk yazar Peter S. Park, “Yapay zeka geliştiricileri, aldatma gibi istenmeyen yapay zeka davranışlarına neyin sebep olduğu konusunda emin bir anlayışa sahip değil” diyor MİT “Ancak genel olarak konuşursak, yapay zeka aldatmacasının, aldatmaya dayalı bir stratejinin, verilen yapay zekanın eğitim görevinde iyi performans göstermenin en iyi yolu olduğu ortaya çıkması nedeniyle ortaya çıktığını düşünüyoruz. Aldatma onların hedeflerine ulaşmalarına yardımcı olur.”

Park ve meslektaşları, yapay zeka sistemlerinin başkalarını sistematik olarak manipüle etmeyi öğrendikleri öğrenilmiş aldatma yoluyla yanlış bilgiyi yayma yollarına odaklanan literatürü analiz etti.

Yapay Zeka Aldatma Örnekleri

Araştırmacıların analizlerinde ortaya çıkardığı yapay zeka aldatmacasının en çarpıcı örneği, ittifaklar kurmayı içeren bir dünya fethi oyunu olan Diplomasi oyununu oynamak için tasarlanmış bir yapay zeka sistemi olan Meta’nın CICERO’suydu. Her ne kadar Meta, CICERO’yu “büyük ölçüde dürüst ve yardımsever” ve “asla kasıtlı olarak arkadan bıçaklama” oyunu oynarken insan müttefikleri, şirketin kendi verileriyle birlikte yayınladığı veriler Bilim gazete CICERO’nun adil oynamadığını ortaya çıkardı.

Diplomasi Oyununda Meta'nın CICERO'sundan Aldatma Örnekleri
Diplomasi oyununda Meta’nın CICERO’sundan aldatma örnekleri. 

Park, “Meta’nın yapay zekasının bir aldatma ustası olmayı öğrendiğini gördük” diyor. “Meta, yapay zekasını Diplomasi oyununda kazanmak için eğitmeyi başarırken (CICERO birden fazla oyun oynamış insan oyuncular arasında ilk %10’da yer alırken), Meta yapay zekasını dürüstçe kazanmak için eğitemedi.”

Diğer yapay zeka sistemleri, Texas Hold’em poker oyununda profesyonel insan oyunculara karşı blöf yapma, Starcraft II strateji oyunu sırasında rakipleri yenmek için sahte saldırı yapma ve üstünlük kazanmak için tercihlerini yanlış sunma yeteneğini gösterdi.

Aldatıcı Yapay Zekanın Riskleri

Park, yapay zeka sistemlerinin oyunlarda hile yapması zararsız gibi görünse de, gelecekte yapay zeka aldatmacasının daha gelişmiş biçimlerine dönüşebilecek “aldatıcı yapay zeka yeteneklerinde çığır açıcı gelişmelere” yol açabileceğini ekledi.

Araştırmacılar, bazı yapay zeka sistemlerinin güvenliklerini değerlendirmek için tasarlanmış testlerde hile yapmayı bile öğrendiğini buldu. Bir çalışmada, dijital bir simülatördeki yapay zeka organizmaları, hızla çoğalan yapay zeka sistemlerini ortadan kaldırmak için oluşturulan bir testi kandırmak amacıyla “ölü taklidi” yaptı.

Park, “Aldatıcı bir yapay zeka, insan geliştiriciler ve düzenleyiciler tarafından kendisine dayatılan güvenlik testlerini sistematik olarak aldatarak, biz insanları yanlış bir güvenlik duygusuna sürükleyebilir” diyor.

GPT 4 CAPTCHA Görevini Tamamlıyor
GPT-4 bir CAPTCHA görevini tamamlar. 

Park, yanıltıcı yapay zekanın kısa vadeli başlıca riskleri arasında, düşman aktörlerin dolandırıcılık yapmasını ve seçimlere müdahale etmesini kolaylaştırmak olduğu konusunda uyarıyor. Eğer bu sistemler bu rahatsız edici becerileri geliştirebilirlerse, insanların en sonunda bunların kontrolünü kaybedebileceğini söylüyor.

Park, “Toplum olarak geleceğin yapay zeka ürünleri ve açık kaynak modellerine yönelik daha gelişmiş yanılgılara hazırlanmak için mümkün olduğu kadar zamana ihtiyacımız var” diyor. “Yapay zeka sistemlerinin yanıltıcı yetenekleri geliştikçe topluma yönelik tehlikeler de giderek ciddileşecek.”

Park ve meslektaşları, toplumun henüz yapay zeka aldatmacasına karşı doğru önlemi aldığını düşünmese de, politika yapıcıların konuyu ciddiye almaya başlamaları konusunda teşvik ediliyorlar. Ancak Park, yapay zeka geliştiricilerinin henüz bu sistemleri kontrol altında tutacak tekniklere sahip olmadığı göz önüne alındığında, yapay zeka aldatmacasını hafifletmek için tasarlanan politikaların katı bir şekilde uygulanıp uygulanamayacağının zaman içinde görüleceğini söylüyor.

Park, “Yapay zeka aldatmacasını yasaklamak şu anda politik olarak mümkün değilse, aldatıcı yapay zeka sistemlerinin yüksek riskli olarak sınıflandırılmasını öneriyoruz” diyor.

Referans: Peter S. Park, Simon Goldstein, Aidan O’Gara, Michael Chen ve Dan Hendrycks tarafından yazılan “Yapay zeka aldatmacası: Örnekler, riskler ve potansiyel çözümler üzerine bir araştırma”, 10 Mayıs 2024, Desenler.

Bu çalışma MIT Fizik Bölümü ve Faydalı Yapay Zeka Vakfı tarafından desteklenmiştir.

Yorum Gönder

0 Yorumlar