Skip to main content

Ad Code

Kırmızı ekip oluşturma: Sorumlu yapay zekanın temel bileşeni

Bir tarafta kuruluşlar teknolojik ilerlemenin ön saflarında yer almaya çalışıyor. Öte yandan, etik standartlara ve düzenleyici gerekliliklere sıkı bir şekilde uyulmasını sağlamalıdırlar.

Hızlı yenilik ile artan düzenleyici gereklilikler arasındaki bu ince çizgiyi dengelemeye çalışan kuruluşların, giderek kalabalıklaşan bir pazarda uyumlu ve rekabetçi kalmalarını sağlayacak şekilde standartlaştırılmış bir gelişim yaklaşımı kullanması gerekecektir.

Yapay zeka inovasyonu risk altında

Pek çok işletme halihazırda, (yaklaşan) da dahil olmak üzere giderek daha da karmaşıklaşan bir düzenleme düğümünü çözmeye çalışıyor. Siber Dayanıklılık Yasası Ve Veri Yasası.

Her ne kadar son zamanlarda AB Yapay Zeka Yasası Yapay zeka güvenliğine yönelik önemli bir adım atılmış olsa da yasa ek bürokrasi de yarattı. Bu, Avrupa Parlamentosu’ndan, idari gereklilikleri basitleştirerek ve gri yasal alanları açıklığa kavuşturarak Kanuna uyumu kolaylaştırma yönünde çağrılara yol açtı.

Ayrıca, küçük işletmelerin mevzuatı kavramasına yardımcı olmak için yapay zeka araştırmalarının ve desteğinin daha iyi finanse edilmesi yönünde talepler var. Kanunda bu düzenlemeler yapılmadığı takdirde, AB’nin kendisini bu alanda lider konumuna getiremeyeceği ve ABD ile Çin’e kaptıramayacağı yönünde ciddi endişeler mevcut.

Birleşik Krallık hükümeti daha çok inovasyon yanlısı bir duruş sergiledi. Yeni kanunlar çıkarmak yerine, AI teknik incelemesi Güvenlik, adalet, şeffaflık, hesap verebilirlik ve kullanıcı haklarına odaklanarak mevcut düzenleyicilerin kendi yetki alanlarında uygulayabilecekleri beş üst düzey ilke önermektedir. Bu daha geniş prensipler AB Yasasından daha az kuralcıdır. Aslında, BT güvenlik testi prosedürlerinin zaten güvenilen bir bileşeni olan kırmızı ekip oluşturma hedefleriyle iyi uyum sağlıyorlar.

Yapay zeka kırmızı ekip çalışması: yeniliği engellemeden riski tanımlamak ve azaltmak

Bir teknolojiyi düzenlemek için onu anlamalısınız. Aşırı katı düzenlemenin zorluğunun bir kısmı, yapay zekanın risklerini hem emniyet hem de güvenlik açısından nasıl sınırlandıracağımızı zaten bildiğimizi varsaymamızdır; ancak durum böyle değildir.

Veri sızdıran yapay zeka modelleri gibi geleneksel güvenlik perspektifinden ve istenmeyen ve zararlı görüntüler veya kod üreten modeller gibi güvenlik perspektiflerinden modellerde hâlâ düzenli olarak yeni zayıflıklar keşfediyoruz.

Bu riskler hâlâ küresel araştırmacı topluluğu tarafından keşfediliyor ve tanımlanıyor; bu nedenle, bu zorlukları daha iyi anlayıp tanımlayana kadar en iyi eylem planı, yapay zeka modellerini ve dağıtımlarını stres testine tabi tutmaktır.

Egzersizler yeni riskleri bulmanın en iyi yollarından biridir ve bu da onları üretken yapay zeka gibi yeni ortaya çıkan teknolojilerdeki güvenlik ve güvenlik endişelerini bulmak için ideal kılar. Bu, penetrasyon testi, zamana bağlı saldırı amaçlı bilgisayar korsanlığı yarışmaları ve hata ödül programlarının bir kombinasyonu kullanılarak yapılabilir. Sonuç, iyileştirme önerileri de dahil olmak üzere kapsamlı bir sorun listesi ve uygulanabilir önerilerdir.

Güvenlik, güvenlik ve hesap verebilirliğe bu kadar net bir şekilde odaklanıldığında, kırmızı ekip uygulamalarının dünya çapındaki düzenleyiciler tarafından olumlu değerlendirilmesinin yanı sıra Birleşik Krallık hükümetinin sorumlu yapay zeka gelişimi vizyonuyla uyumlu olması muhtemeldir.

Kırmızı ekip oluşturmanın bir yapay zeka testi yöntemi olarak kurulmasının bir diğer avantajı da bunun hem emniyet hem de güvenlik için kullanılabilmesidir. Ancak uygulama ve amaçlar farklıdır.

Güvenlik sorunları için odak noktası önlemedir. Yapay zeka sistemleri zararlı bilgiler üretmekten; örneğin, nasıl bomba yapılacağına veya intihar edileceğine ilişkin içerik oluşturulmasının engellenmesi ve şiddet, cinsel aktivite ve kendine zarar verme gibi potansiyel olarak üzücü veya yozlaştırıcı görüntülerin sergilenmesinin engellenmesi. Amacı, olası istenmeyen sonuçları veya önyargıları ortaya çıkararak yapay zekanın sorumlu kullanımını sağlamak ve geliştiricilere yeni ürünler geliştirirken etik standartları proaktif bir şekilde ele alma konusunda rehberlik etmektir.

Yapay zeka güvenliğine yönelik kırmızı ekip çalışması farklı bir bakış açısı getiriyor. Amacı, kötü niyetli aktörlerin bir uygulamanın veya sistemin gizliliğini, bütünlüğünü veya kullanılabilirliğini tehlikeye atacak şekilde yapay zekayı manipüle etmesini engellemek için güvenlik açıklarını ortaya çıkarmaktır. Kırmızı ekip oluşturmanın bu yönü, kusurları hızlı bir şekilde ortaya çıkararak, güvenlik risklerinin kötüye kullanılmadan önce tanımlanmasına, azaltılmasına ve iyileştirilmesine yardımcı olur.

Yeteneklerinin gerçek dünyadaki bir göstergesi için Bard’ın Extensions AI özelliğinin lansmanı değerli bir örnek teşkil ediyor. Bu yeni işlevsellik, Bard’ın Google Drive, Google Dokümanlar ve Gmail’e erişmesini sağladı, ancak yayına girdikten sonraki 24 saat içinde etik korsanlar, bunun dolaylı istemli enjeksiyona açık olduğunu gösteren sorunlar tespit etti.

E-postalar, sürücü belgeleri ve konumlar da dahil olmak üzere kişisel olarak tanımlanabilir bilgileri (PII) ciddi risk altına sokar. İşaretlenmezse, bu güvenlik açığı kişisel e-postaların sızması için kullanılabilir. Bunun yerine etik korsanlar, hata ödül programı aracılığıyla derhal Google’a bildirimde bulundular; bu da 20.000 ABD doları ödülle sonuçlandı ve olası bir kriz önlendi.

Yetenek çeşitliliği fark yaratıyor

Kırmızı takımlaşmanın bu kalitesi dikkatle seçilmiş ve çeşitliliğe dayanır. Etkili değerlendirmelerin temeli olarak. Tanınmış bir platform aracılığıyla etik bilgisayar korsanlığı topluluğuyla ortaklık kurmak, yeteneklerin farklı geçmişlerden ve deneyimlerden elde edilmesini ve yapay zekanın titizlikle test edilmesi için gerekli ilgili becerilere sahip olmasını sağlamanın güvenilir bir yoludur.

Kırmızı ekip üyelerine işbirliği yapma fırsatı verildiğinde, birleşik çıktılarının daha da etkili hale geldiğini ve geleneksel güvenlik testlerinden elde edilen sonuçların düzenli olarak aşıldığını belirtmekte fayda var. Bu nedenle ekipler arasında işbirliğini kolaylaştırmak önemli bir husustur. Çeşitli beceri ve bilgilere sahip bireylerin bir karışımını elde etmek, yapay zeka dağıtımları için en iyi sonuçları sağlayacaktır.

En iyi hata ödül programlarını tasarlamak

Teşvik modelini etik bir bilgisayar korsanlığı programı için uyarlamak da hayati önem taşıyor. En verimli model, belirli güvenlik sonuçlarına ulaşmaya yönelik ödüllerle birlikte, bilgisayar korsanlarını bir kuruluş için en etkili olana göre teşvik etmeyi içerir.

AI ve Yüksek Lisans anında bilgisayar korsanlığı konusunda uzman etik bilgisayar korsanlarının kolektif becerilerinden yararlanan hedefli saldırı testleri, sistemlerin ve benzer süreçlerin güçlendirilmesine yardımcı olacaktır.

Otomatik araçlar ve dahili ekipler tarafından gözden kaçırılan potansiyel güvenlik açıklarına ve istenmeyen sonuçlara karşı koruma sağlayacaktır. Daha da önemlisi, “sorumlu yapay zeka” ilkelerini destekleyen daha dayanıklı ve güvenli yapay zeka uygulamalarının oluşturulmasını sağlar.

Yorum Gönder

0 Yorumlar