Skip to main content

Ad Code

NIST, yapay zeka yeteneklerini ve etkilerini değerlendirmek ve doğrulamak için ARIA'yı duyurdu

Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), yapay zekanın yeteneklerinin ve etkilerinin anlaşılmasının geliştirilmesine yardımcı olmayı amaçlayan yeni bir test, değerlendirme, doğrulama ve doğrulama (TEVV) programını başlatıyor.

Yapay Zeka Risklerinin ve Etkilerinin Değerlendirilmesi (ARIA), kuruluşların ve bireylerin, belirli bir yapay zeka teknolojisinin uygulamaya konduktan sonra geçerli, güvenilir, emniyetli, güvenli, özel ve adil olup olmayacağını belirlemelerine yardımcı olmayı amaçlamaktadır. Program, NIST’in 180. gün civarında yaptığı son duyurulardan kısa bir süre sonra geliyor.

ABD Ticaret Bakanı, “Yapay zekanın toplumumuz üzerinde yarattığı ve yaratacağı etkileri tam olarak anlamak için yapay zekanın gerçekçi senaryolarda nasıl çalıştığını test etmemiz gerekiyor ve bu programla yaptığımız da tam olarak bu” dedi. Gina Raimondo.

Raimondo şöyle devam etti: “ARIA programı ve Başkan Biden’ın yapay zekaya ilişkin Yönetici Emri kapsamında Ticaret’in sorumluluklarını desteklemeye yönelik diğer çabalarla, NIST ve ABD Yapay Zeka Güvenliği Enstitüsü, konu yapay zekanın risklerini azaltmak ve faydalarını en üst düzeye çıkarmak olduğunda her türlü kolu kullanıyor.”

Standartlar ve Teknolojiden Sorumlu Ticaret Müsteşarı ve NIST Direktörü, “ARIA programı, yapay zeka teknolojisinin kullanımı arttıkça gerçek dünyadaki ihtiyaçları karşılamak üzere tasarlandı” dedi. Laurie E.Locascio. “Bu yeni çaba, ABD Yapay Zeka Güvenlik Enstitüsü’nü destekleyecek, NIST’in araştırma topluluğuyla zaten geniş olan ilişkisini genişletecek ve yapay zekanın gerçek dünyadaki işlevselliğini test etmek ve değerlendirmek için güvenilir yöntemler oluşturmaya yardımcı olacak.”

ARIA, NIST’in Ocak 2023’te yayınladığı Yapay Zeka Risk Yönetimi Çerçevesini genişletiyor ve analiz ve izleme için niceliksel ve niteliksel tekniklerin kullanılmasını öneren çerçevenin risk ölçüm işlevinin işlevselleştirilmesine yardımcı oluyor. ARIA, bir sistemin toplumsal bağlamlarda güvenli işlevselliği ne kadar iyi koruduğunu ölçmek için yeni bir dizi metodoloji ve ölçüm geliştirerek bu risklerin ve etkilerin değerlendirilmesine yardımcı olacak.

“Etkilerin ölçülmesi, bir modelin laboratuvar ortamında ne kadar iyi çalıştığından daha fazlasıdır” dedi. Reva Schwartz, NIST Bilgi Teknolojisi Laboratuvarı’nın ARIA program lideri. “ARIA, yapay zekayı modelin ötesinde ele alacak ve insanların düzenli kullanım altında gerçekçi ortamlarda yapay zeka teknolojisiyle etkileşime girdiğinde neler olacağı da dahil olmak üzere sistemleri bağlam içinde değerlendirecek. Bu, bu teknolojilerin net etkilerine ilişkin daha geniş ve daha bütünsel bir bakış açısı sağlıyor.”

Yorum Gönder

0 Yorumlar