İleriye dönük olarak, bu kuruluşların herhangi bir güvenlik olayının etkisi, niteliği, kapsamı ve zamanlaması hakkında derinlemesine bilgiye ihtiyacı olacak. Üretken yapay zeka (GenAI) çağında bu durum daha da karmaşık hale geliyor.
Finansal hizmetler sektörü, günlük olarak kullandıkları kiÅŸisel tanımlayıcı bilgilerin (PII) inanılmaz derecede hassas yapısı nedeniyle, yeni teknolojileri tekliflerine uyarlama konusunda tarihsel olarak yavaÅŸ olmuÅŸtur. Ancak GenAI’nin tüm sektörlere hızla yayılması ve halka eriÅŸim kolaylığı, bunu göz ardı etmeyi zorlaÅŸtırıyor. Fintech kuruluÅŸları halihazırda SEC’in raporlama gereksinimleriyle mücadele eden kuruluÅŸlar arasında yer alıyor ve GenAI yeni bir katman veya belirsizlik ekliyor.
Fintech’te GenAI
Fintech, GenAI kullanımına en iyi yaklaşımın nasıl olacağını merak eden birçok sektörden sadece biri. Yetenekleri üretkenliğin artmasına ve verimliliğin artmasına yol açabilir ve çalışanların önceliklere daha fazla odaklanmasına olanak tanıyabilir. Özellikle GenAI, dolandırıcılık tespiti, müşteri hizmetleri ve büyük miktarda kişisel bilgi ve diğer veri koleksiyonlarının incelenmesi gibi kritik süreçleri hızlandırabilir.
Bunu yapmak için GenAI’nin her kullanım durumu için doÄŸru ve niÅŸ verilerle eÄŸitilmesi gerekir; aksi takdirde model halüsinasyon görecek veya altta yatan önyargıyı gösterecektir.
GenAI zaten şirketleri olumsuz haberlerin konusu haline getirmesiyle biliniyor. Bir yolcunun yapay zeka ile konuştuktan sonra uçak bileti satın alması ve vefat politikaları nedeniyle şişirilmiş son dakika ücret ücretlerinin geri ödeneceği konusunda güvence verilmesi sorunlara neden oldu. Yolcu daha sonra para iadesini almaya gittiğinde Canada Air onlara sohbet robotunun yanlış politika bilgileri sağladığını ve para iadesi yapılmayacağını bildirdi. Mahkemeler aksi yönde karar verdi ve AI sohbet robotlarının ilişkili şirketlerinin uzantıları olduğunu söyledi.
Hiç kimse bir yapay zeka arızası nedeniyle bir sonraki büyük manşet olmak istemez, ancak fintech şirketlerinin SEC raporlama gereklilikleri konusunda bu tür senaryoların önünde kalabilmek için daha dikkatli davranması gerekebilir.
GenAI’nin güvenlik açısından etkileri
Bazı kuruluÅŸlar ve yönetim kurulları GenAI’nin kullanımı konusunda her ÅŸeyi kapsayan bir zihniyete sahipken, diÄŸerleri izliyor ve bekliyor. Halihazırda GenAI’nin gücünden yararlanmaya baÅŸlayan fintech ÅŸirketlerinin, aÄŸlar genelinde kullanımının tam olarak görülebilmesini saÄŸlamak için temelleri atmaları gerekecek.
Tehdit aktörleri veri sızdırma ve fidye yazılımı saldırılarını agresif bir ÅŸekilde sürdürmeye devam ettikçe, deÄŸerli PII’ye sahip endüstrilerin, aşırı veri ihlallerine yol açabilecek güvenlik açıklarını bulmak için yapay zekanın kullanılması da dahil olmak üzere, siber suçlular tarafından kullanılan yapay zeka odaklı saldırı yetenekleri konusunda da endiÅŸelenmesi gerekecektir.
Tehdit aktörleri, insan çalışanları istismar etmek için gerçekçi deepfake’ler ve diÄŸer içeriklerle yapay zeka tarafından oluÅŸturulan hedef odaklı kimlik avı kampanyalarını zaten deniyor ve yapay zeka tarafından yazılan kötü amaçlı yazılımların kanıtlarını görüyoruz.
Organizasyonların en kötüsüne hazırlıklı olması gerekiyor. Hem SEC tarafından belirlenen ÅŸeffaflık gereksinimlerini karşılamak hem de GenAI’nin genel güvenlik duruÅŸu için bir risk oluÅŸturmamasını saÄŸlamak amacıyla, AI altyapısının temellerini oluÅŸturma görevi, kuruluÅŸ liderleri ve yönetim kurulları için en önemli önceliktir.
Yapay zeka altyapısının temelleri
SEC kurallarıyla uyumlu ve GenAI’nin kamuya açık olmasını saÄŸlayan çözümler arayan yönetim kurulları ve yöneticiler, bütünsel görünürlük ve eÄŸitime göre uyarlanmış altyapıyı vurgulamayı düşünmelidir: adli tıp, denetlenebilirlik, yapay zeka yönetiÅŸimi ve çalışan eÄŸitimi.
GöremediÄŸiniz ÅŸeyleri yönetemezsiniz, bu da kuruluÅŸlar GenAI’nin iç süreçlerde nasıl kullanıldığına dair kuÅŸbakışı bir bakış elde edene kadar, gölge yapay zeka gibi risklerin yaygınlaÅŸacağı anlamına gelir. Dahili aÄŸlardaki herhangi bir AI etkinliÄŸi, anormal veya istenmeyen kullanım açısından kolayca görüntülenmeli ve izlenmelidir.
Ayrıca, yapay zeka adli biliÅŸiminin bir parçası olarak dahili aÄŸlarda GenAI kullanımını günlüğe kaydetme ve izleme yeteneÄŸi, fintech ÅŸirketlerinin GenAI’dan kaynaklanan potansiyel güvenlik risklerini otomatik olarak belirlemesine, izlemesine ve azaltmasına olanak tanır. SEC’in gereksinimleri, güvenlik olaylarının tüm ayrıntılarının saÄŸlanmasını içerdiÄŸinden, iç aÄŸlardaki yapay zeka adli biliÅŸimi yoluyla yapay zeka etkinliÄŸini denetleme yeteneÄŸi, ileriye dönük olarak en önemli beceri olacaktır.
Yapay zeka adli biliÅŸiminin ve GenAI’nin denetlenebilirliÄŸinin kilit önemde olacak bir diÄŸer yönü, tekil istemlere kadar adli tıp bilgileri saÄŸlama yeteneÄŸine sahip olmaktır. Åžu anda ÅŸirketlerin yapay zeka kullanımını takip edecek ve denetleyecek bir altyapısı yok. Çalışanların yanlışlıkla veya kasıtlı olarak yapay zekaya istemler ÅŸeklinde hassas bilgiler saÄŸladığı durumlarda, dahili olarak kullanılan her bir istemi gösteren GenAI geçmiÅŸinin saklanması, raporlama amaçları açısından çok deÄŸerli olacaktır.
GenAI kullanımı konusunda çalışanların eÄŸitimi ve öğretimi ile faydalarından sorumlu bir ÅŸekilde nasıl yararlanılacağı, SEC düzenlemelerine uyumun diÄŸer önemli faktörleridir. ChatGPT ve Copilot gibi birçok popüler büyük dil modeli (LLM), beslendiÄŸi dilden elde edilen verilerin halka açık depolarıdır; bu, modele yanlışlıkla girilen herhangi bir PII’nin veri sızıntısı olma potansiyeline sahip olduÄŸu anlamına gelir. DoÄŸru eÄŸitim ve öğretimle çalışanlar, GenAI’nin nasıl uygun ÅŸekilde kullanılacağını daha iyi anlayacak ve yanlış kullanımdan kaynaklanan veri ihlali potansiyelini en aza indirecek.
Yönetim kurulları ve organizasyon liderleri, GenAI’nin fintech genelindeki etkilerini ve bunun benimsenmesi için tam hız mı davranmaları gerektiÄŸini yoksa beklemeleri mi gerektiÄŸini düşünmeye devam ederken, SEC’in GenAI’nin benimsenmesi üzerindeki etkileri açıktır. Güvenlik risklerini daha iyi takip etme ve azaltma sorumluluÄŸu artık kamu ÅŸirketlerine düşüyor ve bu da yüksek deÄŸerli endüstrileri güvenlik ve yapay zeka stratejilerini yeniden gözden geçirmeye zorluyor.
Fintech ÅŸirketleri, GenAI’nin yönetiÅŸimi ve denetlenebilirliÄŸi için temel oluÅŸturarak, GenAI’nın benimsenmesini durdurma ve zorlamanın kaçınılmaz risklerine karşı kendilerini daha iyi hazırlayabilirler. Aslında bu bir sonraki mantıksal adımdır.
0 Yorumlar