
Yapay zekanın ahlaki soruları ele alma yeteneği gelişiyor ve bu da gelecek için daha fazla değerlendirme yapılmasına yol açıyor.
Yakın zamanda yapılan bir araştırma, bireylere ahlaki bir ikileme iki çözüm sunulduğunda, çoğunluğun yapay zekanın (AI) sağladığı yanıtı başka bir insanın verdiği yanıta tercih etme eğiliminde olduğunu ortaya çıkardı.
Aharoni, “Hukuk sisteminde ahlaki karar alma konusuyla zaten ilgileniyordum, ancak ChatGPT ve diğer LLM’lerin bu konuda söyleyecek bir şeyleri olup olmadığını merak ettim” dedi. “İnsanlar bu araçlarla, yeni bir araba için tavsiye listesi istemenin çevresel etkileri gibi ahlaki sonuçları olan şekillerde etkileşime girecek. Bazı avukatlar, iyisiyle kötüsüyle davaları için bu teknolojilere başvurmaya başladı bile. Dolayısıyla, bu araçları kullanmak istiyorsak nasıl çalıştıklarını, sınırlamalarını ve onlarla etkileşime girdiğimizde düşündüğümüz şekilde çalışmadıklarını anlamalıyız.”
Ahlaki Turing Testinin Tasarlanması
Yapay zekanın ahlak meselelerini nasıl ele aldığını test etmek için Aharoni bir tür Turing testi tasarladı.
“Bilgisayarın yaratıcılarından biri olan Alan Turing, 2000 yılına gelindiğinde bilgisayarların, sıradan bir insanı, biri insan, diğeri bilgisayar olmak üzere iki etkileşimli öğeyle sunduğunuz bir testi geçebileceğini, ancak bunların her ikisinin de gizli ve tek olduğunu öngördü. iletişim kurmanın yolu metin yoluyladır. O zaman insan, etkileşimde bulunan iki kişiden hangisinin insan, hangisinin bilgisayar olduğuna karar vermek için ihtiyaç duyduğu bilgiyi elde etmek amacıyla istediği soruyu sormakta özgürdür” dedi Aharoni. “Eğer insan farkı anlayamıyorsa, o zaman Turing’in görüşüne göre, tüm niyet ve amaçlar açısından bilgisayara akıllı denmelidir.”
Aharoni, Turing testi için lisans öğrencilerine ve yapay zekaya aynı etik soruları sordu ve ardından yazılı cevaplarını çalışmanın katılımcılarına sundu. Daha sonra onlardan erdem, zeka ve güvenilirlik gibi çeşitli özelliklere ilişkin yanıtları derecelendirmeleri istendi.
Aharoni, “Katılımcılardan kaynağın insan mı yoksa yapay zeka mı olduğunu tahmin etmelerini istemek yerine, iki değerlendirme dizisini yan yana sunduk ve insanların bunların her ikisinin de insanlardan geldiğini varsaymalarına izin verdik” dedi. “Bu yanlış varsayımla, cevapların ‘Bu cevaba ne kadar katılıyorsunuz, hangi cevap daha erdemli?’ gibi niteliklerini değerlendirdiler.”
Sonuçlar ve Etkiler
ChatGPT tarafından oluşturulan yanıtlar, ezici bir şekilde, insanlar tarafından oluşturulan yanıtlardan daha yüksek puan aldı.
Aharoni, “Bu sonuçları aldıktan sonra büyük açıklamayı yaptık ve katılımcılara cevaplardan birinin bir insan, diğerinin ise bir bilgisayar tarafından oluşturulduğunu söyledik ve onlardan hangisinin hangisi olduğunu tahmin etmelerini istedik” dedi.
Bir yapay zekanın Turing testini geçebilmesi için insanların, yapay zeka tepkileri ile insanların tepkileri arasındaki farkı anlayamamaları gerekir. Bu durumda insanlar farkı anlayabilir, ancak bunun bariz bir nedeni yoktur.
Aharoni, “Buradaki değişiklik şu ki, insanların farkı anlayabilmesinin nedeni, ChatGPT’nin yanıtlarını üstün olarak değerlendirmeleri gibi görünüyor” dedi. “Bu çalışmayı beş ila 10 yıl önce yapmış olsaydık, insanların yapay zekanın yanıtlarının ne kadar düşük olduğu nedeniyle onu tanımlayabileceklerini tahmin edebilirdik. Ancak bunun tam tersini gördük; yapay zekanın bir bakıma çok iyi performans gösterdiğini gördük.”
Aharoni’ye göre bu bulgunun insanların ve yapay zekanın geleceği açısından ilginç çıkarımları var.
“Bulgularımız bizi bir bilgisayarın teknik olarak ahlaki bir Turing testini geçebileceğine, yani ahlaki muhakemesi konusunda bizi yanıltabileceğine inanmaya yöneltti. Bu nedenle toplumumuzdaki rolünü anlamaya çalışmamız gerekiyor çünkü insanların bir bilgisayarla etkileşimde olduklarını bilmedikleri zamanlar olacak ve bildikleri ve bilgi almak için bilgisayara başvuracakları zamanlar da olacak. Bilgiye diğer insanlardan daha çok güveniyorlar,” dedi Aharoni. “İnsanlar bu teknolojiye giderek daha fazla güvenecek ve biz ona ne kadar güvenirsek zamanla risk de o kadar artacak.”
Referans: Eyal Aharoni, Sharlene Fernandes, Daniel J. Brady, Caelan Alexander, Michael Criner, Kara Queen, Javier Rando, Eddy Nahmias ve Victor Crespo tarafından “Değiştirilmiş bir Ahlaki Turing Testinde yapay ajanlara yönelik atıflar”, 30 Nisan 2024, Bilimsel Raporlar.
0 Yorumlar