AI sohbet botları arama motorları değildir
Geçtiğimiz birkaç ay boyunca , AI sohbet robotlarının popülaritesi, OpenAI’nin devrim niteliğindeki başarısının artmasıyla patladı.
ChatGPT – şaşırtıcı bir şekilde, yalnızca Aralık ayı civarında sahneye çıktı. Ancak Microsoft, vagonunu OpenAI’nin yükselen yıldızına 10 milyar dolarlık dik bir fiyata bağlama fırsatını yakaladığında, bunu Bing kisvesi altında GPT-4 destekli bir sohbet robotu sunarak seçti. Google’ın arama hakimiyetini yükseltmek amacıyla. Google, kendi geliştirdiği Bard AI ile hızla aynı şeyi yaptı.
Her ikisi de deney olarak lanse ediliyor. Ve bu ‘AI sohbet robotları’ gerçekten harika ilerlemeler – Bing Chat’in Dall-E entegrasyonuyla hayallerinizi süsleyen harika sanat eserleri yaratarak ve kaynağın kertenkeleler olduğunu düşünen büyücüler hakkında hasta raplere yol açarak çocuklarımla birçok geceyi neşe içinde geçirdim. tüm sihrin ve onların bu harika araçlarla sadece birkaç dakika içinde canlandığını görmek. Ben onları seviyorum.
Ancak Microsoft ve Google’ın pazarlaması yanlış anladı. ChatGPT, Bing Chat ve Google Bard gibi yapay zeka sohbet robotları, arama motorlarında hiçbir şekilde bir araya getirilmemelidir. Daha çok, Elon Musk’ın korkunç yeni Twitter’ındaki yorumları tıkayan, gerçekte çoğu zaman mutlak saçmalıklarla dolu olan, kulağa gerçek gibi gelen ifadeleri yüksek sesle ve kendinden emin bir şekilde anıran kripto para kardeşlerine benziyorlar.
Bu sözde ‘AI sohbet botları’, bilgileri sentezleme ve sorguladığınız her şey hakkında eğlenceli, genellikle doğru ayrıntılar sağlama konusunda harika bir iş çıkarıyor. Ancak arka planda, bunlar aslında milyarlarca hatta trilyonlarca veri noktası (metin) üzerinde eğitilmiş büyük dil modelleridir (LLM’ler). AI sohbet botları hiç akıllı değil. Sorgunuz için akla yatkın görünen sonuçlar üretmek için kelime çağrışım modellerinden yararlanırlar ve ardından bu yan yana dizilmiş kelimelerin gerçekten doğru olup olmadığına dair hiçbir fikirleri olmadan bunları kesin olarak ifade ederler.
Terimi orijinal olarak kimin icat ettiğine dair hiçbir fikrim yok, ancak memler haklı: Bu sohbet robotları, ilişkilendirmenin sağladığı güvene rağmen kullandıkları arama motorları gibi güvenilir bilgi kaynakları değil, esasen steroidler üzerinde otomatik düzeltme yapıyorlar.
AI CHATBOTS EN TUHAF ŞEYLERİ SÖYLÜYOR
İşaretler hemen oradaydı. Tüm deney konuşmalarının ötesinde, Microsoft ve Google, bu LLM’lerin bazen yanlış sonuçlar ürettiğini (AI technospeak’te ‘halüsinasyon’) vurguladıklarından emindi. Microsoft sorumluluk reddi beyanında “Bing yapay zeka tarafından desteklenmektedir, bu nedenle sürprizler ve hatalar mümkündür. Öğrenip iyileştirebilmemiz için gerçekleri kontrol ettiğinizden ve geri bildirim paylaştığınızdan emin olun.”
Evet, Bing Sohbet arabirimi “sürprizler ve hatalar olabilir” diyor, ancak Bing arama motoru aracılığıyla giriyorsunuz ve bu tasarım, AI halüsinasyonlarının işleri yanlış anlama eğilimine rağmen karmaşık sorulara bile “daha iyi yanıtlar” alacağınızı ima ediyor.
Sanık olarak hukuk profesörü”, başlığın yerinde bir şekilde özetlediği gibi.
Kulağa tam olarak öyle geliyor. Ama bu halüsinasyonlu ‘skandalın’ nasıl keşfedildiği yüzünden çok daha kötü.
Gidip makaleyi okumalısın. Hem harika hem de ürkütücü. Esasen, hukuk profesörü John Turley ile bir kişi temasa geçti.
Gazeteciler, hem Bard hem de Bing Chat için gösterişli lansman sunumlarında utanç verici yanlışlıklar keşfettiklerinde eve döndü.
OpenAl’in ChatGPT’si, muhtemelen ‘Al chatbot’ların’ ön saflarında yer aldığı ve şimdiye kadarki en hızlı benimsenen teknoloji olduğu için bu davaların yükünü çekiyor. (İftira niteliğinde, sanrılı iddialarda bulunmak yardımcı olmuyor.) Ancak Microsoft ve Google, sohbet robotlarını arama motorlarıyla ilişkilendirerek aynı derecede zarar veriyor. En azından bu aşamada bunun için çok yanlışlar.
Turley ve Hood’un örnekleri aşırı olabilir, ancak bu sohbet robotlarıyla oynayarak biraz zaman harcarsanız, yine de tam bir güvenle ifade edilen daha sinsi yanlışlıklarla karşılaşmanız kaçınılmazdır. Örneğin Bing, kızım hakkında soru sorduğumda yanlış cinsiyet verdi ve ona Linkedln profilimden kişiselleştirilmiş bir özgeçmiş hazırlamasını sağladığımda, çok şey doğru çıktı, ancak aynı zamanda halüsinasyonlu beceriler ve önceki işveren referansları da ortaya çıktı.
Eğer yakından ilgilenmiyorsanız, bu iş beklentilerinizi mahvedebilir. Yine, Bard’ın açıklama gösterimi, gökbilimcilerin anında tespit ettiği James Webb uzay teleskobu hakkında bariz yanlışları içeriyordu. Araştırma için bu sözde arama motoruna bitişik araçları kullanmak, çocuğunuzun okul notlarını mahvedebilir.
BU ŞEKİLDE OLMAK ZORUNDA DEĞİLDİ
Bu Al araçlarının bazen ortaya çıkardığı halüsinasyonlar, daha yaratıcı çabalarda o kadar acı verici değildir. Tüm sanat jeneratörleri harika ve Microsoft’un katil-
Alıntı yaptığınız referans belgelerden tam PowerPoint sunumları ve daha fazlasını oluşturabilen görünümlü Office Al geliştirmeleri, gerçekten sizinki gibi masaüstü dronlara radikal iyileştirmeler getirmeye hazır görünüyor. Ancak bu görevler, arama motorlarıyla gelen katı doğruluk beklentilerine sahip değildir.
Bu şekilde olmak zorunda değildi. Microsoft ve Google’ın pazarlaması, büyük dil modellerini halkın gözünde arama motorlarıyla ilişkilendirerek gerçekten topu düşürdü ve umarım bu, algı kuyusunu kalıcı olarak zehirlemez. Bunlar harika araçlar.
‘Dünya hakkında her şeyi sorun’” dedi. “Bu şu anda sadece bir marka fiyaskosu. Belki 10 yıllık ilerleme, daha birçok teknoloji katmanı ve benzeri şeyler arama aşamasına gelecek.”
Ancak şimdilik, AI sohbet botları kripto broslarıdır. Eğlenin, bu harika araçların kilidini açtığı olasılıkların tadını çıkarın, ancak bilgilerini göründüğü gibi almayın.