ALTIN 499,21
DOLAR 8,8689
EURO 10,4740
BIST 1.385
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul 23 °C
Parçalı Bulutlu

Yapay zeka sinir ağı, ne zaman güvenilir olmaması gerektiğini öğreniyor

22.11.2020
254
Yapay zeka sinir ağı, ne zaman güvenilir olmaması gerektiğini öğreniyor

Yapay zeka destekli karar vermede belirsizliği tahmin etmenin daha hızlı bir yolu, daha güvenli sonuçlara yol açabilir.

Derin öğrenme sinir ağları olarak bilinen yapay zeka sistemleri, otonom sürüş veya tıbbi teşhis gibi insan sağlığı ve güvenliği için hayati önem taşıyan kararları bilgilendirmek için giderek daha fazla kullanılmaktadır.

Bu ağlar, karar vermeye yardımcı olmak için büyük, karmaşık veri kümelerindeki kalıpları tanımada iyidir. Ama doğru olduklarını nasıl bileceğiz? Alexander Amini ve MIT ve Harvard Üniversitesi’ndeki meslektaşları öğrenmek istedi.

Bir sinir ağının verileri sıkıştırması için hızlı bir yol geliştirdiler ve sadece bir tahmin değil, aynı zamanda mevcut verilerin kalitesine bağlı olarak modelin güven düzeyini de çıktılar. Derin öğrenme bugün gerçek dünyada zaten uygulandığından, ilerleme hayat kurtarabilir.

Bir ağın kesinlik seviyesi, otonom bir aracın “kesişme noktasından ilerlemenin her şeyin açık olduğunu” belirlemesi ile “muhtemelen açıktır, bu yüzden her ihtimale karşı durun” arasındaki fark olabilir.

Sinir ağları için mevcut belirsizlik tahmin yöntemleri, hesaplama açısından pahalı ve anlık kararlar için nispeten yavaş olma eğilimindedir. Ancak Amini’nin “derin kanıta dayalı gerileme” olarak adlandırılan yaklaşımı süreci hızlandırır ve daha güvenli sonuçlara yol açabilir.

MIT Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı’nda (CSAIL) Profesör Daniela Rus’un grubundaki bir doktora öğrencisi olan Amini, “Yalnızca yüksek performanslı modellere sahip olma yeteneğine değil, aynı zamanda bu modellere ne zaman güvenemeyeceğimizi anlama yeteneğine de ihtiyacımız var” diyor. .

“Bu fikir önemli ve geniş anlamda uygulanabilir. Öğrenilmiş modellere dayanan ürünleri değerlendirmek için kullanılabilir. Öğrenilen bir modelin belirsizliğini tahmin ederek, modelden ne kadar hata bekleyeceğimizi ve hangi eksik verilerin modeli iyileştirebileceğini de öğreniyoruz ”diyor Rus.

Amini, araştırmayı önümüzdeki ayki NeurIPS konferansında, Elektrik Mühendisliği ve Bilgisayar Bilimleri alanında Andrew ve Erna Viterbi Profesörü, CSAIL direktörü ve MIT Stephen A. Schwarzman Computing Koleji araştırma dekan yardımcısı Rus ile birlikte sunacak; ve MIT’den Wilko Schwarting ve MIT ve Harvard’dan Ava Soleimany’den mezun öğrenciler.

Etkili belirsizlik

İnişli çıkışlı bir geçmişten sonra, derin öğrenme, çeşitli görevlerde olağanüstü performans gösterdi, hatta bazı durumlarda insan doğruluğunu bile aştı ve günümüzde derin öğrenme, bilgisayarların gittiği her yere gidiyor gibi görünüyor.

Arama motoru sonuçlarını, sosyal medya beslemelerini ve yüz tanımayı besler. Amini, “Derin öğrenmeyi kullanarak büyük başarılar elde ettik” diyor. “Sinir ağları, doğru cevabı yüzde 99 oranında bilmekte gerçekten çok başarılı.” Ancak hayatlar tehlikede olduğunda yüzde 99 kesmeyecek.

Amini, “Araştırmacıların gözünden kaçan bir şey, bu modellerin ne zaman yanlış olabileceklerini bilme ve bize söyleme yeteneğidir,” diyor. “Zamanın yüzde 1’ini ve bu durumları güvenilir ve verimli bir şekilde nasıl tespit edebileceğimizi gerçekten önemsiyoruz.”

Sinir ağları çok büyük olabilir ve bazen milyarlarca parametreyle dolup taşabilir. Dolayısıyla, bırakın güven düzeyi bir yana, bir yanıt almak bile ağır bir hesaplama artışı olabilir.

Sinir ağlarında belirsizlik analizi yeni değil. Ancak Bayes derin öğrenmeden kaynaklanan önceki yaklaşımlar, güvenini anlamak için birçok kez bir sinir ağını çalıştırmaya veya örneklemeye dayanıyordu. Bu süreç zaman ve hafıza gerektirir, bu da yüksek hızlı trafikte var olmayabilecek bir lüks.

Araştırmacılar, yalnızca tek bir sinir ağı çalışmasından belirsizliği tahmin etmenin bir yolunu buldular. Ağı, yalnızca bir karar değil, aynı zamanda bu kararı destekleyen kanıtları yakalayan yeni bir olasılıklı dağılım da üreterek toplu çıktı ile tasarladılar.

Kanıta dayalı dağılımlar olarak adlandırılan bu dağılımlar, modelin tahminine olan güvenini doğrudan yakalar. Bu, modelin nihai kararının yanı sıra temel girdi verilerinde mevcut olan herhangi bir belirsizliği içerir. Bu ayrım, belirsizliğin sinir ağının kendisinin ayarlanmasıyla azaltılıp azaltılamayacağını veya giriş verilerinin sadece gürültülü olup olmadığını gösterebilir.

Güven kontrolü

Yaklaşımlarını test etmek için, araştırmacılar zorlu bir bilgisayarla görme göreviyle başladı. Monoküler renkli bir görüntüyü analiz etmek ve her piksel için bir derinlik değeri (yani kamera merceğinden uzaklık) tahmin etmek için sinir ağlarını eğittiler.

Otonom bir araç, bir yayaya veya başka bir araca olan yakınlığını tahmin etmek için benzer hesaplamaları kullanabilir ki bu basit bir iş değildir.

Ağlarının performansı önceki son teknoloji modellerle aynı seviyedeydi, ancak aynı zamanda kendi belirsizliğini tahmin etme yeteneği de kazandı.

Araştırmacıların umduğu gibi, ağ, yanlış derinliği tahmin ettiği pikseller için yüksek belirsizlik öngördü. Amini, “Yeni bir belirsizlik tahmincisinin kalitesini değerlendirmede en önemli şeylerden biri olduğuna inandığımız, ağın yaptığı hatalara göre oldukça kalibre edildi” diyor.

Ekip, kalibrasyonlarını stres testine tabi tutmak için, ağın “dağıtım dışı” veriler için daha yüksek belirsizlik öngördüğünü de gösterdi – eğitim sırasında hiç karşılaşılmayan tamamen yeni görüntü türleri.

Ağı iç mekan ev sahneleri konusunda eğittikten sonra, onu bir grup dış mekan sürüş sahnesi ile beslediler. Ağ, sürekli olarak, yeni dış mekan sahnelerine tepkilerinin belirsiz olduğu konusunda uyardı.

Test, ağın, kullanıcıların kararlarına tam olarak güvenmemesi gerektiğinde ağın işaretleme yeteneğini vurguladı. Amini, bu durumlarda, “eğer bu bir sağlık hizmeti uygulamasıysa, modelin verdiği teşhise güvenmeyiz ve bunun yerine ikinci bir görüş ararız” diyor.

Ağ, fotoğrafların ne zaman oynandığını bile biliyordu ve potansiyel olarak veri manipülasyon saldırılarına karşı korunma sağlıyordu. Başka bir denemede, araştırmacılar ağa besledikleri bir grup görüntüde düşman gürültü seviyelerini artırdılar.

Etki incelikliydi – insan gözü tarafından zorlukla algılanabiliyordu – ancak ağ bu görüntüleri koklayarak çıktılarını yüksek düzeyde belirsizlikle etiketledi. Sahte verilerde alarm çalma yeteneği, derin sahtekarlık çağında büyüyen bir endişe olan düşman saldırılarını tespit etmeye ve caydırmaya yardımcı olabilir.

DeepMind’de çalışmaya dahil olmayan bir yapay zeka araştırmacısı olan Raia Hadsell, derin kanıta dayalı regresyon, “robotik ve diğer gerçek dünya kontrol sistemleri için önemli olan belirsizlik tahmini alanını ilerleten basit ve zarif bir yaklaşım” diyor.

“Bu, diğer yaklaşımların (örneğin örnekleme veya topluluklar) bazı karmaşık yönlerini ortadan kaldıran yeni bir şekilde yapıldı ve bu da onu yalnızca zarif olmakla kalmayıp aynı zamanda hesaplama açısından daha verimli hale getiriyor – kazanan bir kombinasyon.”

Derin kanıta dayalı gerileme, AI destekli karar vermede güvenliği artırabilir. Amini, “Bu [sinir ağı] modellerinden çok daha fazlasının araştırma laboratuarından çıkıp gerçek dünyaya, potansiyel olarak yaşamı tehdit eden sonuçlarla insanlara dokunan durumlara sızdığını görmeye başlıyoruz” diyor.

“İster bir doktor isterse bir aracın yolcu koltuğundaki bir kişi olsun, yöntemin herhangi bir kullanıcısı, bu kararla ilişkili herhangi bir risk veya belirsizliğin farkında olmalıdır.”

Sistemin sadece belirsizliği hızlı bir şekilde işaretlemekle kalmayıp, aynı zamanda bir kavşağa yaklaşan otonom bir araç gibi riskli senaryolarda daha muhafazakar kararlar vermek için de kullanmasını öngörüyor.

“Dağıtılabilir makine öğrenimine sahip olacak herhangi bir alan, nihayetinde güvenilir bir belirsizlik bilincine sahip olmalıdır” diyor.

Bu çalışma kısmen Ulusal Bilim Vakfı ve Toyota Araştırma Enstitüsü tarafından Toyota-CSAIL Ortak Araştırma Merkezi aracılığıyla desteklenmiştir.

ZİYARETÇİ YORUMLARI - 0 YORUM

Henüz yorum yapılmamış.