Dolar 12,4280
Euro 14,0266
Altın 717,01
BİST 1.776
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul 21 °C
Kuvvetli Sağanak

Yapay Zeka Akıllıdır, Ama Başkalarıyla İyi Oynamaz mı?

21.10.2021
65
Yapay Zeka Akıllıdır, Ama Başkalarıyla İyi Oynamaz mı?

Robot Yapay Zeka Oyunu Bitti

İnsanlar, birlikte işbirlikçi bir oyun oynarken yapay zekayı sinir bozucu bir takım arkadaşı olarak görüyor ve “ekip zekası” için zorluklar ortaya koyuyor.

Satranç veya Go gibi oyunlar söz konusu olduğunda, yapay zeka (AI) programları dünyanın en iyi oyuncularını çok geride bıraktı. Bu “insanüstü” YZ’ler eşsiz rakiplerdir, ancak belki de insanlarla rekabet etmekten daha zor, onlarla işbirliği yapmaktır. Aynı teknoloji insanlarla anlaşabilir mi?

Yeni bir çalışmada, İLE BİRLİKTE Lincoln Laboratuvarı araştırmacıları, daha önce hiç karşılaşmadıkları takım arkadaşlarıyla oynamakta mükemmel olmak üzere eğitilmiş gelişmiş bir AI modeliyle, işbirlikçi kart oyunu Hanabi’yi insanların ne kadar iyi oynayabileceğini bulmaya çalıştı. Tek-kör deneylerde, katılımcılar oyunun iki serisini oynadılar: biri takım arkadaşı olarak AI aracısı ve diğeri kural tabanlı bir aracı, önceden tanımlanmış bir şekilde oynamak için manuel olarak programlanmış bir bot ile.

Sonuçlar araştırmacıları şaşırttı. Sadece AI takım arkadaşıyla skorlar kural tabanlı ajandan daha iyi değildi, aynı zamanda insanlar AI takım arkadaşlarıyla oynamaktan sürekli olarak nefret ediyordu. Bunu tahmin edilemez, güvenilmez ve güvenilmez buldular ve takım iyi puan aldığında bile olumsuz hissettiler. Bu çalışmayı detaylandıran bir makale, 2021 Sinirsel Bilgi İşleme Sistemleri Konferansı’na (NeurIPS) kabul edildi.

Hanabi Deneyi

İşbirlikçi kart oyunu Hanabi’yi oynarken, insanlar yapay zeka takım arkadaşlarının hareketlerinden dolayı hüsrana uğradı ve kafaları karıştı. Kredi bilgileri: Bryan Mastergeorge

Makalenin ortak yazarı ve Yapay Zeka Teknoloji Grubunda bir araştırmacı olan Ross Allen, “Objektif olarak iyi performans gösteren AI oluşturmak ile öznel olarak güvenilen veya tercih edilen AI oluşturmak arasındaki nüanslı ayrımı gerçekten vurguluyor” diyor. “Bu şeyler o kadar yakınmış ki aralarında gerçekten gün ışığı yokmuş gibi görünebilir, ancak bu çalışma bunların aslında iki ayrı problem olduğunu gösterdi. Bunları ortadan kaldırmak için çalışmamız gerekiyor” dedi.

Yapay zeka takım arkadaşlarından nefret eden insanlar, bir gün insanlarla füzelerden korunmak veya karmaşık ameliyatlar yapmak gibi gerçek zorluklar üzerinde çalışmak için bu teknolojiyi tasarlayan araştırmacılar için endişe kaynağı olabilir. Ekip zekası olarak adlandırılan bu dinamik, yapay zeka araştırmalarında bir sonraki sınırdır ve pekiştirmeli öğrenme adı verilen belirli bir yapay zeka türünü kullanır.

Takviyeli öğrenme yapay zekasına hangi eylemlerin yapılacağı söylenmez, bunun yerine senaryoları tekrar tekrar deneyerek hangi eylemlerin en sayısal “ödülü” verdiğini keşfeder. İnsanüstü satranç ve Go oyuncularını ortaya çıkaran bu teknolojidir. Kural tabanlı algoritmaların aksine, bu yapay zeka “if/then” ifadelerini takip edecek şekilde programlanmamıştır, çünkü araba kullanmak gibi üstesinden gelmeleri gereken insan görevlerinin olası sonuçları kodlanamayacak kadar fazladır.

“Takviyeli öğrenme, yapay zeka geliştirmenin çok daha genel amaçlı bir yoludur. Onu satranç oynamayı öğrenmek için eğitebilirseniz, o ajanın mutlaka araba sürmesi gerekmez. Ancak doğru veriler verildiğinde, farklı bir aracıyı araba kullanmak üzere eğitmek için aynı algoritmaları kullanabilirsiniz” diyor Allen. “Teoride yapabileceklerinin sınırı gökyüzüdür.”

Kötü ipuçları, kötü oyunlar

Günümüzde araştırmacılar, işbirliği için geliştirilen pekiştirmeli öğrenme modellerinin performansını test etmek için Hanabi’yi kullanıyor.

Hanabi oyunu, Solitaire’in çok oyunculu biçimine benzer. Oyuncular sırayla aynı türden kartları istiflemek için birlikte çalışırlar. Ancak oyuncular kendi kartlarını değil, sadece takım arkadaşlarının elindeki kartları görebilir. Her oyuncu, bir sonraki istifleme için kendi ellerinden en iyi kartı seçmelerini sağlamak için takım arkadaşlarına iletebilecekleri konusunda kesinlikle sınırlıdır.

Lincoln Laboratuvarı araştırmacıları, bu deneyde kullanılan yapay zeka veya kural tabanlı aracıları geliştirmediler. Her iki ajan da Hanabi performansı için alanlarında en iyileri temsil ediyor. Aslında, AI modeli daha önce hiç oynamadığı bir AI takım arkadaşıyla eşleştirildiğinde, takım, bilinmeyen iki AI ajanı arasında Hanabi oyunu için şimdiye kadarki en yüksek puanı elde etti.

Allen, “Bu önemli bir sonuçtu” diyor. “Daha önce hiç tanışmamış olan bu yapay zeka bir araya gelip gerçekten iyi oynayabilirse, o zaman yapay zeka ile birlikte çok iyi oynamayı bilen insanları bir araya getirebileceğimizi düşündük ve onlar da çok iyi yapacaklar. Bu nedenle, yapay zeka ekibinin nesnel olarak daha iyi oynayacağını düşündük ve ayrıca insanların bunu tercih edeceğini düşündük, çünkü genellikle iyi yaparsak daha iyi bir şeyi seveceğiz.”

Bu beklentilerin hiçbiri gerçekleşmedi. Nesnel olarak, yapay zeka ve kural tabanlı aracı arasındaki puanlarda istatistiksel bir fark yoktu. Öznel olarak, 29 katılımcının tümü, anketlerde kural tabanlı takım arkadaşına yönelik açık bir tercih bildirdi. Katılımcılara hangi menajerle hangi oyunlar için oynadıkları konusunda bilgi verilmedi.

AI Teknoloji ve Sistemler Grubu’nda araştırmacı ve makalenin yazarı Jaime Pena, “Bir katılımcı, AI ajanının kötü oyununa çok stresli olduklarını ve gerçekten başlarının ağrıdığını söyledi” diyor. “Bir diğeri, kural tabanlı aracının aptal ama uygulanabilir olduğunu düşündüklerini söylerken, yapay zeka aracısı kuralları anladığını, ancak hareketlerinin bir takımın neye benzediğiyle uyumlu olmadığını gösterdi. Onlara göre kötü ipuçları veriyor, kötü oyunlar oynuyordu.”

insanlık dışı yaratıcılık

Yapay zekanın “kötü oyunlar” yaratması algısı, araştırmacıların daha önce pekiştirmeli öğrenme çalışmasında gözlemledikleri şaşırtıcı davranışla bağlantı kuruyor. Örneğin, 2016’da DeepMind’ın AlphaGo’su dünyanın en iyi Go oyuncularından birini ilk kez yendiğinde, AlphaGo tarafından yapılan en çok övülen hareketlerden biri 2. oyunda 37. hamleydi, bu o kadar sıra dışı bir hareketti ki insan yorumcular bunun bir hata olduğunu düşündüler. Daha sonraki analizler, hareketin aslında son derece iyi hesaplandığını ve “dahi” olarak tanımlandığını ortaya çıkardı.

Bu tür hareketler, bir AI rakibi bunları gerçekleştirdiğinde övülebilir, ancak bir takım ortamında kutlanmaları daha az olasıdır. Lincoln Laboratuvarı araştırmacıları, garip veya görünüşte mantıksız hareketlerin, bu birbirine yakın takımlarda insanların AI takım arkadaşlarına olan güvenini kırmada en kötü suçlular olduğunu buldu. Bu tür hareketler, oyuncuların sadece kendilerinin ve AI takım arkadaşlarının birlikte ne kadar iyi çalıştığına dair algılarını azaltmakla kalmadı, aynı zamanda, özellikle herhangi bir potansiyel getiri hemen belli olmadığında, AI ile ne kadar çalışmak istediklerini de azalttı.

Ayrıca makalenin yazarı ve Kontrol ve Otonom Sistemler Mühendisliği Grubunda bir araştırmacı olan Hosea Siu, “Vazgeçme konusunda çok fazla yorum vardı, ‘Bu şeyle çalışmaktan nefret ediyorum’ gibi yorumlar vardı” diye ekliyor.

Bu çalışmadaki oyuncuların çoğunluğunun yaptığı gibi, kendilerini Hanabi uzmanı olarak değerlendiren katılımcılar, AI oyuncusundan daha sık vazgeçti. Siu, bunu AI geliştiricileri için endişe verici buluyor, çünkü bu teknolojinin kilit kullanıcıları muhtemelen alan uzmanları olacak.

“Bir füze savunma senaryosu için süper akıllı bir AI rehberlik asistanı yetiştirdiğinizi varsayalım. Bir stajyere teslim etmiyorsunuz; 25 yıldır bu işi yapan geminizdeki uzmanlarınıza teslim ediyorsunuz. Dolayısıyla, oyun senaryolarında buna karşı güçlü bir uzman önyargısı varsa, muhtemelen gerçek dünya operasyonlarında ortaya çıkacaktır” diye ekliyor.

yumuşacık insanlar

Araştırmacılar, bu çalışmada kullanılan yapay zekanın insan tercihi için geliştirilmediğini belirtiyor. Ancak bu sorunun bir parçası – pek çoğu değil. Çoğu işbirlikçi yapay zeka modeli gibi, bu model de mümkün olduğu kadar yüksek puan almak üzere tasarlandı ve başarısı, objektif performansıyla kıyaslandı.

Allen, araştırmacıların öznel insan tercihi sorusuna odaklanmaması durumunda, “insanların gerçekten kullanmak istediği yapay zekayı yaratmayacağız” diyor. “Çok temiz bir sayı geliştiren AI üzerinde çalışmak daha kolay. İnsan tercihlerinin bu duygusal dünyasında çalışan yapay zeka üzerinde çalışmak çok daha zor.”

Bu deneyin, Lincoln Laboratuvarı Teknoloji Ofisi tarafından ABD Hava Kuvvetleri Yapay Zeka Hızlandırıcısı ve MIT Elektrik Mühendisliği ve Bilgisayar Departmanı ile işbirliği içinde finanse edildiği MeRLin (Görev Hazır Takviyeli Öğrenme) projesinin amacı, bu zor sorunu çözmektir. Bilim. Proje, işbirlikçi AI teknolojisinin oyun alanından çıkıp daha karmaşık gerçekliğe sıçramasını neyin engellediğini araştırıyor.

Araştırmacılar, yapay zekanın eylemlerini açıklama yeteneğinin güven doğuracağını düşünüyor. Bu, gelecek yıl için çalışmalarının odak noktası olacak.

“Deneyi yeniden yaptığımızı hayal edebilirsiniz, ancak olaydan sonra – ve bunu söylemek yapmaktan çok daha kolay – insan, ‘Neden bu hareketi yaptın, ben anlamadım?’ diye sorabilir. AI, eylemlerine dayanarak ne olacağını düşündükleri hakkında bir fikir verebilirse, o zaman hipotezimiz, insanların ‘Ah, garip düşünme şekli, ama şimdi anlıyorum’ diyecek ve onlar ona güven. Allen, AI’nın temel karar verme mekanizmasını değiştirmemiş olsak bile sonuçlarımız tamamen değişecekti ”diyor Allen.

Bir oyundan sonra bir araya gelmek gibi, bu tür bir alışveriş genellikle insanların bir ekip olarak dostluk ve işbirliği kurmasına yardımcı olur.

“Belki de bir personel yanlılığıdır. Çoğu yapay zeka ekibinde, bu yumuşacık insanlar ve onların yumuşak sorunları üzerinde çalışmak isteyen insanlar yok,” diye ekliyor Siu gülerek. “Matematik ve optimizasyon yapmak isteyenler insanlar. Ve temel bu, ama bu yeterli değil.”

Yapay zeka ve insanlar arasında Hanabi gibi bir oyunda ustalaşmak, gelecekte zekayı bir araya getirmek için bir olasılıklar evreni açabilir. Ancak araştırmacılar, bir yapay zekanın ne kadar iyi performans gösterdiği ile bir insanın onu ne kadar sevdiği arasındaki boşluğu kapatana kadar, teknoloji, insan yerine makinede kalabilir.

Referans: Ho Chit Siu, Jaime D. Pena, Kimberlee C. Chang, Edenna Chen, Yutai Zhou, Victor J. Lopez, Kyle Palko ve Ross E tarafından “Hanabi’de Öğrenilmiş ve Kurala Dayalı Temsilciler için İnsan-AI Takımlarının Değerlendirilmesi” Allen, Kabul Edildi, 2021 Sinirsel Bilgi İşleme Sistemleri Konferansı (NeurIPS).
arXiv:2107.07630

.

ZİYARETÇİ YORUMLARI - 0 YORUM

Henüz yorum yapılmamış.