Chen Hua, TechCrunch'tan derlendi
Qubit Raporu | Genel Hesap QbitAI
Bilim kurgu filmlerindeki robotlar uzun zamandır insanlarla engelsiz iletişim kurabiliyordu, ancak gerçek hayatta robotlar doğal dili anlama konusunda çok zayıf bir yeteneğe sahipler. Biraz daha karmaşık talimatlar onları yitirecek.
Örneğin: az önce bıraktığım kutuyu alın.
Robotların bu tür talimatları anlamasını sağlamak, MIT Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı'nda (CSAIL) yeni bir dönüm noktasıdır.
MIT CSAIL, robotların sesli komutları net ve anlaşılır bir dille anlamasına ve bunlara yanıt vermesine olanak tanıyan bir yöntem geliştirmiştir. Sistem, önceki komutlara ve nesnelere atıfta bulunmak gibi bağlamla ilgili talimatları anlayacak kadar gelişmiştir.
CSAIL araştırmacısı tarafından geliştirilen ComText ("bağlam içinde komut" un kısaltması) sistemi, "Alexa benzeri" bir robot ses kontrolü işlevi sağlar. Böyle bir robot, önceki talimatlar dahil olmak üzere bağlamı ve onunla ve çevresindeki çevreyle etkileşen nesneleri anlayabilir.
Bu, kullanıcıların robotlarla diğerleriyle olduğu gibi etkileşime girebileceği anlamına gelir. Önceden robotlarla etkileşim, iş senaryolarında ve genel tüketici seviyesindeki senaryolarda robotların uygulanmasını engelleyen büyük bir zorluktu. Sektörde bile, robotlar doğal dildeki sesli komutları anlayabilirse, insanlarla daha iyi işbirliği yapabilirler.
Belirli nesnelerin anlaşılması yoluyla, ComText işte kullanılabilir. Örneğin, "Elimde tuttuğum bu araç benim aracımdır" diyebilirsiniz. Gelecekte ona "Bana aracımı ver" dediğinizde, doğru aracı bulacaktır.
Yukarıdaki resimde gösterildiği gibi robota "Masanın üzerine koyduğum kutu benimdir" deyin ve sonra ona "Kutumu al" deyin, doğru şekilde anlayacaktır.
Araştırmacılar, ComText sistemini test etmek için Baxter modelini kullandılar. Baxter, Rethink Robotics tarafından geliştirilen çift kollu bir insansı robottur.
ComText, uygulamasında genel bilgiler için anlamsal bellek ve belirli olaylarla ilişkili epizodik bellek dahil olmak üzere farklı bellek türleri kullanır.
Test sırasında robot, vakaların yaklaşık% 90'ında sesli komutlara doğru şekilde yanıt verebilir. Araştırma ekibi, çok adımlı talimatlar da dahil olmak üzere daha karmaşık girdi bilgileri kullanmayı ve doğru yanıt düzeyini iyileştirmek için robotun bağlamsal bilgi anlayışını derinleştirmeyi umuyor.
Bu araştırmayla ilgili makaleler Birikmiş Görsel-Dilbilimsel Bağlamla Dil Anlamak için Zamansal Topraklama Grafikleri Henüz tamamlanan akademik konferans IJCAI 17'de yayınlanan yazarlar arasında Rohan Paul, Andrei Barbu, Sue Felshin, Boris Katz ve MIT'den Nicholas Roy yer alıyor.
Adres:
- Bitiş -
Samimi işe alım
Qubit, editörleri / muhabirleri işe alıyor ve merkezi Pekin, Zhongguancun'da bulunuyor. Yetenekli ve hevesli öğrencilerin bize katılmasını dört gözle bekliyoruz! İlgili ayrıntılar için lütfen QbitAI diyalog arayüzünde "işe alım" kelimesini yanıtlayın.
Qubit QbitAI
' ' Yapay zeka teknolojisi ve ürünlerindeki yeni eğilimleri takip edin