Maihao Tapınağı'ndan ekim istendi
Qubit Üretildi | Genel Hesap QbitAI
OpenAI dün dünyayı şok eden meydan okuyan GPT-2'yi piyasaya sürdü.
1.5 milyar parametreye sahip bu dil yapay zekası, makale yazarken itaatsizlik duygusu taşımaz.Ayrıca, belirli alanlarda çeşitli dil modelleme görevlerini hedeflenen eğitim olmadan tarayabilir.Ayrıca okuduğunu anlama, soru-cevap, makale özeti oluşturma ve çeviri de vardır. Ve bunun gibi.
Ama bu hepsi değil.
Çeşitli alanlardan araştırmacılar, GPT-2'nin aslında birkaç programlama dili öğrendiğini keşfettiler.
Örneğin, JavaScript.
New York Üniversitesi Mühendislik Fakültesi'nde yardımcı doçent olan Brendan Dolan-Gavitt, GPT-2'nin İngilizce yazmayı öğrenirken aynı zamanda sessizce bazı js komut dosyası dillerini öğrendiğini keşfetti.
kanıt:
Ve örnek 195, GPT-2'nin biraz PHP dili bildiğini kanıtlıyor ...
Facebook AI Araştırma Enstitüsü'nden Tim Rocktäschel ve Nantas Nardelli, GPT-2'yi gördüklerinden beri bu yapay zekanın kod yazmasını sağlamaya çalışıyorlar.
Yardımseverlik ve yardımseverlik arayışında, GPT-2'nin gerçekten yazılmış olmasını beklemiyordum.
Tim Rocktäschel, insanların başının dertte olduğunu hızlı bir şekilde tweetledi ...
Bununla birlikte, GPT-2 tarafından yazılan yukarıda belirtilen kodlar çok titiz değildir. Nantas Nardelli ayrıca birçok kez denediklerini ve gönderilen gönderinin yalnızca en iyisi olduğunu ve bu AI kodunun js, C ++, Python ve diğer dilleri karıştırması kolay göründüğünü ekledi.
Elbette burada bir sorun var.
Herkesin denediği modeller, yalnızca 117 milyon parametre ile OpenAI tarafından yayınlanan küçültülmüş modellerdir. Belki GPT-2'nin tam sürümüyle, AI daha güzel kodlar yazabilir.
Tam sürüm ile indirgenmiş sürüm arasında bu kadar büyük bir boşluk var mı?
biraz.
MIT Tech Review'un yazarı Will Knight, GPT-2 hakkında bir hikaye yazdı. Başlangıçta bir cümle verdi: Kedi ve penguenin bir tartışması vardı ve sonra hikayenin geri kalanı, bir parça ekmekle ilgili anlaşmazlıkları da dahil olmak üzere AI tarafından yazıldı ve onlar da savaştı.
GPT-2 farklı bir şekilde derlenmiştir.
Ancak, birisi OpenAI tarafından yayınlanan modelle bunu denedi ve aynı başlangıcın, hikayenin tuhaf, öngörülemez ve tamamen anlaşılmaz olduğunu gördü.
Sonunda, tartıştıktan sonra herkes anladı:
Görünüşe ve izlenime sahip hikayenin tam sürümünün, 1,5 milyar parametreli GPT-2'nin tam sürümü kullanılarak oluşturulduğu, ancak bilmediğim öykünün GPT-2'nin azaltılmış sürümü kullanılarak oluşturulduğu ortaya çıktı.
Boşluk gerçekten çok açık.
OpenAI'nin dün ne dediğini hatırlıyor musun? GPT-2 çok güçlü, tam bir model çıkarmaya cesaret edemiyoruz. Sonuç olarak, denemek isterseniz, yalnızca daha az güçlü sonuçlar elde edebilirsiniz.
Birçok netizenin rant yapmasına neden olan, OpenAI'nin açıklamalarıydı.
Reddit'te geçtiğimiz iki gün içinde çok övülen iki tartışma oldu.
Bir netizen 23064 katmanlı bir ResNet eğittiğimi ve MNIST üzerindeki doğruluğun% 99,6'ya ulaştığını söyledi, bu modeli paylaşmalı mıyım? Kötü amaçlarla kullanılmasından biraz korkuyorum.
Bu kadar açık suçlamalarla, herkes kimin hakkında konuştuğunu bilir.
Daha bariz var.
Başka bir netizen, OpenAI ismini değiştirmeli mi?
:)
- Bitiş -
Samimi işe alım
Qubit, editörleri / muhabirleri işe alıyor ve merkezi Pekin, Zhongguancun'da bulunuyor. Yetenekli ve hevesli öğrencilerin bize katılmasını dört gözle bekliyoruz! İlgili ayrıntılar için lütfen QbitAI diyalog arayüzünde "işe alım" kelimesini yanıtlayın.
Qubit QbitAI · Toutiao İmzalayan Yazar
' ' Yapay zeka teknolojisi ve ürünlerindeki yeni eğilimleri takip edin