Matematik yeteneği ChatGPT'yi aşıyor, 70B açık kaynaklı büyük model yanıyor: Microsoft All-China Class tarafından üretilen yapay zeka ile yapay zekanın ince ayarı

Kaynak: "Qubit" (ID: QbitAI), Yazar: Feng Se

Büyük alpaka modelinde ince ayar yapmak için Yapay zeka tarafından oluşturulan talimatları kullanın ve matematik yeteneği ChatGPT'yi aşar——

Microsoft'un en yeni açık kaynak modeli WizardMath burada.

Aşağıdaki şekilde gösterildiği gibi, GSM8k veri seti üzerinde test edildikten sonra, WizardMath'in matematiksel yeteneği ChatGPT, Claude Instant 1 ve PaLM 2-540B gibi birçok büyük modeli doğrudan yendi——

Ve anahtar parametrelerin yalnızca 70 milyar olması koşuluyla, ki bu son üçünden çok daha azdır.

HuggingFace 3 çevrimiçi oynanabilir sürümü (sırasıyla 7B, 13B ve 70B parametreleri) piyasaya sürdü ve denemek için çeşitli matematik problemleri atılabilir.

Örneğin, aşağıdaki dörtlü polinom denklemini çözün:

Veya basit bir hesap:

Veya biraz değiştirilmiş bir Lagrange denklemi türevi:

Hepsi doğru (ve işlemin çok uzun süre beklemesi gerekmiyor).

Bazı netizenler yazara şunları söyledi:

Etki gerçekten şaşırtıcı, açık kaynak LLM'ye katkınız için teşekkür ederiz.

Şu anda ilgili kodlar, çoğaltma yöntemleri ve belgeler de açık kaynaklı veya çevrimiçi ve GitHub yalnızca birkaç gün içinde 4,8 bin yıldız aldı.

Peki, WizardMath bunu tam olarak nasıl yapıyor?

Yapay zeka tarafından oluşturulan talimatlarla büyük model yeteneklerini geliştirin

OpenAI'nin büyük modelleri (InstructGPT, GPT-4, vb.), kısmen gerçek insan kullanıcılar tarafından oluşturulan açık alan talimat verilerini kullanan ince ayar nedeniyle, çeşitli karmaşık ve çeşitli görevleri büyük bir başarıyla gerçekleştirebilmiştir.

Ancak, bu şirketin sahip olduğu gibi herkesin bu tür komut veri kümelerine erişimi yoktur.

Birincisi, açıklama sürecinin tamamının son derece pahalı ve zaman alıcı olması, diğeri ise insanların yeterli oranda zor talimat oluşturmasının zor olmasıdır.

Bu nedenle, nispeten düşük maliyetli, büyük ölçekli, açık alanlı bir otomatik talimat üretim yöntemi geliştirmek, mevcut talimat ayarlama dili modelinin anahtarı haline geldi.

Burada yazarlar yöntemlerini Evol Instruction olarak adlandırırlar.

Çeşitli zorluk seviyelerini kapsayan açık alan talimatlarını otomatik olarak oluşturmak için insanların yerine yapay zeka kullanmanın yeni bir yöntemidir.

Evol Instruction özellikle Instruction Evolver ve Instruction Eliminator olarak ikiye ayrılır.

Bunların arasında, talimat geliştirici, basit bir talimatı daha karmaşık bir talimata yükseltebilir veya iki derin evrim (mavi çizgi) veya kapsamlı evrim (kırmızı çizgi) yoluyla yeni bir talimat oluşturabilir.

Hangisi uygulanmalı? Sadece rastgele seçin.

Bunların arasında, derinlemesine evrimin özel "evrim yöntemi", aşağıdakiler de dahil olmak üzere beş tür operasyonla tamamlanır:

Kısıtlamalar ekleyin, derinleştirin, somutlaştırın, muhakeme adımlarını artırın ve girişi karmaşıklaştırın.

Tüm talimatlar yapay zeka tarafından yapıldığından bazen hatalar kaçınılmazdır. Bu nedenle, talimat giderici, başarısız talimatları filtrelemek için kullanılır.

İşte "1+1=?" ile başlayan ve yukarıdaki adımlarla otomatik olarak epeyce yeni talimat üreten bir yöntemin somut bir örneği.

Bu oluşturma sürecini tekrarlayarak, sonunda yeterli yönergeyi alabilir ve ardından bunları birleştirip rastgele karıştırıp zorluk seviyesi tekdüze dağılıma sahip bir yönerge seti oluşturabilir ve ardından temel büyük modelde ince ayar yapabiliriz.

Burada yazar, ilk veri seti olarak Alpaca'nın eğitim verilerini (yalnızca yapay olarak oluşturulmuş 175 tohum talimatı tarafından oluşturulan) seçer ve ardından dört evrim döngüsü gerçekleştirmek için ChatGPT'nin API'sini kullanır ve sonunda 250.000 talimat alır.

Yazar, Vicuna'nın 70k gerçek kullanıcı verisi (ShareGPT) ile adil bir karşılaştırma yapabilmek için 250.000 adet veriden eşit miktarda örnek çıkarmış, LLaMA 7B modelini eğitmiş ve sonunda WizardLM'yi elde etmiştir. WizardLM, Vicuna'dan önemli ölçüde daha iyiydi.

(Alpaka: LLaMa-7B'ye dayalı Stanford ince ayarlı model; LLaMa-13B'ye dayalı Vicuna, UC Berkeley ince ayarlı)

Ek olarak, insanlar daha karmaşık test yönergeleri altında WizardLM'nin çıktısını ChatGPT'ye tercih eder, bu da bu yöntemin LLM'nin karmaşık yönergeleri işleme yeteneğini önemli ölçüde geliştirebileceğini düşündürür.

Buna dayanarak yazar, matematik alanıyla ilgili birçok talimat oluşturmak için Evol Instruction'ı kullandı ve ardından WizardMath'i elde etmek için büyük alpaka modelinde ince ayar yaptı.

Etkisi başta görüldüğü gibidir.Matematiksel yeteneği GSM8k veri setinde ölçülür, ChatGPT, Claude Instant 1, PaLM 2-540B vb. gibi birçok büyük modeli geride bırakarak beşinci, GPT-4 ve Claud1'den sonra ikinci sırada yer alır. .3 ve 2.0 ve 540 milyar parametreli Flan-PaLM 2'den sonra.

Benzetme yaparak, yazar aynı zamanda alpaka üzerinde kodlama yetenekleri konusunda uzmanlaşmış WizardCoder'a sahip oldu ve etkisi Claude ve Bard'ı geride bıraktı (ayrıntılar için lütfen makalenin sonundaki adresi tıklayın).

ekip tanıtımı

Bu yazıda tamamı Çinli 9 yazar bulunmaktadır.

Bir eserde 3 karakter vardır:

Microsoft Asya İnternet Mühendisliği Akademisi S+D NLP Grubu Kıdemli Uygulama Bilimcisi Can Xu, daha önce Microsoft Xiaobing Araştırma Grubu ve Microsoft Asya Araştırma Enstitüsü'nde sohbet robot sistemi üzerinde çalıştı;

Qingfeng Sun, Microsoft Research bilim adamı, araştırma yönü doğal dil işleme ve bilgi almadır, verimli arama sistemleri oluşturma konusunda uzmandır, Microsoft Bing ve Office 365'e temel derin modellerle katkıda bulunmuştur;

Kai Zheng, Microsoft Research bilim adamı, araştırma yönü doğal dil işleme, arama ve öneri sıralamasıdır, ayrıca Microsoft Bing ve Office 365'e yönelik temel derin modele katkıda bulunmuştur.

İlgili yazar, Microsoft'un küresel ortağı ve başkan yardımcısı ve Microsoft Research Asia'nın eski baş bilim adamı Jiang Daxin'dir. Microsoft'ta 16 yılı aşkın süredir çalışmaktadır ve Microsoft'un doğal dil anlayışından sorumlu kişidir. Bing arama motoru ve Cortana akıllı asistanı işini bıraktığı ve kendisini büyük ölçekli bir model işi kurmaya adadığı ortaya çıktı.

Diğer bir yazar, Jiazhan Feng, Pekin Üniversitesi öğrencisidir. Ortak yazarlı bu makale, Microsoft'ta yaptığı staj sırasında hazırlanmıştır.

Proje ana sayfası:

Kağıt adresi:

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Repost
  • Share
Comment
0/400
No comments
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate App
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)