GLM-130B Projesi, Yapay Zeka Örnekleri

GLM-130B
1 Yıldız 0
Loading...

GLM-130B

Açıklama
GLM-130B, Genel Dil Modeli (GLM) algoritması kullanılarak önceden eğitilmiş, 130 milyar parametreye sahip, açık iki dilli (İngilizce ve Çince) çift yö... devamını gör
Değerlendirmeler (5.00)
Değerlendirme (0 / 0)

GLM-130B GLM-130B Hakkında

GLM-130B, Genel Dil Modeli (GLM) algoritması kullanılarak önceden eğitilmiş, 130 milyar parametreye sahip, açık iki dilli (İngilizce ve Çince) çift yönlü yoğun bir modeldir. 400 milyardan fazla metin belirteci (İngilizce ve Çince için 200 milyar) üzerinde eğitilmiştir ve bazı etkileyici yeteneklere sahiptir.

Tek bir A100 (40G 8) veya V100 (32G 8) sunucusunda 130B parametreleriyle çıkarım görevlerini desteklemek için tasarlanmıştır. INT4 niceleme ile donanım gereksinimleri, neredeyse hiç performans düşüşü olmadan 4 * RTX 3090 (24G) ile tek bir sunucuya indirgenebilir. 3 Temmuz 2022 itibarıyla GLM-130B, 400 milyardan fazla metin belirteci (Çince ve İngilizce için 200B) üzerinde eğitilmiştir ve aşağıdaki benzersiz özelliklere sahiptir:

--

Değerlendirme & Yorumlar

Subscribe
Bildir
guest
0 Yorum
Inline Feedbacks
View all comments
Etiketler
0
Would love your thoughts, please comment.x