GLM-130B Projesi, Yapay Zeka Örnekleri
GLM-130B
Açıklama
GLM-130B, Genel Dil Modeli (GLM) algoritması kullanılarak önceden eğitilmiş, 130 milyar parametreye sahip, açık iki dilli (İngilizce ve Çince) çift yö... devamını gör
Kategoriler
Benzer Projeler
GLM-130B Hakkında
GLM-130B, Genel Dil Modeli (GLM) algoritması kullanılarak önceden eğitilmiş, 130 milyar parametreye sahip, açık iki dilli (İngilizce ve Çince) çift yönlü yoğun bir modeldir. 400 milyardan fazla metin belirteci (İngilizce ve Çince için 200 milyar) üzerinde eğitilmiştir ve bazı etkileyici yeteneklere sahiptir.
Tek bir A100 (40G 8) veya V100 (32G 8) sunucusunda 130B parametreleriyle çıkarım görevlerini desteklemek için tasarlanmıştır. INT4 niceleme ile donanım gereksinimleri, neredeyse hiç performans düşüşü olmadan 4 * RTX 3090 (24G) ile tek bir sunucuya indirgenebilir. 3 Temmuz 2022 itibarıyla GLM-130B, 400 milyardan fazla metin belirteci (Çince ve İngilizce için 200B) üzerinde eğitilmiştir ve aşağıdaki benzersiz özelliklere sahiptir:
Son Eklenen Projeler
Değerlendirme & Yorumlar
Subscribe
0 Yorum
Etiketler