RoBERTa Projesi, Yapay Zeka Örnekleri

RoBERTa
1 Yıldız 0
Loading...

RoBERTa

Açıklama
RoBERTa, BERT'nin dil maskeleme stratejisini temel alır; burada sistem, aksi halde açıklama yapılmamış dil örneklerinde kasıtlı olarak gizlenen m... devamını gör
Değerlendirmeler (5.00)
Değerlendirme (0 / 0)

RoBERTa RoBERTa Hakkında

RoBERTa, BERT'nin dil maskeleme stratejisini temel alır; burada sistem, aksi halde açıklama yapılmamış dil örneklerinde kasıtlı olarak gizlenen metin bölümlerini tahmin etmeyi öğrenir. PyTorch'ta uygulanan RoBERTa, BERT'nin sonraki cümle ön eğitim hedefini kaldırma ve çok daha büyük mini kümeler ve öğrenme oranlarıyla eğitim dahil olmak üzere BERT'deki temel hiperparametreleri değiştirir. Bu, RoBERTa'nın BERT ile karşılaştırıldığında maskelenmiş dil modelleme hedefini geliştirmesine olanak tanır ve daha iyi aşağı akış görev performansına yol açar. Ayrıca RoBERTa'yı BERT'den çok daha fazla veriyle daha uzun bir süre için eğitmeyi de araştırıyoruz. Mevcut açıklamasız NLP veri kümelerinin yanı sıra halka açık haber makalelerinden alınan yeni bir dizi olan CC-News'i kullandık.

RoBERTa, Facebook AI tarafından geliştirilmiştir.

Kaynak: https://ai.facebook.com/blog/roberta-an-optimized-method-for-pretraining-self-supervised-nlp-systems/

--

Değerlendirme & Yorumlar

Subscribe
Bildir
guest
0 Yorum
Inline Feedbacks
View all comments
Etiketler
0
Would love your thoughts, please comment.x