GPT-2 Projesi, Yapay Zeka Örnekleri

GPT-2
1 Yıldız 0
Loading...

GPT-2

Açıklama
GPT-2, OpenAI tarafından Şubat 2019'da oluşturulan açık kaynaklı bir yapay zekadır. OpenAI GPT-2 modeli, Alec Radford, Jeffrey Wu, Rewon Child, D... devamını gör
Değerlendirmeler (5.00)
Değerlendirme (0 / 0)
GPT-2-0

GPT-2 GPT-2 Hakkında

GPT-2, OpenAI tarafından Şubat 2019'da oluşturulan açık kaynaklı bir yapay zekadır.

OpenAI GPT-2 modeli, Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei ve Ilya Sutskever tarafından yazılan Language Models are Unsupervised Multitask Learners'da önerilmiştir.

Bu, ~40 GB metin verisinden oluşan çok büyük bir külliyat üzerinde dil modelleme kullanılarak önceden eğitilmiş nedensel (tek yönlü) bir dönüştürücüdür.

Bildirinin özeti şu şekilde:

GPT-2, 8 milyon web sayfasından oluşan bir veri kümesi üzerinde eğitilmiş, 1,5 milyar parametreye sahip, dönüştürücü tabanlı büyük bir dil modelidir. GPT-2 basit bir hedefle eğitilmiştir: bir metindeki tüm önceki kelimeler verildiğinde bir sonraki kelimeyi tahmin edin. Veri kümesinin çeşitliliği, bu basit hedefin, çeşitli alanlarda birçok görevin doğal olarak ortaya çıkan gösterimlerini içermesine neden olur. GPT-2, 10 kattan fazla parametreye sahip ve 10 kattan fazla veri miktarı üzerinde eğitilmiş GPT'nin doğrudan ölçek büyütmesidir.

--

Değerlendirme & Yorumlar

Subscribe
Bildir
guest
0 Yorum
Inline Feedbacks
View all comments
Etiketler
0
Would love your thoughts, please comment.x