GPT-2
Görünüm
| Geliştirici | OpenAI |
|---|---|
| Kod deposu | |
| Tür | dil modeli |
| Resmî sitesi | openai |
GPT-2, OpenAI'nin GPT serisindeki 2. büyük bir dil modelidir. GPT-1'in yerini aldı. GPT-2, 8 milyon web sayfasından oluşan bir veri kümesi üzerinde önceden eğitildi.[1] Kısmen Şubat 2019'da yayımlanan modelin ardından 1,5 milyar parametreli modelin tamamı 5 Kasım 2019'da yayımlandı.[2][3]
Kaynakça
[değiştir | kaynağı değiştir]- ^ Köbis, Nils; Mossink, Luca D. (1 Ocak 2021). "Artificial intelligence versus Maya Angelou: Experimental evidence that people cannot differentiate AI-generated from human-written poetry". Computers in Human Behavior. 114: 106553. doi:10.1016/j.chb.2020.106553
. hdl:21.11116/0000-0007-13E5-1
.
- ^ "GPT-2 Small". 1 Ekim 2020 tarihinde kaynağından arşivlendi. Erişim tarihi: 29 Ekim 2024.
- ^ GPT-2 Medium. "Openai-community/Gpt2-medium · Hugging Face". 26 Ocak 2024 tarihinde kaynağından arşivlendi.