GPT-J
Görünüm
| Geliştirici | EleutherAI |
|---|---|
| Tür | dil modeli |
| Resmî sitesi | https://6b.eleuther.ai/ |

GPT-J veya GPT-J-6B EleutherAI tarafından 2021'de geliştirilen açık kaynaklı yapay zekâ ve geniş dil modelidir.[1] Adından da anlaşılacağı gibi, bir komuttan devam eden insan benzeri metin üretmek için tasarlanmış, önceden eğitilmiş üretken dönüştürücüdür. İsimdeki "6B", 6 milyar parametresi olduğu gerçeğine atıfta bulunur. GPT-J, GPT-3 benzeri bir modeldir ve GitHub'da mevcuttur.[2]
Kaynakça
[değiştir | kaynağı değiştir]- ^ Vassilieva, Natalia (22 Haziran 2022). "Cerebras Makes It Easy to Harness the Predictive Power of GPT-J". Cerebras. 22 Haziran 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 14 Haziran 2023.
- ^ "GPT-J". GPT-3 Demo. 16 Haziran 2021 tarihinde kaynağından arşivlendi. Erişim tarihi: 13 Haziran 2023.