Oak Ridge Ulusal Laboratuvarı’ndaki araştırmacılar, Frontier süper bilgisayarında ChatGPT boyutunda büyük bir dil modelini (LLM) eğittiler ve bunu yapmak için 37.888 GPU’dan yalnızca 3.072’sine ihtiyaç duydular. Ekip bir araştırma makalesi yayınladı Bu, bu başarıyı nasıl başardığını ve yol boyunca karşılaştığı zorlukları ayrıntılarıyla anlatıyor.

Frontier süper bilgisayarı 9.472 Epyc 7A53 CPU ve 37.888 Radeon Instinct 37.888 GPU ile donatılmıştır. Ancak ekip, bir trilyon parametreli bir LLM’yi eğitmek için yalnızca 3.072 GPU ve 175 milyar parametreli başka bir LLM’yi eğitmek için ise 1.024 GPU kullandı.



genel-21