Yandex, büyük dil modellerinin (LLM) eğitimi için yeni ve açık kaynaklı bir yöntem olan YaFSDP’yi kullanıma sundu. Bu yöntem, GPU iletişimini iyileştirirken bellek kullanımını azaltarak eğitim süresini önemli ölçüde kısaltıyor ve GPU kaynaklarında %20’ye varan tasarruf sağlıyor. YaFSDP,
FSDP’ye göre %26’ya varan hızlanma sunarak eğitim verimliliğini artırırken ve 70 milyar parametreli bir modeli eğitirken ayda yaklaşık 500 bin ila 1,5 milyon dolar tasarruf sağlama potansiyeline sahip.
YaFSDP’nin GitHub üzerinden ücretsiz olarak erişilebilir olması, dünya genelindeki LLM geliştiricileri ve yapay zekâ meraklıları için büyük bir fırsat sunuyor.