Технологические компании переключают свое внимание с создания крупнейших языковых моделей (LLM) на создание моделей меньшего размера (SLM), которые могут соответствовать им или даже превосходить их.

Известно, что Llama 3 от Meta (400 миллиардов параметров), GPT-3.5 от OpenAI (175 миллиардов параметров) и GPT-4 (по оценкам, 1,8 триллиона параметров) являются более крупными моделями, в то время как семейство Microsoft Phi-3 имеет от 3,8 до 14 миллиардов параметров, а Apple «Всего» интеллект имеет около 3 миллиардов параметров.

Source