Совершив значительный скачок в разработке моделей больших языков (LLM), компания Mistral AI объявила о выпуске своей последней модели Mixtral-8x7B.
магнит:?xt=urn:btih:5546272da9065eddeb6fcd7ffddeef5b75be79a7&dn=mixtral-8x7b-32kseqlen&tr=udp%3A%2F%https://t.co/uV4WVdtpwZ%3A6969%2Fannounce&tr=http%3A%2F%https://t.co/g0m9cEUz0T%3A80%2Фанонс
РЕЛИЗ a6bbd9affe0c2725c1b7410d66833e24
— Мистраль ИИ (@MistralAI) 8 декабря 2023 г.
Содержание
Что такое Микстрал-8х7Б?
Mixtral-8x7B от Mistral AI — это модель Mixture of Experts (MoE), разработанная для улучшения понимания и генерации текста машинами.
Думайте об этом как о команде специализированных экспертов, каждый из которых прошел обучение в своей области и работает вместе над различными типами информации и задачами.
Отчет опубликовано В июньских отчетах были освещены тонкости GPT-4 OpenAI, подчеркнуто, что он использует подход, аналогичный MoE, задействуя 16 экспертов, каждый из которых имеет около 111 миллиардов параметров, и пропуская двух экспертов за один проход для оптимизации затрат.
Такой подход позволяет модели эффективно управлять разнообразными и сложными данными, что делает ее полезной при создании контента, участии в беседах или переводе языков.
Показатели производительности Mixtral 8x7B
Новая модель Mistral AI, Mixtral-8x7B, представляет собой значительный шаг вперед по сравнению с предыдущей моделью Mistral-7B-v0.1.
Он предназначен для лучшего понимания и создания текста — важная функция для всех, кто хочет использовать ИИ для написания или общения.
Новые открытые гири от LLM @МистральАИ
параметры.json:
— скрытый_dim / dim = 14336/4096 => расширение MLP в 3,5 раза
– n_heads / n_kv_heads = 32/8 => 4X мультизапрос
– «мо» => Expert Mix 8X Top 2 ?Странное отсутствие: перерепетированный… pic.twitter.com/xMDRj3WAVh
— Андрей Карпати (@karpathy) 8 декабря 2023 г.
Этот новейший представитель семейства Mistral обещает произвести революцию в сфере искусственного интеллекта благодаря улучшенным показателям производительности. разделенный из OpenCompass.
Что отличает Mixtral-8x7B, так это не только его улучшение по сравнению с предыдущей версией Mistral AI, но и то, что он может конкурировать с такими моделями, как Llama2-70B и Qwen-72B.
Это похоже на помощника, который может понять сложные идеи и ясно их выразить.
Одной из главных сильных сторон Mixtral-8x7B является его способность решать специализированные задачи.
Например, он показал исключительно хорошие результаты в конкретных тестах, предназначенных для оценки моделей искусственного интеллекта, что позволяет предположить, что он хорош в общем понимании и генерации текста и превосходен в более нишевых областях.
Это делает его ценным инструментом для специалистов по маркетингу и SEO-экспертов, которым нужен искусственный интеллект, способный адаптироваться к различному контенту и техническим требованиям.
Способность Mixtral-8x7B решать сложные математические задачи и задачи кодирования также предполагает, что он может быть полезным союзником для тех, кто занимается более техническими аспектами SEO, где понимание и решение алгоритмических задач имеет решающее значение.
Эта новая модель может стать универсальным и интеллектуальным партнером для широкого спектра потребностей в цифровом контенте и стратегиях.
Как протестировать Mixtral-8x7B: 4 демо
Вы можете поэкспериментировать с новой моделью Mistral AI, Mixtral-8x7B, чтобы увидеть, как она реагирует на запросы и как ее сравнивать с другими моделями с открытым исходным кодом и GPT-4 OpenAI.
Обратите внимание, что, как и весь генеративный контент ИИ, платформы, на которых работает эта новая модель, могут предоставлять неточную информацию или иные непредвиденные результаты.
Отзывы пользователей о подобных новых моделях помогут таким компаниям, как Mistral AI, улучшить будущие версии и модели.
1. Детская площадка «Лаборатории недоумения»
В недоумении Лабораториивы можете попробовать Mixtral-8x7B вместе с Llama 2, Mistral-7b от Meta AI и новыми онлайн-LLM от Perplexity.
В этом примере я запрашиваю саму модель и замечаю, что после первоначального ответа добавляются новые операторы, расширяющие сгенерированный контент для моего запроса.
Хотя ответ выглядит правильным, он начинает повторяться.
Модель предоставила ответ объемом более 600 слов на вопрос «Что такое SEO?»
Опять же, дополнительные инструкции отображаются в виде «заголовков», чтобы обеспечить исчерпывающий ответ.
2. По
Poe размещает ботов для популярных LLM, включая GPT-4 и DALL·E 3 от OpenAI, Llama 2 и Code Llama от Meta AI, PaLM 2 от Google, Claude-instant и Claude 2 от Anthropic и StableDiffusionXL.
Эти боты охватывают широкий спектр возможностей, включая генерацию текста, изображений и кода.
Чат Mixtral 8x7B предложенный работает на базе искусственного интеллекта Fireworks.
Стоит отметить, что фейерверк Страница заявляет, что это «неофициальная реализация», оптимизированная для чата.
На вопрос, какие обратные ссылки являются лучшими для SEO, был получен правильный ответ.
Сравните это с этим Отвечать предлагаемый Google Bard.
3. Версель
Версель предлагает демо от Mixtral-8x7B, который позволяет пользователям сравнивать ответы популярных моделей Anthropic, Cohere, Meta AI и OpenAI.
Он дает интересный взгляд на то, как каждая модель интерпретирует вопросы пользователей и отвечает на них.
Как и во многих случаях LLM, иногда возникают галлюцинации.
4. Репликация
Микстрал 8х7б-32 демо основанный на репликации Исходный код. В файле README также отмечается, что «вывод весьма неэффективен».
В приведенном выше примере Mixtral-8x7B описывает себя как игру.
Диплом
Последняя версия Mistral AI устанавливает новые стандарты в области искусственного интеллекта, предлагая улучшенную производительность и универсальность. Но, как и многие программы LLM, он может давать неточные и неожиданные ответы.
Поскольку искусственный интеллект продолжает развиваться, такие модели, как Mixtral-8x7B, могут стать неотъемлемой частью разработки передовых инструментов искусственного интеллекта для маркетинга и бизнеса.
Рекомендованное изображение: Т. Шнайдер/Shutterstock