Совершив значительный скачок в разработке моделей больших языков (LLM), компания Mistral AI объявила о выпуске своей последней модели Mixtral-8x7B.

Что такое Микстрал-8х7Б?

Mixtral-8x7B от Mistral AI — это модель Mixture of Experts (MoE), разработанная для улучшения понимания и генерации текста машинами.

Думайте об этом как о команде специализированных экспертов, каждый из которых прошел обучение в своей области и работает вместе над различными типами информации и задачами.

Отчет опубликовано В июньских отчетах были освещены тонкости GPT-4 OpenAI, подчеркнуто, что он использует подход, аналогичный MoE, задействуя 16 экспертов, каждый из которых имеет около 111 миллиардов параметров, и пропуская двух экспертов за один проход для оптимизации затрат.

Такой подход позволяет модели эффективно управлять разнообразными и сложными данными, что делает ее полезной при создании контента, участии в беседах или переводе языков.

Показатели производительности Mixtral 8x7B

Новая модель Mistral AI, Mixtral-8x7B, представляет собой значительный шаг вперед по сравнению с предыдущей моделью Mistral-7B-v0.1.

Он предназначен для лучшего понимания и создания текста — важная функция для всех, кто хочет использовать ИИ для написания или общения.

Этот новейший представитель семейства Mistral обещает произвести революцию в сфере искусственного интеллекта благодаря улучшенным показателям производительности. разделенный из OpenCompass.

ЧИТАТЬ  50% поисковых запросов товаров начинаются с Amazon

Mixtral-8x7B: 4 способа опробовать новую модель Mistral AI

Что отличает Mixtral-8x7B, так это не только его улучшение по сравнению с предыдущей версией Mistral AI, но и то, что он может конкурировать с такими моделями, как Llama2-70B и Qwen-72B.

Показатели производительности Mixtral 8x7b по сравнению с моделями Lama 2 с открытым исходным кодом AIПоказатели производительности Mixtral 8x7b по сравнению с моделями Lama 2 с открытым исходным кодом AI

Это похоже на помощника, который может понять сложные идеи и ясно их выразить.

Одной из главных сильных сторон Mixtral-8x7B является его способность решать специализированные задачи.

Например, он показал исключительно хорошие результаты в конкретных тестах, предназначенных для оценки моделей искусственного интеллекта, что позволяет предположить, что он хорош в общем понимании и генерации текста и превосходен в более нишевых областях.

Это делает его ценным инструментом для специалистов по маркетингу и SEO-экспертов, которым нужен искусственный интеллект, способный адаптироваться к различному контенту и техническим требованиям.

Способность Mixtral-8x7B решать сложные математические задачи и задачи кодирования также предполагает, что он может быть полезным союзником для тех, кто занимается более техническими аспектами SEO, где понимание и решение алгоритмических задач имеет решающее значение.

Эта новая модель может стать универсальным и интеллектуальным партнером для широкого спектра потребностей в цифровом контенте и стратегиях.

Как протестировать Mixtral-8x7B: 4 демо

Вы можете поэкспериментировать с новой моделью Mistral AI, Mixtral-8x7B, чтобы увидеть, как она реагирует на запросы и как ее сравнивать с другими моделями с открытым исходным кодом и GPT-4 OpenAI.

Обратите внимание, что, как и весь генеративный контент ИИ, платформы, на которых работает эта новая модель, могут предоставлять неточную информацию или иные непредвиденные результаты.

Отзывы пользователей о подобных новых моделях помогут таким компаниям, как Mistral AI, улучшить будущие версии и модели.

1. Детская площадка «Лаборатории недоумения»

В недоумении Лабораториивы можете попробовать Mixtral-8x7B вместе с Llama 2, Mistral-7b от Meta AI и новыми онлайн-LLM от Perplexity.

ЧИТАТЬ  Google утверждает, что наличие огромных списков отклонения и их удаление не должны вас беспокоить

В этом примере я запрашиваю саму модель и замечаю, что после первоначального ответа добавляются новые операторы, расширяющие сгенерированный контент для моего запроса.

Mixtral-8x7b Игровая площадка Perplexity LabsСкриншот из Perplexity, декабрь 2023 г.Mixtral-8x7b Игровая площадка Perplexity Labs

Хотя ответ выглядит правильным, он начинает повторяться.

Ошибка Mixtral 8x7bСкриншот из Perplexity Labs, декабрь 2023 г.Ошибка Mixtral 8x7b

Модель предоставила ответ объемом более 600 слов на вопрос «Что такое SEO?»

Опять же, дополнительные инструкции отображаются в виде «заголовков», чтобы обеспечить исчерпывающий ответ.

Что такое SEO от mixtral-8x7bСкриншот из Perplexity Labs, декабрь 2023 г.Что такое SEO от mixtral-8x7b

2. По

Poe размещает ботов для популярных LLM, включая GPT-4 и DALL·E 3 от OpenAI, Llama 2 и Code Llama от Meta AI, PaLM 2 от Google, Claude-instant и Claude 2 от Anthropic и StableDiffusionXL.

Эти боты охватывают широкий спектр возможностей, включая генерацию текста, изображений и кода.

Чат Mixtral 8x7B предложенный работает на базе искусственного интеллекта Fireworks.

Poe-бот для Mixtral-8x7b FirebaseСкриншот По, декабрь 2023 г.Poe-бот для Mixtral-8x7b Firebase

Стоит отметить, что фейерверк Страница заявляет, что это «неофициальная реализация», оптимизированная для чата.

На вопрос, какие обратные ссылки являются лучшими для SEO, был получен правильный ответ.

mixtral-8x7b poe лучший ответ по обратным ссылкамСкриншот По, декабрь 2023 г.mixtral-8x7b poe лучший ответ по обратным ссылкам

Сравните это с этим Отвечать предлагаемый Google Bard.

Mixtral-8x7B: 4 способа опробовать новую модель Mistral AIMixtral-8x7B: 4 способа опробовать новую модель Mistral AI

Mixtral-8x7B: 4 способа опробовать новую модель Mistral AIСкриншот из Google Bard, декабрь 2023 г.Mixtral-8x7B: 4 способа опробовать новую модель Mistral AI

3. Версель

Версель предлагает демо от Mixtral-8x7B, который позволяет пользователям сравнивать ответы популярных моделей Anthropic, Cohere, Meta AI и OpenAI.

Демонстрация Vercel Mixtral-8x7b Сравнить GPT-4Скриншот из Верселя, декабрь 2023 г.Демонстрация Vercel Mixtral-8x7b Сравнить GPT-4

Он дает интересный взгляд на то, как каждая модель интерпретирует вопросы пользователей и отвечает на них.

Mixtral-8x7b против Cohere на лучших ресурсах для изучения SEOСкриншот из Верселя, декабрь 2023 г.Mixtral-8x7b против Cohere на лучших ресурсах для изучения SEO

Как и во многих случаях LLM, иногда возникают галлюцинации.

Митральные галлюцинации 8x7bСкриншот из Верселя, декабрь 2023 г.Митральные галлюцинации 8x7b

4. Репликация

Микстрал 8х7б-32 демо основанный на репликации Исходный код. В файле README также отмечается, что «вывод весьма неэффективен».

Mixtral-8x7B: 4 способа опробовать новую модель Mistral AIСкриншот с сайта Replication, декабрь 2023 г.Mixtral-8x7B: 4 способа опробовать новую модель Mistral AI

В приведенном выше примере Mixtral-8x7B описывает себя как игру.

ЧИТАТЬ  Google Объектив – обратная ссылка

Диплом

Последняя версия Mistral AI устанавливает новые стандарты в области искусственного интеллекта, предлагая улучшенную производительность и универсальность. Но, как и многие программы LLM, он может давать неточные и неожиданные ответы.

Поскольку искусственный интеллект продолжает развиваться, такие модели, как Mixtral-8x7B, могут стать неотъемлемой частью разработки передовых инструментов искусственного интеллекта для маркетинга и бизнеса.


Рекомендованное изображение: Т. Шнайдер/Shutterstock



Source