Любой, кто какое-то время использовал генеративный искусственный интеллект, знает о галлюцинациях. Это случаи, когда системы искусственного интеллекта генерируют ложную или вводящую в заблуждение информацию. Эти ошибки часто возникают из-за ограничений в обучающих данных или конструкции модели. Такие неточности могут возникать непредсказуемо и сильно различаются по степени серьезности – от незначительных ошибок до значительных неточностей, способных существенно исказить процессы принятия решений.
Цель Lamini Memory Tuning — значительно снизить галлюцинации, с 50% до 5%, то есть на 90%. Эта технология позволяет включать точные факты в LLM и, как сообщается, обеспечивает точность до 95%, что является значительным скачком по сравнению с 50% точностью предыдущих методов.
Выборочно настраивая миллионы экспертных адаптеров, таких как LoRA (низкоранговые адаптации), на каждом LLM с открытым исходным кодом, Lamini Memory Tuning обеспечивает точное хранение фактов, от исторических событий до сложных технических данных, без высоких задержек и затрат, которые обычно связаны с с такой точностью.
Специалисты по хранению данных
Этот метод, основанный на интеллект-картах, выборочно активирует наиболее релевантных экспертов из индекса во время вывода, радикально сокращая ненужные вычисления.
Например, компания заявляет, что при запросе конкретных фактов о Римской империи система извлекает только действительно необходимую информацию о Юлии Цезаре, акведуках или легионах, тем самым избегая активации нерелевантных весов моделей.
Базовая технология Lamini Memory Tuning включает в себя разреженную среду активации, известную как Mixture of Memory Experts (MoME), которая может масштабироваться для поддержки большого количества фактов, ограниченного только размером обучающих данных. По словам Ламини, такой подход не только повышает оперативность модели, но и значительно снижает вычислительные затраты, что делает его жизнеспособным решением для повышения производительности LLM в различных приложениях.