Любой, кто какое-то время использовал генеративный искусственный интеллект, знает о галлюцинациях. Это случаи, когда системы искусственного интеллекта генерируют ложную или вводящую в заблуждение информацию. Эти ошибки часто возникают из-за ограничений в обучающих данных или конструкции модели. Такие неточности могут возникать непредсказуемо и сильно различаются по степени серьезности – от незначительных ошибок до значительных неточностей, способных существенно исказить процессы принятия решений.

Цель Lamini Memory Tuning — значительно снизить галлюцинации, с 50% до 5%, то есть на 90%. Эта технология позволяет включать точные факты в LLM и, как сообщается, обеспечивает точность до 95%, что является значительным скачком по сравнению с 50% точностью предыдущих методов.

Source