Защита данных — важнейший аспект правильного управления ИТ-средой организации здравоохранения. Данные здравоохранения остаются одной из главных целей для киберпреступников из-за уровня конфиденциальности их системных данных. Целевые наборы данных включают личную информацию (PII), финансовую информацию и информацию о здоровье.
Эти организации могут укрепить свои системы, вводя периодические обновления и приложения в рамках своей стратегии DevSecOps. Скорость, надежность и безопасность — важнейшие аспекты успешного подхода DevSecOps. Инструменты и процессы, используемые для достижения этой цели, определяют уровень вашего успеха.
Тем не менее, несмотря на постоянное появление новых инструментов, последние достижения в области искусственного интеллекта (ИИ) привлекают огромное внимание. Например, генеративный искусственный интеллект и модели большого языка (LLM) помогают работникам различных отраслей ускорять процессы и разгружать ручные задачи, постоянно совершенствуя свои программы.
Разработчики обнаруживают, что инструменты искусственного интеллекта могут быстро создавать строки кода с помощью нескольких простых подсказок. Эта технология еще очень молода, поэтому неясно, насколько успешными будут эти усилия, но это не мешает многим командам разработчиков сразу погрузиться в использование инструментов искусственного интеллекта.
Медицинским компаниям необходимо сохранять строгий контроль над своей ИТ-инфраструктурой. Итак, как инструменты ИИ влияют на их требования?
Инструменты генеративного искусственного интеллекта и LLM могут значительно увеличить время выхода на рынок, но каковы риски? Возможны ли необходимые уровни контроля для команд DevSecOps в сфере здравоохранения?
Давайте рассмотрим, где эта технология находится в настоящее время, что она означает для команд информационной безопасности и как безопасно использовать эти новые мощные инструменты.
Содержание
Как работают генеративный искусственный интеллект и LLM
Инструменты генеративного искусственного интеллекта и LLM работают с подсказками. Пользователь может задавать вопросы или запросить функцию, и инструмент генерирует ответ. Эти ответы дополняются дополнительными вопросами или подсказками, которые лучше всего подходят пользователю.
Однако есть разница между генеративным ИИ и LLM. Генеративный ИИ описывает любой тип искусственного интеллекта, который использует изученное поведение для создания уникального контента. Он генерирует изображения и текст и включает в себя большие языковые модели и другие типы ИИ.
С другой стороны, LLM — это усовершенствованная версия генеративного ИИ. Они обучены работе с большими объемами данных, дают человеческие ответы и более применимы к практикам DevOps. Пользователи могут вводить команды, запрашивающие программу, например, создать поток или триггер, после чего LLM может создать код, применимый к запросу пользователя к программе.
Выбор правильной модели
На выбор предлагается множество моделей ИИ. Модели с открытым исходным кодом, основанные на предыдущих версиях, ежедневно обучаются с использованием нового исходного материала. Более крупные и популярные модели, такие как Гугл Бард и открытый ИИ Чат GPT являются наиболее известными используемыми версиями больших языковых моделей.
Эти инструменты обучаются на веб-сайтах, в статьях и книгах. Информация, содержащаяся в этом исходном тексте, формирует ответы на запросы пользователей и определяет, как программа формулирует свои ответы.
Архитектура генеративных инструментов искусственного интеллекта построена на нескольких уровнях механизмов, которые помогают им понять отношения и зависимости между словами и утверждениями, что позволяет им быть более разговорными.
Данные, подаваемые в модель ИИ, определяют ответы. Эти системы со временем совершенствуются путем обучения на основе взаимодействия с пользователями, а также новых исходных материалов. Дальнейшее обучение и усовершенствование сделают эти инструменты более точными и надежными.
Обучение на вводимых пользователем данных — отличный способ ускорить процесс обучения инструментам генеративного искусственного интеллекта и LLM. Однако этот подход может создать риски для безопасности данных для команд DevSecOps. Но прежде чем мы углубимся в риски, давайте посмотрим, что команды получат от внедрения инструментов генеративного ИИ.
Что может сделать генеративный искусственный интеллект/LLM для DevOps?
Доступный набор инструментов для разработчиков быстро становится более специализированным. Такие инструменты, как Эйнштейн GPT имеют потенциал изменить наш взгляд на разработку программного обеспечения и позволить организациям здравоохранения сократить время вывода на рынок своих методов разработки программного обеспечения.
Вот несколько способов, которыми инструменты LLM могут принести пользу командам DevOps.
-
Увеличение скорости выпуска
Скорость — главное преимущество для команд DevOps. Возможность быстро внедрить надежное обновление или приложение делает организацию более гибкой и способной реагировать на возникающие проблемы. Организации здравоохранения, которые часто выпускают своевременные релизы, являются лидерами в отрасли и с большей вероятностью добьются успеха.
Инструменты LLM помогают разработчикам писать большие фрагменты кода за долю времени, которое им требуется для написания кода самостоятельно. Ускорение этапа разработки жизненного цикла приложения за счет автоматизированных позиций написания, позволяющих работать намного быстрее.
-
Сокращение ручных процессов
Члены нашей команды — наш самый большой актив, но человеческие ошибки неизбежны. Внедрение новых автоматизированных инструментов в конвейер DevOps во многом способствует уменьшению количества ошибок и оптимизации операций. Это справедливо как для инструментов LLM, так и для стандартных инструментов DevOps, таких как статический анализ кода и автоматизация CI/CD.
Возможность для разработчиков вводить инструкции и заставлять инструмент LLM выполнять большую часть кода значительно повышает производительность.
Ручные, повторяющиеся задачи приводят к ошибкам. Но когда разработчики могут переложить большую часть написания на LLM, все, что им нужно сделать, — это просмотреть код, прежде чем передать его в проект.
-
Предоставить справочный материал
Путаница приводит к потере времени. Производительность падает, когда разработчики не могут найти ответ на вопрос или сталкиваются с непонятной ошибкой. Инструменты генеративного искусственного интеллекта и LLM предоставляют контекст и ответы на конкретные вопросы в режиме реального времени.
Подробные объяснения документации по языку программирования, идентификации ошибок и шаблонов использования — все это всегда под рукой у ваших разработчиков.
Устранение неполадок упрощается, позволяя вашей команде вернуться к работе вместо того, чтобы тратить время на устранение неполадок. Инструменты LLM предлагают исправления и стратегии отладки, позволяющие своевременно обновлять обновления.
Потенциальные риски безопасности данных, связанные с ИИ
Ответы на запросы LLM каждый раз разные. И хотя это может хорошо работать в диалоговой обстановке, это может привести к проблемам для разработчиков, использующих эту технологию для написания кода. Плохой код приводит к уязвимостям безопасности данных. В регулируемых отраслях, таких как здравоохранение, необходимо изучить каждую потенциальную уязвимость.
Есть еще много вопросов о том, как будет развиваться использование этих инструментов, но вот несколько ключевых соображений:
-
Ненадежные результаты
Инструменты генеративного искусственного интеллекта и LLM очень быстро дают результаты, но результаты могут быть не высокого качества. Все результаты — будь то ответ на вопрос об истории или строка кода — поступают из входных данных. Если эти исходные данные содержат ошибки, то же самое произойдет и с результатами, предоставляемыми инструментом LLM.
У команд DevOps есть стандарты, которых они ожидают от своих разработчиков. Код, созданный инструментами LLM, не соответствует автоматически этим рекомендациям.
Производительность полученного кода может быть не идеальной. Это просто ответ на подсказку. И хотя эти инструменты представляют собой огромный шаг вперед по сравнению с любым типом инструментов, основанных на запросах, которые мы видели в прошлом, они все еще не идеальны.
-
Проблемы соответствия
Такие инструменты, как Einstein GPT, настолько новы, что возникает много вопросов относительно того, как они повлияют на конвейер DevOps. Когда дело доходит до соблюдения нормативных требований и правил безопасности данных, такие отрасли, как здравоохранение, должны получить некоторые ответы, прежде чем они смогут безопасно и уверенно использовать эти инструменты.
Например, что происходит с кодом, созданным инструментом LLM? Вы храните его в публичном репозитории? Если это так, это вызовет серьезные опасения по поводу соответствия незащищенному исходному коду. Что произойдет, если этот код будет использоваться в производственной среде организации здравоохранения?
Эти инструменты обучены на основе общедоступной информации, поступающей из GitHub и предназначенной для разработки. Невозможно точно знать, что входило в это обучение, а это означает, что могут присутствовать риски безопасности. Это означает, что любой, на чьи запросы отвечает небезопасный код, подвергается такому же риску безопасности.
Регулируемым отраслям следует быть особенно осторожными с этими инструментами. Медицинские организации обрабатывают невероятно конфиденциальную информацию. Уровень контроля, необходимый регулируемым отраслям, на данный момент просто невозможен с помощью инструментов LLM и генеративного искусственного интеллекта.
-
Проблемы реализации
Инструменты LLM увеличивают скорость, с которой разработчики создают код. Это устраняет узкое место на этапе разработки обновления, но это узкое место будет перемещаться дальше по линии. Существует переломный момент между быстрым и слишком быстрым движением. Будет сложно сохранить контроль.
Окружающая инфраструктура автоматизированных инструментов DevOps может помочь облегчить задачу ускоренной разработки, но ее слишком много, чтобы взять на себя все сразу, если системы еще не установлены. Эти инструменты уже существуют, и разработчики используют их из-за того, насколько легко они облегчают свою работу. Руководство может попросить команды избегать использования этих инструментов, но ограничить их использование будет сложно.
Как предотвратить эти проблемы
Популярность этих инструментов быстро растет. Поскольку новые инструменты LLM продолжают появляться, у команд DevOps остается мало времени на подготовку. Это означает, что организациям здравоохранения необходимо начать подготовку уже сегодня, чтобы опередить потенциальные уязвимости, связанные с этими инструментами.
Вот несколько вещей, которые помогут вам избежать потенциальных недостатков LLM и инструментов генеративного искусственного интеллекта.
-
Укрепите свой конвейер DevOps
Оптимизированный конвейер DevOps будет включать в себя набор автоматизированных инструментов и открытую коммуникацию между командами подразделений. Предоставление членам команды автоматизированных инструментов обеспечивает полный охват проекта и сокращает количество ручных процессов.
Эти факторы будут становиться все более необходимыми, поскольку инструменты LLM повышают скорость написания кода. Использование этой скорости имеет решающее значение для обеспечения завершения всех проверок качества без возникновения проблем на дальнейших этапах конвейера.
Внедрение и совершенствование использования этих инструментов обеспечивает командам успех, поскольку инструменты LLM становятся широко доступными. Медицинские компании должны иметь возможность контролировать свой конвейер DevOps. Окружающая инфраструктура DevOps обеспечивает поддержку, необходимую для достижения такого контроля.
-
Сканирование кода со статическим анализом кода
Код, созданный инструментами LLM, ненадежен. Это означает, что вашей команде придется уделять больше времени на завершающей стадии разработки, чтобы убедиться, что все ошибки исправлены до того, как код будет объединен с главным репозиторием.
Статический анализ кода — это неотъемлемый аспект набора инструментов DevOps в медицинской организации. Этот автоматизированный инструмент проверяет каждую строку кода на соответствие внутренним правилам, чтобы пометить все, что может привести к ошибкам и ошибкам, если их не трогать.
И хотя может возникнуть соблазн остановиться на универсальном инструменте статического анализа кода, они просто не обеспечивают охват, необходимый для достижения стабильно высокого качества кода и соответствия нормативным требованиям.
-
Предлагайте непрерывное обучение
Человеческая ошибка является основной причиной потери данных. Эту проблему можно смягчить за счет использования автоматизированных инструментов, которые сокращают объем ручной работы, и предложения обучения новым и существующим членам команды. Инструменты LLM мощные, но их преимущества сочетаются с рисками, которые зависят от того, как они используются.
Чтобы обеспечить успешную реализацию, поделитесь передовым опытом со своей командой и четко определите ожидания вашей организации. Эти передовые методы включают в себя такие соображения, как проверка правильности структуры каждого фрагмента кода, исходящего от инструмента LLM, резервное копирование важных системных данных и отказ от использования любых несанкционированных инструментов. Медицинским компаниям особенно необходимо быть осторожными с тем, как их команда взаимодействует с платформой, учитывая конфиденциальность данных, которые они хранят.
Должное внимание начинается сегодня
Инструменты генеративного искусственного интеллекта и LLM будут продолжать становиться все более распространенными. Использование этих инструментов может принести много потенциально больших преимуществ, но существуют и значительные риски. Медицинские компании должны тщательно подходить к разработке своего подхода DevOps и обязательно тестировать каждую строку кода с помощью инструмента LLM.
Предоставлено изображение: Тима Мирошниченко; Пексели; Спасибо!