Открытое программное обеспечение живет от прозрачности и сотрудничества, в то время как сегодня самые современные помощники по кодированию ИИ часто создаются как закрытые и проприетарные системы.
Поскольку генеративный ИИ распространяется дальше, разработчики и организации задаются вопросом, действительно ли эти два мира действительно сосуществуют.
Содержание
Противоположная философия: открытый против закрытого развития
Философия развития с открытым исходным кодом и текущего развития ИИ, по -видимому, полностью отвергается на поверхности. Проекты с открытым исходным кодом прозрачны — каждый может осмотреть код, повторно использовать его по определенным лицензиям и учить их.
В открытом исходном костюме назначение и лицензирование являются основными; Разработчики выбирают лицензии, которые указывают, как можно использовать их код, и которые часто необходимы для поддержания кредитов.
Тем не менее, помощники по кодированию ИИ будут действовать как непрозрачные, изученные модели. Они принимают огромное количество кода (большая часть его с открытым исходным кодом) и создают предложения без раскрытия исходных источников.
Знание ИИ — это статистическое слияние, в котором часто не хватает четкого процесса происхождения для сгенерированного кода. Исследователи SNYK предупреждают, что инструменты Black-Box-Ki могут объединять код из нескольких источников и которые могут рисковать непреднамеренными нарушениями.
В то время как открытый исходный код основан на общей собственности, большинство инструментов искусственного интеллекта обусловлены интересами компании и закрыты. Как только код для кода, сгенерированного AI, был записан, обычно нет четкого механизма для использования, обновления или безопасного кода, когда оказалось, что он неверен.
Напротив, открытые проекты, как правило, публикуют регулярные обновления и исправления безопасности для защиты кода, в котором проекты все еще активно поддерживаются.
Откройте модели и данные
Компании часто не решаются открывать свои модели или обучать данные, в результате чего перечислены конкурентные преимущества и безопасность. Это отсутствие прозрачности может рухнуть со значениями с открытым исходным кодом. Фактически, части сообщества Foss (свободный/открытый исходный код) сильно отреагировали на идею черного ящика-ки-кода.
Существует очень реальный страх, что Ki Tools Open Source Code без должным образом Сотрудничество.
Несмотря на эти различия, ИИ и открытый исходный код глубоко связаны. Современный ИИ -кодекс -помощники обязаны значительной частью своих навыков для открытого исходного кода -на самом деле они обычно обучаются на миллионы публичных репозиториев GitHub и других архивов открытого кода. Исследование показало, что среднее приложение состоит из примерно 70% компонентов с открытым исходным кодом.
Это может создать слабости. В отчете Snyks 2023 AI Code более половины разработчиков заявили, что они часто обучались вопросам безопасности в Кодексе кода, сгенерированного AI.
Другими словами, помощники ИИ находятся на плечах гигантов с открытым исходным кодом, но они также наследуют бородавки с открытым исходным кодом и лицензионные обязательства. Необходимы стратегии, которые вступают в брак с скоростью и силой ИИ с прозрачностью и юридической ясностью открытого исходного кода.
Где два решения пересекаются
Существуют некоторые естественные ориентации между разработкой, контролируемой ИИ и открытым исходным кодом. Оба стремятся демократизировать создание программного обеспечения — открытый исходный код, обмениваясь кодом и помощниками искусственного интеллекта, позволяя кодированию через естественный язык.
Разработчики не собираются отказываться от полезных помощников по искусственному интеллекту — и им не нужно иметь это ввиду преимуществ, но они должны оставаться против рисков.
Достижение гармонии между инструментами искусственного интеллекта и развитием открытия для обороны требует усилий с обеих сторон: поставщики искусственного интеллекта должны строить защиту и прозрачность, а разработчики и сообщества должны адаптировать свои руководящие принципы и рабочие процессы.
Лучшие практики мирного сосуществования
Инструменты эстонирования могут сравниться с общественными репозиторами с сгенерированным AI-кодом для отображения информации о лицензировании. Это помогает разработчикам оценить риски повторного использования и избежать нарушений, особенно если источники помощника искусственного интеллекта могут привести аналогично академическим ссылкам.
Самый простой способ избежать нарушений лицензии — это предотвратить их в корне. Если модель ИИ обучена только коду, который утвержден, лицензирован или общедоступен, риск того, что запатентованный код появится без разрешения.
Например, собственный двигатель безопасности Snyk на основе AI постоянно учится из репозитория с открытым исходным кодом с очень конкретными лицензиями, которые обеспечивают коммерческое использование. В будущем обучение будет основано на допустимых данных о реальных ожиданиях.
Инструменты искусственного интеллекта должны стать гражданами экосистемы разработчика. Это означает создание в чеках для осадков для обеспечения безопасности и конформаций лицензии при создании кода. Разработчики, которые используют помощников искусственного интеллекта, должны относиться к выходам ИИ с тем же усердием, что и в том, что они будут выполнять код сторонних поставщиков из неизвестного источника.
Также важно тщательно подумать о том, что подается в ИИ. Организации, которые используют инструменты с открытым исходным кодом наряду с ИИ, должны быть осторожны в отношении защиты данных защиты данных. Если вы поделитесь этим кодом с помощником искусственного интеллекта, он может случайно принять участие в знании модели. Поделитесь только тем, что вы готовы поделиться и поддерживать действительно частный код систем искусственного интеллекта от сторонних поставщиков.
Один путь вперед: мост с открытым исходным кодом и ИИ
Самый простой способ преодолеть парадокс может быть решена из обоих миров, взяв на себя лучшее. Мы уже видим движение для этого среднего уровня, с принципами с открытым исходным кодом влияют на ИИ и наоборот.
Так что помощники по кодированию ИИ могут действительно процветать в долгосрочной перспективе, ключом является доверие. Разработчики должны доверять, что инструменты помогут, не наносят вреда их кодовым базам, что означает, что никаких скрытых отверстий безопасности и никаких скрытых юридических строк не прилагаются.
Настаивая на открытости в нашем искусственном интеллекте и ответственности за использование открытого исходного кода, мы можем решить парадокс, ускорить инновации и в то же время сохранить значения, которые сделали открытый исходный код, прежде всего, успех.
Мы перечисляем лучшие веб -сайты для установки разработчиков.
Эта статья была произведена в рамках канала Expert Insights Techradarpro, в котором мы сегодня предлагаем лучшие и умные руководители в технологической индустрии. Взгляды, выраженные здесь, относятся к авторскому и не обязательно мнениям Techradarpro или Future PLC. Если вы заинтересованы в том, чтобы определить больше здесь: