- 96% разработчиков не полностью доверяют ИИ, 52% не всегда проверяют на ошибки
- Большинство пользователей ChatGPT и Perplexity получают доступ к AI через личный кабинет.
- Вопреки тенденциям, серьезную озабоченность вызывают компрометация и уязвимости данных.
Последние новости от Sonar Опрос разработчиков кода о состоянии обнаружили, что почти все (96%) разработчики сообщают, что, несмотря на широкое использование, они не полностью верят в то, что код, сгенерированный ИИ, функционально корректен, и, что еще хуже, многие не проверяют должным образом свой код, сгенерированный ИИ.
В настоящее время около 42% кода разработчиков создается с помощью ИИ (значительный рост по сравнению с всего 6% в 2023 году), но ожидается, что к 2027 году эта доля увеличится примерно до 65%.
И тем не менее, даже половина (48%) из них не всегда проверяют работу ИИ перед совершением, что указывает на огромный потенциал для внесения ошибок и уязвимостей.
Разработчики не проверяют код, сгенерированный ИИ, перед его использованием.
В то время как трое из пяти (59%) говорят, что они прилагают «умеренные» или «значительные» усилия для проверки кода, созданного ИИ, двое из пяти (38%) согласны с тем, что проверка занимает больше времени, чем эквивалентный код, написанный человеком. А поскольку для создания результата сгенерированный код использует огромное количество данных из Интернета, трое из пяти (61%) согласны с тем, что часто он выглядит правильно, но это не так.
Это исследование подтверждает отдельная недавняя статья Исследование, опубликованное CodeRabbit, показывает, что ИИ вызывает в 1,7 раза больше проблем (и в 1,7 раза больше серьезных проблем), чем люди.
Текущие тенденции показывают, что инструменты искусственного интеллекта чаще всего используются при прототипировании (88%) и программном обеспечении для интернет-производства (83%), что может показаться не таким уж важным, но почти столько же людей используют их для приложений, ориентированных на клиентов (73%). GitHub Copilot (75%) и ChatGPT (74%) — безусловно, наиболее часто используемые помощники.
Но Sonar идет еще дальше и обнаруживает, что более одного из трех (35%) разработчиков используют свои собственные личные учетные записи вместо утвержденных на работе — эта цифра возрастает до 52% для пользователей ChatGPT и 63% для поклонников Perplexity. Это создает дополнительный риск для потенциально конфиденциальной или чувствительной информации компании.
Фактически, раскрытие данных (57%), небольшие уязвимости (47%) и серьезные уязвимости (44%) являются одними из главных проблем, хотя Sonar обнаружил использование ИИ среди разработчиков.
«Ускоренная генерация кода — это только полдела», — делается вывод в отчете. «Настоящая ценность заключается в возможности доверять этому коду и эффективно его проверять».
Следите за TechRadar в Новостях Google. И Добавьте нас в качестве предпочтительного источника чтобы получать новости, обзоры и мнения наших экспертов в своих лентах. Обязательно нажмите кнопку «Подписаться»!
И ты, конечно, тоже можешь Следите за TechRadar в TikTok за новостями, обзорами, распаковками в видео-форме и получайте от нас регулярные обновления WhatsApp к.

