Мир ИТ в настоящее время находится в середине «Ai Anturm», и мы только что пострадали от новой следующей волны с началом Deepseek, A-подтвержденного чатбота с открытым исходным кодом, который поднимает архитектура Openai. Благодаря каждым новым инновациям для искусственного интеллекта мы также должны обсудить потенциальные эффекты защиты данных. После Дня защиты данных сейчас хорошее время, чтобы подробнее рассмотреть потенциал этого нового инструмента ИИ и связанных с ним соображений защиты данных.
ИИ в основном связан с обработкой и обогащением данных, так как нет искусственного интеллекта без данных (какое -то время). Чем больше данных и власти он питается, тем более мощным становится искусственный интеллект. Контекст, связанные с двигателями инструментов, таких как CHATGPT, и теперь DeepSeek основаны на данных как контекст для их моделирования и результатов. И это поднимает вопрос о том, кто контролирует эти данные и кто имеет к ним доступ. Какие данные входят в инструменты ИИ и какие искажения могут быть в этой коробке?
Global VP & CISO в резиденции и Zscaler.
Демократизация ИИ
DeepSeek утверждает, что не имеет никакой власти, чтобы эффективно обрабатывать массовые количества данных, но и выбросить фондовые рынки из -за гораздо более низких затрат, чем конкуренты в турбулентности. Компании из Соединенных Штатов доминировали в комнате цифровых инноваций в течение многих лет. И кажется, что за первые два года после шторма ИИ многие из таких компаний, как Openaai, также являются американцами.
Неудивительно, что эти цифровые аборигены берут этого Ki -Newcomer из Китая как огромную угрозу, которая ставит под угрозу сухопутный захват за искусственный интеллект, очень похожий на облачную расу и другие жалобы на землю.
Ожидается, что вход из DeepSeek будет иметь эффект демократизации на ИИ и показывает, что архипелаг компаний Силиконовой долины больше не единственный, который может сформировать будущее этой технологии. Тем не менее, тот факт, что DeepSeek является платформой с открытым исходным кодом -AI, должен оцениваться. В то время как коды этого инструмента ИИ открыты, его источники учебных данных остаются в значительной степени непрозрачными, что затрудняет оценку потенциальных искажений или рисков безопасности.
Что делает DeepSeek таким мощным, так это уникальный уровень эффективности. Самые большие проблемы, с которыми в течение последних двух лет была в Силиконовой долине в ходе шторма ИИ, — это огромная обработка и последующее энергопотребление всех этих чат -ботов и применений, которые внезапно являются модными.
С развитием DeepSeek потенциал для более эффективного потребления ИИ и, следовательно, меньше энергии, потому что он требует меньшей вычислительной мощности. Кривая вычислений приблизилась к асимптоте, которая управляет предложением, и затраты выросли, а рыночная капитализация для компаний в экосистеме. Это предложение, например, для графических процессоров, меняет баланс между спросом и предложением.
Однако это возможное расстройство является только одной стороной медаль. Этот новый инструмент искусственного интеллекта будет действовать в качестве катализатора для ускорения спроса на новые приложения, и в течение короткого и среднего периода времени компании, вероятно, ускорят инновации ИИ и дойдут до точки, где максимизация мощности от энергии и расчета перспективных возвратов в одну и ту же асимптоту. Основываясь на прорыве производства энергии или компьютера, например, в квантовых вычислениях, экосистема стабилизируется в должном порядке.
Зрелые основы ИИ
В спешке запустить новые приложения, вызванные ИИ как можно скорее, организации не должны забывать основы защиты данных. Существуют различные управления, конфиденциальность, безопасность, юридические, социальные и этические соображения, которые следует учитывать в дополнение к повышению эффективности и эффективности инструмента ИИ.
Организации должны гарантировать, что все эти компоненты выровнены до продвижения. Каждое из этих измерений требует не только структуры и рассмотрения, но и артикуляции и ясности.
Если организации ускоряют информацию, которая подается в ваши инструменты искусственного интеллекта для контроля за принятием, вы должны проверить записи данных на предмет искажений и быть прозрачными с помощью данных, которые вы используете и собирать в своей модели. Последним шагом является оценка не только выходов ваших инструментов ИИ, но и цепочки поставок, которая имеет к вам доступ. В ту минуту, когда данные вводятся в мир KI, организации должны знать, что они имеют соответствующие средства безопасности.
Со всем этим Goldrush -think of AI организации не должны забывать защиту данных. Компании, которые инвестировали время и усилия в управление ИИ и подготовку к механизмам защиты данных за последние два года, могут сначала добраться до ИИ золото. У вас будут зрелые руководящие принципы ИИ, с которыми вы работаете, и как вы относитесь к своим данным, обладают этическими рекомендациями и наблюдением в проектах искусственного интеллекта, чтобы позволить департаментам, которые оценивают новые инструменты и функциональность ИИ.
Мы перечислили лучший инструмент защиты данных и анонимный браузер.
Эта статья была произведена в рамках канала Expert Insights Techradarpro, в котором мы сегодня предлагаем лучшие и умные руководители в технологической индустрии. Взгляды, выраженные здесь, относятся к авторскому и не обязательно мнениям Techradarpro или Future PLC. Если вы заинтересованы в том, чтобы определить больше здесь: