Майкрософт как сообщается, разработала генеративную модель искусственного интеллекта, предназначенную для спецслужб США.
Развитие знаменует собой веху в области искусственного интеллекта (ИИ), как заявляют представители Microsoft, это большая языковая модель (LLM), которая может функционировать совершенно независимо от Интернета, сообщило агентство Bloomberg News во вторник (7 мая).
«Это первый раз, когда у нас есть изолированная версия — изолированная означает, что она не подключена к Интернету — и находится в специальной сети, доступ к которой имеет только правительство США». Уильям ЧаппеллОб этом Bloomberg сообщил главный технический директор Microsoft по стратегическим миссиям и технологиям.
Согласно отчету, большинство моделей искусственного интеллекта полагаются на облачные сервисы для выявления закономерностей в данных. Однако Microsoft хотела предоставить по-настоящему безопасную систему для спецслужб США, таких как ЦРУ.
Блумберг сообщил, что представители разведки подчеркнули, что они хотят использовать те же инструменты искусственного интеллекта, которые, по мнению сторонников, изменят деловой мир. Хотя ЦРУ дебютировало в прошлом году ChatGPT-подобный сервис Что касается несекретной информации, властям нужно что-то, что может обрабатывать гораздо более конфиденциальные данные.
«Идет гонка за применение генеративного ИИ к разведывательным данным» Патель из листового металлаОб этом заявил заместитель директора ЦРУ Центра транснациональных и технологических миссий на недавней конференции по безопасности в Университете Вандербильта, сообщает Bloomberg.
Она добавила, что первая страна, которая будет использовать генеративный искусственный интеллект для разведки, выиграет эту гонку. «И я хочу, чтобы мы были такими».
Последние усилия Microsoft последовали за сообщениями ранее на этой неделе о том, что компания работает над одним новая собственная модель искусственного интеллекта «намного больше», чем раньше Открытый исходный код Модели, которые он обучал.
Ожидается, что новая модель MAI-1 будет иметь около 500 миллиардов Параметр, и призван конкурировать с моделями, разработанными такими компаниями, как Google, Anthropic и OpenAI (в которых Microsoft имеет долю).
Тем временем PYMNTS изучил некоторые проблемы и проблемы, возникшие в понедельник (6 мая). от использования AI LLM.
«LLM могут фабриковать информацию, которая влияет на их достоверность и надежность», — говорится в отчете. «Модели могут закреплять предвзятости, обнаруженные в их обучающих данных, и создавать дезинформацию. Их использование для создания онлайн-контента в больших масштабах может ускорить распространение фейковых новостей и спама. Политики обеспокоены влиянием на рабочие места, поскольку степень магистра права влияет на интеллектуальную работу.
Кроме того, возникли вопросы интеллектуальная собственностьпоскольку эти модели обучены с использованием материалов, защищенных авторским правом.