Мы все знаем, что у ИИ есть проблемы с питанием. В целом, глобальное использование ИИ уже использовал столько же энергии, сколько вся нация Кипра сделал в 2021 году.

Но исследователи-инженеры из Университета городов-побратимов Миннесоты разработали и продемонстрировали новую конструкцию компьютерной памяти, которая может значительно снизить энергопотребление систем искусственного интеллекта, тем самым смягчая эту проблему. Ее Исследование было недавно опубликовано в журнале Nature Journal Unconventional Computing.

Большинство современных компьютерных систем основаны на так называемой архитектуре фон Неймана, в которой подсистемы логики и памяти разделены. Во время нормальной работы данные передаются туда и обратно между модулями памяти и процессорами. Это фундаментальная основа работы современных компьютеров.

Однако, поскольку скорость обработки быстро превосходит технологию ввода-выводаТакая передача данных становится узким местом как с точки зрения скорости обработки (т. е. Проблема со стеной памяти) и энергопотребление. Как отметили исследователи, простая пересылка данных туда и обратно требует в 200 раз больше энергии, чем сами вычисления.

Разработчики попытались обойти эту проблему, физически сближая логику и память, используя компьютерные конструкции «околопамяти» и «в памяти». Системы, расположенные рядом с памятью, укладывают логику и память друг на друга в трехмерном массиве, наслоенном, как арахисовое масло и разновидность желе, в то время как системы в памяти распределяют логические кластеры по всей памяти на одном кристалле, больше похожем на арахисовое масло. — и банановый сэндвич.

Решением исследовательской группы «Города-побратимы» является новая полностью цифровая конструкция оперативной памяти, называемая вычислительной памятью с произвольным доступом (CRAM). «Логика изначально выполняется ячейками памяти; данные для логических операций никогда не должны покидать память», — говорят исследователи. Команда добилась этого за счет интеграции реконфигурируемого спинтроника Вычислительная подложка интегрирована непосредственно в ячейку памяти. По мнению исследователей, это достижение позволило снизить энергопотребление процесса искусственного интеллекта в «1000 раз» по сравнению с современным решением.

ЧИТАТЬ  Спин-офф «Протокол Каллисто» — странный и забавный клон Аида | Цифровые тенденции

И это 1000-кратное улучшение может быть просто базовым уровнем. Исследовательская группа протестировала CRAM на одном Задача классификации рукописных цифр MNIST и пришли к выводу, что для этого «требуется в 2500 раз и в 1700 раз меньше энергии и времени соответственно по сравнению с системой обработки данных, работающей в режиме близкой к памяти, на основе технологического узла 16 нм».

Развивающаяся индустрия искусственного интеллекта уже сталкивается со значительными проблемами с ресурсами. Все более быстрые, более мощные и более мощные графические процессоры, лежащие в основе программного обеспечения искусственного интеллекта, чрезвычайно энергоемки. Последняя флагманская модель NVIDIA Blackwell B200 потребляет до 1200 Вт.и генерирует так много отработанного тепла, что требуется жидкостное охлаждение — еще один ресурсоемкий процесс.

Гипермасштабирующие компании, такие как Google, Amazon и Microsoft, изо всех сил пытаются создать физическую инфраструктуру, необходимую для грядущей революции искусственного интеллекта, т.е. Дата-центры мощностью в гигаваттном диапазоненекоторые с свои дочерние атомные электростанции – Создание более энергоэффективных вычислительных ресурсов и ресурсов хранения становится все более важным для долгосрочной жизнеспособности технологии искусственного интеллекта.




Source