[ad_1]
Одна из наименее обсуждаемых тем информационного века — реальная стоимость всех данных, которые мы генерируем и потребляем. Наша номенклатура хранения данных не помогает — слово «облако» звучит призрачно и нереально, а взаимодействие обычного пользователя с ним спроектировано так, чтобы быть быстрым, легким, плавным и почти несущественным.
Наш мысленный образ часто представляет собой кучку нулей и единиц, плавающих над нами и вокруг нас, где-то в киберпространстве, не привязанных к нашему миру, чьи формы мы можем различать и манипулировать ими только через слои стекла и металла на сенсорных экранах наших мобильных устройств и компьютерные клавиатуры подобны мерцающим теням на стенах пресловутой пещеры Платона.
Но, конечно, облако несет вполне реальный, ощутимый физический ущерб: энергия, необходимая для работы серверов, на которых хранятся данные и выполняются приложения, и образующиеся в результате парниковые газы.
В среднем «гипермасштабные» центры обработки данных, используемые крупными технологическими компаниями, такими как Google, Meta, Apple и Amazon, потребляют от 20 до 100 мегаватт электроэнергии в год, чего достаточно для питания до 37 000 домов. Хотя технологические компании с гордостью кричат о своих инвестициях в солнечную, ветровую, гидроэнергетику и другие возобновляемые источники энергии для обеспечения своих центров обработки данных, реальность такова, что центры обработки данных, как и большая часть остального мира, по-прежнему зависят от ископаемого топлива.
Поскольку энергетические аппетиты центров обработки данных растут, а прогнозы указывают на скачок с 3% до 4% от общего мирового потребления электроэнергии к 2030 году, компании должны искать альтернативы.
Один из путей, который появился, — это увеличение инвестиций в периферийные вычисления, то есть развертывание компьютеров, датчиков и серверов меньшего размера не в каком-то огромном специализированном центре обработки данных, а в полевых условиях, на заводах и в торговых точках. где выполняется работа и физически осуществляются деловые операции.
В то же время внезапный всплеск интереса предприятий к использованию генеративного ИИ привел к увеличению требований к графическим процессорам (GPU) и серверному пространству, необходимому для хранения огромных объемов данных, необходимых для обучения больших языковых моделей (LLM) и других фундаментальные модели. В каком-то смысле это неблагоприятная тенденция для энергопотребления баз данных и центров обработки данных, поскольку она действует как противодействующая сила переходу к устройствам с меньшим энергопотреблением.
Или нет? Несколько компаний начали предлагать вычислительные и программные решения «ИИ на периферии», стремясь предоставить организациям технологии, необходимые для запуска приложений ИИ в полевых условиях, принимая на себя часть энергопотребления. прочь из облака и снижения общих потребностей в энергии и, следовательно, выбросов.
Преимущество: устройства с меньшим энергопотреблением
Суть привлекательности периферийных вычислений заключается в их способности смягчать энергетические проблемы, возникающие в результате волны цифровой трансформации, прокатившейся по всему миру.
Уменьшая объем данных, передаваемых по сетям в центральные центры обработки данных для обработки, периферийные вычисления минимизируют потребление. Кроме того, большинство периферийных устройств потребляют гораздо меньше энергии, чем их аналоги в центрах обработки данных или централизованных вычислениях.
Подход к локализованной обработке также означает, что данные обрабатываются ближе к тому месту, где они генерируются или необходимы, что снижает задержку и экономит энергию. Переход к периферийным вычислениям — это больше, чем просто технический сдвиг; это значительный шаг на пути к более устойчивому и энергоэффективному компьютерному ландшафту.
«ИИ на периферии призван произвести революцию в предприятиях, повысив эффективность и позволяя работать в режиме реального времени.
принятие решений и содействие инновациям», — написал Кришна Рангасайи, генеральный директор и основатель SiMa.ai, в электронном письме VentureBeat.
Рангасайи должен знать об этом, поскольку SiMa.ai, пятилетний стартап из Сан-Диего, штат Калифорния, производит собственное программное обеспечение для приложений искусственного интеллекта с возможностью перетаскивания без кода и чипы для периферийных устройств с искусственным интеллектом.
В сентябре 2023 года SiMa представила Palette Edgematic, платформу, позволяющую предприятиям быстро и легко создавать и развертывать приложения искусственного интеллекта на периферийных устройствах, в частности на кремниевых чипах SiMa MLSoC (изготовленных по спецификациям ведущим поставщиком Taiwan Semiconductor, TMSC). Компания уже доказала свою ценность для таких важных клиентов, как армия США, продемонстрировав, что развертывание одной периферии на дроне позволило увеличить частоту захвата и анализа видео с 3 кадров в секунду до 60.
«Мы знали, что то, что работало для искусственного интеллекта и машинного обучения в облаке, в будущем станет бесполезным.
Edge, поэтому мы решили превзойти производительность облака и соблюдать ограничения по энергопотреблению.
на краю», — сказал Рангасайи.
Требования к периферии отличаются от требований к центрам обработки данных
Еще одна компания, стремящаяся использовать ИИ на переднем крае для снижения требований к электропитанию, сохраняя при этом аналитические возможности ИИ, — это Lenovo.
Новый сервис TruScale для Edge и искусственного интеллекта, который также дебютировал в сентябре 2023 года, лучше всего известен потребителям как производитель ПК и устройств. Он использует опыт аппаратного обеспечения Lenovo и переносит его в новый форм-фактор — сервер ThinkEdge SE455 V3 с процессором AMD EPYC. Процессоры серии 8004, предназначенные для бесшумной работы в офисе розничной торговли, продуктовом магазине или даже на коммерческом рыболовном судне посреди Атлантического океана.
Lenovo также поставляет программное обеспечение, а именно более 150 готовых решений искусственного интеллекта, через свое новое предложение TruScale for Edge и SaaS по подписке на искусственный интеллект.
«Телефоны, планшеты, ноутбуки, камеры и датчики повсеместно удвоят объем данных в мире в течение следующих нескольких лет, что сделает вычисления на периферии или в удаленных местах критически важными для реализации перспектив ИИ для всех предприятий», — сказал Скотт Тиз, генеральный директор Менеджер по высокопроизводительным вычислениям и искусственному интеллекту в Lenovo. «В Lenovo мы сосредоточены на внедрении искусственного интеллекта в данные с помощью решений следующего поколения от границы до облака».
По оценкам Lenovo, полностью «75% вычислительных ресурсов» — фактическое сочетание аппаратного и программного обеспечения, необходимого для запуска приложений — будет перемещено в сторону периферии.
Но признать, что эта тенденция наступает, — это одно. Это еще один, более сложный набор задач, полностью посвященный созданию инфраструктуры для реализации этой цели.
«Серверная технология должна быть устойчивой к окружающей среде, быть компактной и ненавязчивой, обеспечивая при этом передовые вычисления, способные предоставлять аналитическую информацию на основе искусственного интеллекта», — сказал Тиз.
Какой край вам нужен: толстый или тонкий?
Splunk, компания-разработчик программного обеспечения для корпоративных данных, которую недавно приобрела Cisco за ошеломляющие 28 миллиардов долларов, различает «толстый край» и «тонкий край» и помогает своим клиентам различать эти две категории вычислений — и определять, какая из них подходит им. .
Хотя эта терминология все еще нова и развивается, «толстая грань» относится к типу вычислительных аппаратных и программных решений Lenovo, упомянутых выше в этой статье, — к тем, в которых данные обрабатываются и анализируются на месте или рядом с местом их сбора.
«Тонкий край» — это развертывания, в которых для сбора данных устанавливаются меньшие по размеру датчики и вычислительное оборудование с меньшим энергопотреблением, но на месте сбора выполняются лишь минимальные операции, а большая часть вычислительной мощности сохраняется в облаке. Новый Edge Hub от Splunk, терминал периферийных вычислений с собственной ОС, представленный компанией в июле, разработан специально для развертываний такого типа.
«Локальная версия Splunk Enterprise обычно упоминается как «толстое преимущество», поскольку обычно предоставляемая вычислительная мощность достаточно мощная, чтобы сегодня запускать несколько предложений Splunk по искусственному интеллекту», — сказал Хао Ян, руководитель отдела искусственного интеллекта в Splunk, в электронном письме, предоставленном ВенчурБит. «Splunk также является лидером, инвестирующим в искусственный интеллект на «тонком краю» благодаря нашему новому Splunk Edge Hub. Это позволяет применять модели ИИ для случаев использования, которые должны работать на более ограниченных ресурсах ближе к источнику данных».
Оба случая предлагают предприятиям возможности снизить энергопотребление при сборе и обработке данных, но очевидно, что в силу того, как он устроен и спроектирован, «толстый край» предлагает гораздо большую потенциальную экономию энергии.
Тем не менее, Splunk готов поддерживать предприятия в их развертываниях на толстых и тонких перифериях и максимально эффективно использовать их, даже если они стремятся внедрить модели искусственного интеллекта с интенсивными вычислительными ресурсами.
«Для больших моделей, которые могут легко работать в облаке, эффективная стратегия включает квантование, чтобы ведущие базовые модели ИИ с триллионами параметров можно было оптимизировать для работы на периферийном устройстве, сохраняя при этом точность», — объяснил Ян. «Это также подчеркивает необходимость понять, как можно оптимизировать аппаратное обеспечение для ИИ и как адаптировать модель, чтобы использовать преимущества различной аппаратной архитектуры в графических процессорах (графических процессорах) и NPU».
Одним из важных принципов философии Splunk в отношении ИИ является принцип «человек в процессе».
Как рассказал генеральный директор Splunk Гэри Стил Журнал «Уолл Стрит в недавнем интервью: «Вы не просто позволите агенту ИИ переконфигурировать вашу сеть. Вы будете очень вдумчивы в отношении следующих шагов, которые вы предпримете».
Вместо этого системы Splunk позволяют предприятиям развертывать искусственный интеллект, который дает рекомендации, но в конечном итоге оставляет людей ответственными за принятие решений. Это особенно важно для периферийных развертываний, где, помимо экономии энергии, приложение искусственного интеллекта имеет возможность более непосредственно влиять на рабочее место, поскольку оно расположено внутри него и среди него.
Splunk также хочет убедиться, что предприятия готовы предоставить свои собственные уникальные данные для совершенствования приложений ИИ, которые они планируют использовать, поскольку это будет иметь решающее значение для окончательного успеха ИИ в периферийных развертываниях.
«Многие попытки внедрения ИИ терпят неудачу, потому что базовые модели необходимо уточнять с помощью уникальных данных», — сказал Ван VentureBeat. «Каждое предприятие индивидуально, и Splunk Edge Hub предоставляет возможность собирать данные из Edge и гарантировать, что ИИ выполнит поставленную перед ним задачу. Это говорит о ценности Splunk в подходе «Человек в цикле», а также о том, что для правильного развертывания ИИ его можно понять и скорректировать».
Куда дальше пойдет искусственный интеллект на периферии и что это значит для энергоэффективности
Несмотря на нормативную двусмысленность и громкое сопротивление со стороны творческих людей и защитников, стремление предприятий к внедрению ИИ не показывает никаких признаков замедления.
Это подтолкнет больше компаний к использованию энергоемких моделей искусственного интеллекта, что может значительно увеличить общее энергопотребление предприятий.
Однако, исследуя и внедряя периферийные решения там, где и как они имеют смысл, от надежных поставщиков, имеющих опыт создания таких развертываний, предприятия могут максимально эффективно использовать ИИ, сохраняя при этом небольшой выброс углекислого газа и максимально эффективно используя энергию для питания своего нового ИИ. — управляемые операции. Такое внедрение ИИ может даже помочь им в дальнейшей оптимизации энергопотребления путем анализа и предложения предприятиям способов дальнейшего снижения энергопотребления на устройствах, используя данные, собранные локально.
Есть много поставщиков, предлагающих свои товары, но очевидно, что использование ИИ на переднем крае — это выгодный путь вперед для предприятий, стремящихся снизить свои счета за электроэнергию и свое воздействие на окружающую среду. И это, безусловно, может снять часть нагрузки с гипермасштабируемых центров обработки данных.
[ad_2]
Источник