banner

[ad_1]

Узнайте, как компании ответственно интегрируют ИИ в производство. Это мероприятие, доступное только по приглашению, в Сан-Франциско будет посвящено пересечению технологий и бизнеса. Узнайте, как вы можете принять участие здесь.


Поскольку гонка за внедрение ИИ на предприятиях ускоряется, ключевой задачей остается быстрая и масштабная разработка и внедрение приложений ИИ в производство. RunPod, стартап, предлагающий глобально распределенную облачную платформу графических процессоров для разработки и внедрения искусственного интеллекта, сегодня объявил, что привлек начальное финансирование в размере 20 миллионов долларов США от Dell Technologies Capital и Intel Capital для решения этой проблемы.

Рост специализированных облачных платформ искусственного интеллекта

Развитие RunPod указывает на более масштабную тенденцию в отрасли: рост специализированных облачных сервисов, созданных специально для искусственного интеллекта. Поскольку ИИ становится все более важным для бизнес-операций, ограничения облачной инфраструктуры общего назначения становятся очевидными. Такие проблемы, как задержка, негибкость масштабирования ресурсов и отсутствие инструментов, специфичных для ИИ, препятствуют разработке и развертыванию приложений ИИ.

В ответ на это появилось новое поколение облачных платформ искусственного интеллекта, предлагающих оптимизированные вычислительные ресурсы, повышенную гибкость и масштабируемость, а также среды, ориентированные на разработчиков. Эти специализированные платформы предназначены для удовлетворения уникальных требований рабочих нагрузок ИИ: от высоких вычислительных требований при обучении моделей до необходимости быстрого масштабирования и эффективного распределения ресурсов.

Начальный раунд RunPod в размере 20 миллионов долларов проходит на фоне бурной финансовой активности в специализированном облачном пространстве искусственного интеллекта. Поскольку спрос на инфраструктуру с графическим ускорением растет, несколько других стартапов также привлекли значительные инвестиции в последние месяцы.

CoreWeave, поставщик облачной инфраструктуры с ускорением на графических процессорах из Нью-Джерси, недавно получил новое финансирование в размере 1,1 миллиарда долларов при заявленной оценке в 19 миллиардов долларов. Компания, которая изначально фокусировалась на приложениях для криптовалют и блокчейнов, вкладывает значительные средства в свои возможности искусственного интеллекта и графического рендеринга. В прошлом году CoreWeave расширила свое присутствие в центрах обработки данных, увеличила численность персонала в четыре раза и обеспечила значительное долговое финансирование для стимулирования своего роста.

По сообщениям, компания Together Computer Inc. со штаб-квартирой в Сан-Франциско стремится привлечь более $100 млн при оценке, превышающей $1 млрд, что вдвое превышает предыдущую оценку с ноября. Облачная платформа Together предлагает доступ к высокопроизводительным графическим процессорам Nvidia и включает в себя программные функции, предназначенные для оптимизации обучения больших языковых моделей. Ожидается, что последний раунд компании будет возглавляться венчурным подразделением Salesforce и в нем будет участвовать компания Coatue.

Другой конкурент, Lambda Inc., только что объявил о раунде инвестиций в 320 миллионов долларов при оценке в 1,5 миллиарда долларов за свою облачную платформу, оптимизированную для искусственного интеллекта.

Эти значительные раунды финансирования подчеркивают растущий спрос на специализированную инфраструктуру искусственного интеллекта и потенциальные рыночные возможности для таких компаний, как RunPod. Однако они также иллюстрируют конкурентное давление, с которым столкнется RunPod, стремясь масштабировать свой бизнес и дифференцироваться на все более насыщенном рынке.

Привлечение внимания разработчиков

RunPod заявляет, что увеличила свою пользовательскую базу до более чем 100 000 разработчиков, постоянно уделяя внимание опыту разработчиков и скорости итераций как ключу к раскрытию бизнес-ценности ИИ.

«Если ваши разработчики довольны и чувствуют, что используют инструмент, отвечающий их потребностям, это самое главное», — сказал Чжэнь Лу, соучредитель и генеральный директор RunPod. «Многие компании упустили это из виду в нынешней суматохе. Они думают, что могут просто установить и сложить графические процессоры, и придут разработчики. Но реальная ценность заключается в возможности быстрой итерации».

Изображение предоставлено: опыт пользователя RunPod

Такое внимание к опыту разработчиков способствовало быстрому восходящему внедрению. То, что начиналось как бесплатный ресурс для независимых хакеров, неспособных позволить себе вычисления на графических процессорах, быстро привлекло потребителей, а затем стало финансировать стартапы и малый и средний бизнес (SMB). Теперь RunPod проникает на предприятия, частично предлагая графические процессоры Nvidia как через вычислительные экземпляры, так и через бессерверные функции.

«Раньше это были сообщества хакеров и разработчиков», — вспоминает Лу. «Мы запустили два года назад с графическими процессорами, которые размещали в нашем подвале, размещали на Reddit, предлагали бесплатно. Пользователи были людьми, которые не могли себе ничего позволить и были готовы попробовать. Затем мы начали привлекать просьюмеров, использующих его для побочных выступлений, а затем и для своих основных выступлений. Около года назад мы начали проникать в малый и средний бизнес и финансировать стартапы. И теперь мы начинаем получать больше этого корпоративного движения».

Изображение предоставлено: Опыт пользователя RunPod

Ключевой проблемой, которую решает RunPod, является необходимость для предприятий развертывать собственные модели, которыми они могут владеть, контролировать и использовать их. Слишком часто корпоративные разработчики прибегают к «стандартным» моделям, доступным через API, которые не совсем соответствуют их сценариям использования.

«Существует множество поставщиков, которые позволяют легко развернуть то, что вам не нужно. Но они затрудняют реализацию того, что вы хотите», — говорит Лу. «Наши клиенты говорят нам, что им нужно больше контроля и настройки».

RunPod поделился двумя убедительными практическими примерами, которые подчеркивают ориентированность платформы на разработчиков и простоту использования. LOVO AI, стартап по генерации голоса, высоко оценил интуитивно понятное решение сетевого хранилища RunPod и превосходный опыт разработчиков, отметив, что платформа постоянно предоставляет функции, отвечающие их потребностям.

Аналогичным образом, Coframe, стартап, создающий самооптимизирующиеся цифровые интерфейсы, подчеркнул простоту и гибкость бессерверного решения RunPod, которое позволило им развернуть свою собственную модель распространения на бессерверных графических процессорах менее чем за неделю, не нанимая специализированных инженеров по инфраструктуре.

Преодоление ограничений Kubernetes

Интересно, что для обеспечения масштабной настройки RunPod отказался от Kubernetes в пользу создания собственного уровня оркестрации с нуля. Первоначальная предварительная архитектура стартапа показала, что Kubernetes, созданный для более традиционных рабочих нагрузок, работает слишком медленно.

«Многие люди говорят: я просто хочу сделать это, я не хочу изучать все тонкости Kubernetes», — сказал Лу. «Kubernetes предлагает хороший опыт для экспертов, но совершенно ужасный, если вам просто нужно быстро получить выгоду. Мы хотели добиться скорости и удобства использования, которые, как мы знали, нужны нашим клиентам».

Решение RunPod создать собственный уровень оркестрации коренится в ограничениях Kubernetes для рабочих нагрузок ИИ. Хотя Kubernetes стал де-факто стандартом оркестрации контейнеров, он был разработан для традиционных приложений, а не для уникальных требований ИИ.

«Рабочие нагрузки AI/ML качественно отличаются от традиционных приложений», — говорит Лу. «Они требуют специализированных ресурсов, более быстрого планирования и более динамичного масштабирования. Мы обнаружили, что Kubernetes просто недостаточно быстр для того, что нужно нашим клиентам».

Это болевая точка, остро ощущаемая на предприятии, где необходимость развертывания и повторения пользовательских моделей ИИ имеет первостепенное значение. Сложность и накладные расходы Kubernetes могут замедлить циклы разработки и затруднить экспериментирование, становясь узким местом для внедрения ИИ.

«Многие существующие управляемые платформы ИИ отлично подходят для начала работы, но они могут быть ограничены, когда вам нужно развернуть свои собственные модели или конвейеры», — говорит Лу. «Именно здесь на помощь приходит RunPod. Мы предоставляем предприятиям примитивы инфраструктуры, необходимые им для создания и развертывания ИИ по-своему, не жертвуя при этом скоростью или простотой использования».

Поскольку все больше предприятий стремятся внедрить ИИ и дифференцироваться с помощью индивидуальных моделей, спрос на специализированную инфраструктуру ИИ будет только расти.

Масштабирование для будущего роста

Благодаря новому финансированию RunPod планирует увеличить набор сотрудников, чтобы удовлетворить корпоративный спрос, и добавить такие функции, как поддержка процессоров в дополнение к графическим процессорам. По словам Лу, компания сообщает, что за последний год численность персонала и выручка уже выросли в 10 раз.

Благодаря сильной начальной тяге и поддержке будущее RunPod выглядит светлым. Но на все более насыщенном рынке сохранение преимуществ, ориентированных на разработчиков, будет иметь ключевое значение. На данный момент основное внимание уделяется тому, чтобы помочь клиентам выйти за рамки ограничений универсальной инфраструктуры искусственного интеллекта.

«Разработчикам не нужны готовые решения для этой задачи, им нужно что-то, что они могут внедрить, а затем получить инструменты для реального улучшения ситуации и выполнения итераций для достижения желаемого результата», — говорит Лу. «Это то, к чему мы движемся».

[ad_2]

Источник

banner

Вам может понравиться

Обзор сервисов ИИ

Искусственный интеллект

Daily AI

ИИ в жизни, бизнесе, науке и искусстве.

@2024 All Right Reserved. Designed and Developed by PenciDesign