banner

[ad_1]

К 2030 году энергопотребление центров обработки данных в США достигнет 35 ГВт, что почти вдвое превышает уровень 2022-го — 17 ГВт. Согласно новому отчету консалтинговой компании Newmark, стимулировать этот рост будет повышающийся спрос на внедрение искусственного интеллекта: для машинного обучения требуются значительные вычислительные мощности. К тому же ИИ-системы становятся все более сложными.

Хотя гиперскейлерам (крупным компаниям-операторам дата-центров) обычно требуется 10–14 кВт на стойку в центрах обработки данных, для стоек с поддержкой искусственного интеллекта, оснащенных ресурсоемкими графическими процессорами, эта мощность, по прогнозам, увеличится до 40–60 кВт.

Аналитики отмечают, что многие существующие дата-центры уже не может удовлетворить этот спрос, уровень их доступности порой очень низкий: например, в районе залива Сан-Франциско составляет 0,5% мощности, в штате Аризона — 3,8%.

Между тем на днях в кулуарах Всемирного экономического форума в Давосе генеральный директор OpenAI Сэм Альтман заявил, что будущее искусственного интеллекта зависит от энергетического прорыва, так как для машинного обучения потребуется гораздо больше энергии, чем мы ожидали. Альтман делает ставку на энергию термоядерного синтеза.

Текст: Майя Цветкова

Изображение: Freepik

 

[ad_2]

Источник

banner

Вам может понравиться

Обзор сервисов ИИ

Искусственный интеллект

Daily AI

ИИ в жизни, бизнесе, науке и искусстве.

@2024 All Right Reserved. Designed and Developed by PenciDesign