Huawei представит технологию, позволяющую выжать из дефицитных ИИ-чипов максимум

Первичный успех DeepSeek доказывает, что китайские компании в условиях санкций США пытаются добиться прогресса в сфере искусственного интеллекта за счёт более эффективного использования имеющихся ограниченных вычислительных ресурсов. Huawei в эту пятницу намеревается представить очередное программное решение, позволяющее поднять степень загрузки GPU и управлять кластерами на базе разнородных чипов.

Hollow Knight: Silksong — песнь страданий и радостей. Рецензия

Фитнес-браслет HUAWEI Band 10: настоящий металл

HUAWEI FreeArc: вероятно, самые удобные TWS-наушники

Пять причин полюбить HONOR Magic7 Pro

Обзор умных часов HUAWEI WATCH 5: часы юбилейные

Пять причин полюбить HONOR X8c

Пять причин полюбить HONOR Pad V9

Почему ИИ никак не сесть на безматричную диету

Об этом сообщает South China Morning Post со ссылкой на китайское издание Shanghai Securities News. В конце этой рабочей недели Huawei должна принять участие в отраслевой конференции, посвящённой искусственному интеллекту, компания рассчитывает представить новейшую технологию оптимизации использования вычислительных ресурсов. Уровень их загрузки удастся поднять до 70 % с нынешних 30–40 %, и в конечном итоге это будет способствовать более эффективному использованию инфраструктуры искусственного интеллекта в КНР.

Более того, новое программное обеспечение Huawei позволит управлять вычислительными ресурсами нескольких кластеров, основанных на чипах разных поставщиков: Huawei, Nvidia и менее известных китайских разработчиков. По сути, это позволит ускорить процесс импортозамещения в китайской ИИ-отрасли, поскольку сейчас многие владельцы вычислительных мощностей сопротивляются переходу на китайские ускорители. Их соседство с привычными компонентами Nvidia позволит сделать процесс более плавным и менее болезненным. Подобную унифицированную платформу для управления разнородными вычислительными ресурсами ранее уже предлагала компания Ran:ai, которую в 2024 году за $700 млн купила американская Nvidia.

Оцените статью
Добавить комментарий