IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Start.bg Posoka Boec Megavselena.bg Chernomore

Google иска да подкопае софтуерното предимство на Nvidia с помощта на Meta

Компанията се стреми да помогне на AI разработчиците да намалят зависимостта си от екосистемата CUDA на Nvidia

08:00 | 22.12.25 г.
Снимка: Bloomberg LP
Снимка: Bloomberg LP

Google на Alphabet работи по нова инициатива, която да подобри чиповете за изкуствен интелект при работа с PyTorch, най-широко използваната софтуерна платформа за изкуствен интелект в света, в опит да отслаби дългогодишното господство на Nvidia на пазара на изчислителни системи за изкуствен интелект, съобщават запознати с въпроса източници, цитирани от Ройтерс.

Усилията са част от агресивния план на Google да направи своите Tensor Processing Units (TPU) жизнеспособна алтернатива на водещите на пазара графични процесори (GPU) на Nvidia. Продажбите на TPU се превърнаха в ключов двигател за растежа на приходите на Google от облачни услуги, тъй като компанията се стреми да докаже на инвеститорите, че инвестициите ѝ в изкуствен интелект носят възвръщаемост.

Но само хардуерът не е достатъчен, за да стимулира възприемането. Новата инициатива, известна вътрешно като TorchTPU, има за цел да премахне ключова бариера, която забавя възприемането на TPU чиповете, като ги направи напълно съвместими  и удобни за клиенти, които вече са изградили технологичната си инфраструктура, използвайки софтуера PyTorch, съобщават запознати източници. Google обмисля също да направи части от софтуера с отворен код, за да ускори възприемането му от клиентите, казват някои от източниците.

В сравнение с по-ранни опити да се поддържа PyTorch на TPUs Google е насочила по-голямо организационно внимание, ресурси и стратегическо значение към TorchTPU, тъй като търсенето расте от компании, които искат да възприемат чиповете, но смятат софтуерния залог за пречка, съобщават източниците.

PyTorch, проект с отворен код, силно подкрепен от Meta Platforms, е един от най-широко използваните инструменти за разработчици, които създават модели за изкуствен интелект. В Силициевата долина много малко разработичици пишат всеки ред от кода, който чиповете от Nvidia, Advanced Micro Devices (AMD) или Google действително изпълняват.

Вместо това тези разработчици разчитат на инструменти като PyTorch, който е сбор от предварително написани кодове и рамки, автоматизиращи много от често срещаните задачи при разработването на софтуер за изкуствен интелект. Първоначално пуснат на пазара през 2016 г., историята на PyTorch е тясно свързана с разработването на CUDA от Nvidia, софтуера, който някои анализатори на Wall Street смятат за най-силния щит на компанията срещу конкурентите.

Години наред инженерите на Nvidia са полагали усилия да гарантират, че софтуерът, разработен с PyTorch, работи възможно най-бързо и ефективно на техните чипове. За сметка на това Google отдавна разполага с вътрешни екипи от софтуерни разработчици, които използват различна кодова рамка на име XLA, за да гарантират ефективното изпълнение на кода. Голяма част от софтуерния стек и оптимизацията на представянето на Google са изградени около Jax, което увеличава разликата между начина, по който Google използва своите чипове, и начина, по който клиентите искат да ги използват.

Представител на Google Cloud не коментира подробностите по проекта, но потвърди пред Ройтерс, че ходът ще предостави избор на клиентите.

„Наблюдаваме огромен и нарастващ интерес към нашата TPU и към GPU инфраструктурата. Нашата цел е да предоставим на разработчиците необходимата им гъвкавост и мащабируемост независимо от хардуера, който избират да използват“, допълни представителят.

TPU за клиенти

Alphabet дълго време запазваше по-голямата част от собствените си чипове TPU само за вътрешна употреба. Това се промени през 2022 г., когато отделът за облачни изчисления на Google успешно лобира да поеме надзора на групата, която продава TPU. Тази стъпка драстично увеличи разпределението на TPU от Google Cloud и с нарастването на интереса на клиентите към изкуствения интелект Google се опитва да се възползва от това, като увеличи производството и продажбите на TPU на външни клиенти.

Но несъответствието между рамките на PyTorch, използвани от повечето разработчици на изкуствен интелект в света, и рамките на Jax, към които чиповете на Google са най-добре настроени да работят в момента, означава, че повечето разработчици не могат лесно да възприемат чиповете на Google и да ги накарат да работят толкова добре, колкото тези на Nvidia, без да извършат значителна допълнителна инженерна работа. Тя отнема време и пари в бързо развиващата се надпревара в областта на изкуствения интелект.

Ако бъде успешна, инициативата TorchTPU на Google би могла значително да намали разходите за преминаване към други продукти за компаниите, които търсят алтернативи на GPU на Nvidia. Доминиращата позиция на Nvidia е подсилена не само от хардуера, а и от софтуерната екосистема CUDA, която е дълбоко вградена в PyTorch и се е превърнала в стандартния метод, по който компаниите обучават и управляват големите AI модели.

Корпоративни клиенти са съобщили на Google, че TPU са по-трудни за внедряване в AI работните натоварвания, тъй като в миналото са изисквали от разработчиците да преминат към Jax, платформа за машинно обучение, която е предпочитана вътрешно в Google вместо PyTorch, която вече се използва от повечето AI разработчици, казват източниците.

Съвместни усилия с Meta

За да ускори разработката, Google работи в тясно сътрудничество с Meta, създател и администратор на PyTorch, съобщават източниците. Двата технологични гиганта обсъждат сделки за достъп на Meta до повече TPU, което за първи път беше съобщено от The Information.

Първите оферти за Meta били структурирани като услуги, управлявани от Google, при които клиенти като Meta инсталирали чипове на Google, предназначени да работят със софтуер и модели на компанията, а Google осигурявала оперативната поддръжка. Meta има стратегически интерес да работи върху софтуер, който улеснява работата с TPU, в опит да намали разходите за изводи и да разнообрази AI инфраструктурата си, като се отклони от GPU на Nvidia, за да спечели преговорна сила, казват източниците. Meta е отказала коментар.

Тази година Google започна да продава TPU директно в центровете за данни на клиентите, вместо да ограничава достъпа до собствения си облак. Амин Вахдат, дългогодишен служител на Google, беше назначен за ръководител на инфраструктурата за изкуствен интелект този месец и се отчита директно пред главния изпълнителен директор Сундар Пичай.

Google се нуждае от тази инфраструктура, за да управлява собствените си AI продукти, включително чатбота Gemini и търсенето, задвижвано от изкуствен интелект, така и за да доставя на клиентите на Google Cloud, който продава достъп до TPU на компании като Anthropic.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 08:00 | 22.12.25 г.
Специални проекти виж още
Най-четени новини
Още от Новини и анализи виж още

Коментари

Финанси виж още