14 мая Uber объявила о расширении инженерного присутствия в Индии: компания откроет два новых кампуса в Бенгалуру и Хайдарабаде, которые, как ожидается, смогут разместить примерно 9 600 сотрудников к концу 2027 года. Также Uber планирует создать свой первый локальный дата-центр в партнерстве с индийским конгломератом Adani Group: объект должен заработать в IV квартале 2026 года. Расширение отражает приверженность Uber Индии как крупному инженерному хабу на фоне конкуренции с местным игроком в сфере райд-хейлинга Rapido и диверсификации за пределы услуг по поездкам.
Сейчас Uber в Индии нанимает примерно 3 500 человек. Компания активно набирает специалистов на позиции в области искусственного интеллекта, машинного обучения, эксплуатации автономных транспортных средств и бэк-энд инфраструктуры. Эти усилия по найму согласуются с более широкой стратегией Uber по созданию возможностей в сфере AI и машинного обучения на индийском рынке.
Партнерство с Adani Group представляет собой стратегический подход к формированию вычислительной инфраструктуры в Индии. Вместо самостоятельного строительства Uber решил сотрудничать с индийским конгломератом, который работает в сферах инфраструктуры, энергетики и логистики. Это партнерство дает Uber доступ к земельным и энергетическим ресурсам — обоим критически важным требованиям для работы дата-центра.
Проект дата-центра Adani входит в более широкую инициативу по развитию инфраструктуры в Индии. Adani Enterprises параллельно разрабатывает кампус, который называют крупнейшим в Индии AI-дата-центром в Вишакхапатнаме, через AdaniConneX — при участии Google, Bharti Airtel (индийский оператор связи) и других партнеров. Оценочный объем инвестиций составляет 15 миллиардов долларов США в период с 2026 по 2030 год.
Расширение Uber в Индии следует за инвестицией в размере 330 миллионов долларов США в ее индийское подразделение в начале 2026 года. Индия стала крупной инженерной базой для глобальных технологических компаний, и это расширение подчеркивает растущую значимость локальных вычислительных мощностей, обусловленную требованиями к локализации данных и растущим спросом на AI-инфраструктуру.