Cloud Tensor Processing Unit
 

Cloud Tensor Processing Unit

Продукт
Разработчики: Google
Дата премьеры системы: 17 мая 2017 г
Технологии: Процессоры

2017: Анонс

17 мая 2017 года Google анонсировала процессор для суперкомпьютеров Cloud Tensor Processing Unit (TPU). Решение, ориентированное на системы машинного обучения, будет использоваться не только самой компанией, но и ее клиентами, которые смогут получить доступ к новинке через облако Google Cloud.

Cloud TPU не будет продаваться производителям серверов напрямую. Они смогут воспользоваться производительностью процессоров, подключившись к облачному сервису Google для выполнения своих рабочих нагрузок и хранения данных на оборудовании американской компании.

Cloud Tensor Processing Unit

Cloud TPU — это второе поколение чипов, разрабатываемых Google. Первая версия была представлена 2016 году. Тогда сообщалось, что TPU — это интегральная схема специального назначения (ASIC), предназначенная для ускорения процессов получения готовых результатов в уже обученных нейросетях. К примеру, система вступает в работу, когда пользователь инициирует голосовой поиск, запрашивает перевод текста или ищет совпадение с изображением.

Cloud TPU стал быстрее предшественника: производительность выросла до 180 терафлопс в операциях с плавающей точкой. В каждом процессоре содержится специальная высокоскоростная сеть, позволяющая создавать суперкомпьютеры, которые в Google называют TPU Pod.

Один такой модуль содержит 64 новых процессора и обладает производительностью на уровне 11,5 петафлопс. Такая скорость значительно снижает время обучения систем искусственного интеллекта. Так, один из суперкомпьютер Google проходил за сутки одну процедуру обучения, используя 32 самых быстрых на рынке GPU, в то время как лишь восьмая часть TPU Pod позволяет проводить аналогичные операции всего лишь с утра до вечера.

Один модуль, состоящий из четырех процессоров Cloud TPU, примерно в 12 тыс. быстрее суперкомпьютера Deep Blue, получившего известность после победы в шахматах над чемпионом мира Гарри Каспаровым в 1997 году, отметил Урс Хёльцле (Urs Hölzle), старший вице-президент Google по технической инфраструктуре.

Google не раскрыла ни сроки, ни стоимость аренды новых процессоров, ни имя производителя этих решений. Компания, продолжающая закупать чипы у Intel и Nvidia, может ежегодно экономить миллиарды долларов за счет использования собственных решений, отмечает Bloomberg.

« Этот рынок быстро развивается. Нам очень важно продвигать машинное обучение в собственных целях и быть лучшими в облаке, — заявил Урс Хёльцле.[1] »

Примечания



Подрядчики-лидеры по количеству проектов

За всю историю
2014 год
2015 год
2016 год
Текущий год

Данные не найдены

Данные не найдены

Распределение вендоров по количеству проектов внедрений (систем, проектов) с учётом партнёров

За всю историю
2014 год
2015 год
2016 год
Текущий год

Данные не найдены

Данные не найдены

  ИНЭУМ им. И.С. Брука (1, 2)
  Другие (0, 0)

Распределение базовых систем по количеству проектов, включая партнерские решения

За всю историю
2014 год
2015 год
2016 год
Текущий год

  Oracle SPARC - 6 (6, 0)
  Эльбрус - 4 (1, 3)
  Baikal-Т1 - 2 (2, 0)
  Microsoft: Project Brainwave - 0 (0, 0)
  Процессор Базис-Б1 - 0 (0, 0)
  Другие -3
Данные не найдены
Данные не найдены

  Эльбрус 4.4 - 2 (2, 0)
  Другие 0

  Baikal-Т1 - 1 (1, 0)
  Другие 0