Платформа Google TPU 3.0 для задач машинного навчання перевищила планку продуктивності в 100 PFLOPS

На минулому вчора заході Google I / O пошуковий гігант побіжно згадав TPU 3.0 - нову платформу для прискорення машинного навчання. Нагадаємо, про перше покоління цього рішення ми дізналися два роки тому . Тоді Google розповіла, що використовує такі модулі вже більше року.

У минулому році представили TPU 2.0 з продуктивністю в 180 TFLOPS. Тепер же прийшла черга третього покоління. Нагадаємо, в основі платформи лежать спеціальні ASIC. І якщо в першому поколінні один обчислювальний блок включав одну ASIC, то в другому на єдиній платі розміщувалося вже по чотири мікросхеми. Google же використовувала модулі, кожен з яких містив по 16 плат, тобто по 64 ASIC. Таким чином, сумарна продуктивність модуля досягала 11,5 PFLOPS!

Таким чином, сумарна продуктивність модуля досягала 11,5 PFLOPS

Про нове покоління цієї платформи поки відомо дуже мало. Але Google стверджує, що продуктивність зросла більш ніж у вісім разів, досягнувши більш ніж 100 PFLOPS! На зображенні, яке Google показала під час конференції, можна було бачити плату з чотирма водоблоками, тобто одна плата, як і раніше, містить чотири ASIC.

На зображенні, яке Google показала під час конференції, можна було бачити плату з чотирма водоблоками, тобто одна плата, як і раніше, містить чотири ASIC

Але ми не знаємо, скільки таких плат в обчислювальному модулі. Якщо 16, як і раніше, то виходить, що вісім разів зросла продуктивність кожної мікросхеми. З огляду на, що Google довелося перейти на рідинне охолодження, в це цілком можна повірити.

Новости