Google ускорила разработку чипов с месяцев до шести часов с помощью ИИ




Исследователи из Google Research использовали обучение с подкреплением для ускорения создания чипов с нескольких месяцев до шести часов. По их словам, искусственный интеллект не уступает опытным инженерам.

Last year we shared how #ReinforcementLearning could hasten the design of accelerator chips (Chip Design with Deep Reinforcement Learning). Today we're publishing improved methods, which we've used in production to design the next generation of Google TPUs. Read more in Nature https://t.co/gOQVmbWdeV

— Google AI (@GoogleAI) June 9, 2021

Для достижения такого результата исследователи превратили проектирование чипа в игру. Компоненты процессора выступили в роли фишек, а холст, на котором они расположены, обозначили как игральную доску.


Производительность чипа оценивали с помощью показателей, основанных на базовых наборах данных о размещении 10 000 фишек. В «игре» побеждала та модель, которая показала максимальную эффективность, рассказали в Google.


Инженеры обнаружили, что за шесть часов алгоритмы разработали чипы, которые не уступали, а иногда и превосходили образцы, спроектированные людьми в течение нескольких месяцев.

«Наш метод позволяет создавать технологические планы изготовления микросхем менее чем за шесть часов, по сравнению с самым надежным исходным уровнем, который требует месяцев интенсивных усилий со стороны экспертов-людей», — говорится в исследовании.

Разработчики подчеркнули, что их подход не только экономит время, но и улучшает качество разработок.


Они добавили, что уже применили метод при проектировании тензорного процессора TPUv4, представленного в мае 2021 года.


Впервые Google сообщила, что экспериментирует с искусственным интеллектом для разработки чипов в 2020 году.


Напомним, в мае ученые представили суперкомпьютер Perlmutter для искусственного интеллекта, который поможет построить самую большую в истории 3D-карту видимой Вселенной.


В начале мая года исследователи разработали ИИ, который моделирует Вселенную на одном графическом процессоре в 1000 раз быстрее существующих методов.


В апреле ученые представили механизм глубокого обучения, который работает на центральном процессоре и тренирует нейронные сети в 15 раз быстрее, чем на платформах с видеоускорителями.


Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Источник _Биткоин, блокчейн, криптовалюты, финтех - ForkLog
 
Верх Низ