日本女优在线 AI 几小时联想芯片卓绝东说念主类:谷歌 AlphaChip 登 Nature,已联想出三代旗舰 TPU

快播黄片

快播黄片

  • 首页
  • a片 男同
  • 成人 男同
  • 男同 動漫
  • 男同 sex
  • 男同 色情
  • 日本 男同
  • 你的位置:快播黄片 > 日本 男同 > 日本女优在线 AI 几小时联想芯片卓绝东说念主类:谷歌 AlphaChip 登 Nature,已联想出三代旗舰 TPU

    日本女优在线 AI 几小时联想芯片卓绝东说念主类:谷歌 AlphaChip 登 Nature,已联想出三代旗舰 TPU

    发布日期:2024-10-08 05:50    点击次数:206

    日本女优在线 AI 几小时联想芯片卓绝东说念主类:谷歌 AlphaChip 登 Nature,已联想出三代旗舰 TPU

    谷歌的 AlphaChip,几小时内就能联想出芯片布局日本女优在线,径直碾压东说念主类内行!这种超东说念主芯片布局,一经利用在 TPU、CPU 在内的群众硬件中。东说念主类联想芯片的花式,已被 AI 透顶转换。

    能联想芯片的 AI 黑科技来了!就在刚刚,谷歌 DeepMind 推出名为 AlphaChip 的 AI 系统。

    不管是联想着手进的用于构建 AI 模子的 TPU,照旧数据中心的 CPU,它在谋划的雄伟范围,齐产生了广大影响。

    在谷歌的好多款芯片联想中,它齐取得了出色的效用,比如 Axion 芯片(一种基于 Arm 的通用数据中心 CPU)。

    AlphaChip 联想芯片,用的是强化学习的旨趣。

    也便是说,芯片布局联想对它来说是一种游戏,就像 AlphaGo 一样,它在游戏中,学习奈何联想出最佳的芯片布局。

    几小时内,它就能生成超出东说念主类水平,或是与东说念主类内行荒谬的芯片布局了。

    目下,它一经用于联想多代 TPU 芯片(TPU v5e、TPU v5p 和 Trillium)。而且跟东说念主类内行比较,AlphaChip 甩掉的块数越来越多,线长也减少了好多。

    布局五年,谷歌多代 TPU 全由 AI 联想

    其实谷歌关于这个 AI,一经布局多年了。早在 2020 年,团队就发表了一篇预印本论文,先容了谷歌的全新强化学习步地,用于联想芯片布局。

    论文地址:https://arxiv.org/ pdf/2004.10746

    其后在 2021 年,这项职责发表在了 Nature 上,况兼进行了开源。

    论文地址:https://www.nature.com/ articles / s41586-021-03544-w

    而自从初度发表这项职责以来,谷歌里面一直在对它进行转换。今天,团队发表了 Nature 附录,扫视花式了具躯壳式,偏激对芯片联想范围的影响。同期,他们还发布了一个预进修的查验点,分享了模子权重,公布模子称号为 AlphaChip。

    谷歌示意,AlphaChip 是最早用于处分执行宇宙工问题的强化学习步地之一。

    在数小时内,它就不错生成超东说念主或肖似的芯片布局,而不需要糟践数周或数月的东说念主类。它联想的芯片布局,一经被用于宇宙各地的芯片中,包括数据中心和迁徙电话。

    为了联想 TPU 布局,AlphaChip 领先在来自前几代的各式芯片模块上进行实践,举例片上和片间集会模块、内存抑止器和数据传输缓冲区。这一过程被称为预进修。

    然后,团队在现时的 TPU 模块上运行 AlphaChip,以生成高质地的布局。

    与之前的步地不同,AlphaChip 在处分更多芯片布局任务时变得更好、更快,肖似于东说念主类内行的职责花式。

    关于每一代新的 TPU,包括谷歌最新的 Trillium (第 6 代),AlphaChip 齐联想了更好的芯片布局,并提供了更多的总体布局图,从而加速了联想周期,产生了更高性能的芯片。

    条形图裸露了谷歌三代 TPU 上 AlphaChip 联想的芯片块的数目,包括 v5e、v5p 和 Trillium

    条形图裸露,跟 TPU 物理联想团队生成的布局比较,AlphaChip 在 TPU 三代家具中的平均有线长度减少职责旨趣:一边联想,一边奖励

    其实,联想芯片布局并不是一项苟简的任务。

    一般来说,计算机芯片有好多互连结结的模块、多层电路元件构成,统共这些部件齐由纤细无比的导线连结起来。

    此外,还有好多复杂且互相交汇的联想管理,必须同期欣忭。

    由于联想的复杂性,60 多年来,芯片联想工程师一直在戮力自动化芯片布局计划过程。

    谷歌示意,AlphaChip 的研发,从 AlphaGo 和 AlphaZero 中接纳了造就。

    无人不晓,通过深度学习和博弈论,AlphaGo 和 AlphaZero 冉冉从 0 掌抓了围棋、海外象棋和将棋的潜在限定。

    AlphaChip 相同是给与了,将芯片底层计划视为一种游戏的计策。

    从空缺栅格脱手,AlphaChip 每次甩掉一个电路元件,直至甩掉完统共元件。

    然后,笔据最终布局的质地,给以模子奖励。

    一种全新的「基于边」的图神经集会让 AlphaChip,大约学习互连结结的芯片元件之间的谋划,并在芯片之间进行泛化,让 AlphaChip 在联想的每种布局中齐有所转换。

    左图:动画裸露 AlphaChip 在莫得任何造就的情况下,将开源的 Ariane RISC-V CPU 置入。右图:动画裸露 AlphaChip 在对 20 个 TPU 谋划联想进行熟悉后,甩掉相通的块。

    AI 大牛带队,2 页浓缩版力作

    让咱们从最新论文中深扒一下,AlphaChip 的通盘进修过程。

    值得一提的是,这项研究依旧是由 Jeff Dean 带队,统共中枢身分完全浓缩在了这两页论文中。

    论文地址:https://www.nature.com/ articles / s41586-024-08032-5预进修

    与以往步地不同的是,AlphaChip 是基于一种「强化学习」的步地。

    这意味着,当它处分了更多芯片布局问题的实例时,会变得更好、更快。

    正如 Nature 论文(2021 年),以及 ISPD 2022 后续研究中所计划的那样,这种预进修过程显耀进步了 AI 的速率、可靠性、布局的性能。

    趁机提一句,预进修也能培养出 LLM,像 Gemini、ChatGPT 令东说念主印象长远的才能。

    淫淫网官网

    自此前研究发表以来,谷歌便开源了一个软件库,以重现论文中花式的步地。

    征战者们不错使用这个库,对各式芯片进行预进修,然后将预进修的模子利用到新的块。

    GitHub 地址:https://github.com/ google-research / circuit_training

    基于最新的 AlphaChip 进修过程,研究东说念主员在库中添加了预进修的 20 个 TPU 块模子查验点(checkpoint)。

    彰着,若是不进行任何预进修,AlphaChip 就无法从先前的造就中学习,从而回避了学习方面的问题。

    进修和计算资源

    跟着 RL 智能体(任何 ML 模子)的进入进修,它的耗损每每会冉冉减少。

    最终会趋于安逸,这代表着模子对其正在推行的任务有了尽可能多的了解,对外弘扬便是「管理」。

    从进修到管理,是机器学习的规范作念法。若是不按照这个旅途来,可能会损伤模子的性能。

    AlphaChip 的性能随利用的计算资源而推广,在 ISPD 2022 论文中,谷歌团队曾进一步探讨了这一特色。

    论文地址:https://dl.acm.org/ doi / 10.1145/3505170.3511478

    正如 Nature 论文中所花式的,在对特定块进行微调时,使用了 16 个职责单位,每个单位由 1 个 GPU 和 32 个 RL 环境构成,通过多程度处理分享 10 个 CPU。

    总言之,用较少的计算资源可能会损伤性能,或者需要运行荒谬长的期间,才能竣事相通(或更差)性能。

    启动布局

    在运行 Nature 论文中评估步地之前,团队使用了来自物理轮廓的近似启动布局,以处分 hMETIS 规范单位集群大小拒抗衡的问题。

    RL 智能体无权拜访启动布局,况兼不复杂甩掉规范单位。

    尽管如斯,谷歌作家照旧进行了一项消融研究,排斥了任何启动布局的使用,况兼也莫得不雅察到 AlphaChip 性能着落。

    如下表 1 所示。

    具体来说,他们跳过了单位集群从头均衡的一步,而是将 hMETIS 集群拒抗衡参数镌汰到最低建造(UBfactor = 1)。

    由此,这使得 hMETIS 生成更均衡的集群。

    基准

    在 Nature 论文中,研究东说念主员给与了 10nm 以下制程的 TPU 块进行实验得出的末端。

    这个手艺节点的大小,恰是当代芯片的典型尺寸。之前好多论文敷陈中,给与较早的 45nm、12nm。

    从物理联想角度来看,这种较老的手艺节点尺寸的芯片,有着显耀的不同。

    比如,在 10nm 以下的芯片中,每每使用多重图案联想,这会在较低密度下导致布线拥挤的问题。

    来源:Pushing Multiple Patterning in Sub-10nm: Are We Ready?

    因此,关于较早的手艺节点尺寸,AlphaChip 可能需要调换其奖励函数,以便更好地稳妥手艺。

    瞻望改日:AI 将转换通盘芯片联想历程

    自从 2020 年发布以来,AlphaChip 一经生成了每一代谷歌 TPU 使用的超东说念主芯片布局。

    不错说,恰是因为它,才能使大限度放大基于 Transformer 架构的 AI 模子成为可能。

    不管是在 Gemini 这么的 LLM,照旧 Imagen 和 Veo 这么的图像和视频生成器中,TPU 齐位于谷歌浩大的生成式 AI 系统的中枢。

    另外,这些 AI 加速器也处于谷歌 AI 管事的中枢,外部用户不错通过谷歌云获取管事。

    谷歌数据中心的一瞥 Cloud TPU v5p AI 加速器超算

    如今,谷歌的三代旗舰 TPU 芯片,一经辞宇宙各地的数据中心中制造、部署。

    跟着每一代 TPU 的发展,AlphaChip 和东说念主类内行之间的性能差距束缚扩大。

    从 TPU v5e 中的 10 个 RL 甩掉模块和 3.2% 的布线长度减少,到 TPU v5p 中的 15 个模块和 4.5% 的减少,再到 Trillium 中的 25 个模块和 6.2% 的减少。

    AlphaChip 还为数据中心 CPU(Axion)和谷歌尚未公布的其他芯片,生成了卓绝东说念主类的布局联想。

    而其他公司,也在谷歌研究的基础上进行了转换。

    比如联发科就不仅用 AlphaChip 加速了着手进芯片的征战,还在功耗、性能和面积上对芯片作念了优化。

    如今,AlphaChip 只是是一个脱手。

    谷歌对改日作念出了果敢畅念念:AI 将竣事芯片联想全历程的自动化,通过超东说念主算法以及硬件、软件和机器学习模子的端到端协同优化,芯片联想的周期会显耀加速,还会解锁性能的新范围。

    谷歌示意,相配期待和社区融合,竣事 AI 芯片以及芯片 AI 之间的闭环。

    参考府上:

    https://deepmind.google/discover/blog/how-alphachip-transformed-computer-chip-design/?utm_source=x&utm_medium=social&utm_campaign=&utm_content=

    https://x.com/JeffDean/status/1839308592408834559

    告白声明:文内含有的对外跳转贯穿(包括不限于超贯穿、二维码、口令等步地),用于传递更多信息日本女优在线,检朴甄选期间,末端仅供参考,IT之家统共著作均包含本声明。



    栏目分类