AlphaFold都拿诺奖了,AlphaChip还搁这辟谣呢?
怎么办?谷歌首席科学家Jeff Dean表示:我也写篇论文!
EDA社区一直对我们的AlphaChip方法是否像Nature论文中声称的那样有效持怀疑态度。annadgoldie、Azaliamirh和我写了个论文,来回应这些问题:
论文地址:https://arxiv.org/pdf/2411.10053
Jeff Dean认为,这种毫无根据的怀疑,在很大程度上是由下面这篇文章(「一篇存在严重缺陷的未经同行评审的论文」)导致的:
论文地址:https://arxiv.org/pdf/2302.11014
该论文声称复制了我们的方法,但未能在主要方面遵循: 作者没有进行预训练(尽管在我们的Nature文章中提到了37次预训练 ),剥夺了基于学习的方法从其他芯片设计中学习的能力; 减少了20倍的计算量,并且没有进行收敛训练。 这就像评估一个以前从未见过围棋的AlphaGo,然后得出结论,AlphaGo不太擅长围棋。
Jeff Dean等人还回应了Igor Markov(Synopsys的杰出架构师)在 CACM 2024年11月刊上发表的分析文章。
论文地址:https://cacm.acm.org/research/reevaluating-googles-reinforcement-learning-for-ic-macro-placement/
Jeff Dean表示,Markov发论文时妹说自己是Synopsys的高级员工,——Synopsys是商业EDA软件,而AlphaChip是开源的。
Markov的论文分析中还引用了另一篇没发表的匿名PDF:
https://statmodeling.stat.columbia.edu/wp-content/uploads/2022/05/MLcontra.pdf
这实际上也是Markov写的。
Markov的文章提出了隐晦的指控,所有这些都是完全没有根据的,而且已经被Nature证明过了。 我很惊讶Synopsys想与此扯上关系,我很惊讶CACMmag认为有必要在没有证据的情况下发表这类指控, 除了两篇有缺陷的、未经同行评审的文章之外,没有任何技术数据。
谷歌的回击
话说在arxiv上吃瓜,小编还是第一次。
在Introduction部分,谷歌拉了个时间表:
2020年4月:发布Nature论文的arXiv预印本。 2020年8月:TPU v5e中流片了10个AlphaChip布局。 2021年6月:发表了Nature文章。 2021年9月:在TPU v5p中流片了15个AlphaChip布局。 2022年1月 – 2022年7月:开源了AlphaChip,Google的另一个团队独立复制了Nature论文中的结果。 2022年2月:谷歌内部独立委员会拒绝发表Markov等人的观点,因为数据不支持其主张和结论。 2022年10月:在Trillium(最新的公共TPU)中流片了25个AlphaChip布局。 2023年2月:Cheng等人在arXiv上发帖,声称对我们的方法进行了「大规模重新实现」。 2023年6月:Markov发布了他的「meta-analysis」。 2023年9月:Nature启动了第二次同行评审。 2024年3月:Google Axion处理器(基于ARM的CPU)采用了7个AlphaChip布局。 2024年4月:Nature完成了调查和出版后审查,发现完全对我们有利。 2024年9月:MediaTek高级副总裁宣布扩展AlphaChip以加速其最先进芯片的开发。 2024年11月:Markov重新发表了他的「meta-analysis」。
简单来说,我AlphaChip已经在自家服役这么长时间了,联发科也用了,Nature也调查过了,无懈可击。
而且作为不同的部门,TPU团队需要足够的信任才会使用AlphaChip(优于人类专家、高效且可靠),他们不能承担不必要的风险。
对于反方的Markov,论文评价道:「Markov的大部分批评都是这种形式:在他看来,我们的方法不应该奏效,因此它一定不起作用,任何表明相反的证据都是欺诈。」
说到欺诈这件事,正反方都谈到了内部举报人(whistle-
blower),在Markov的文章中是这样记载的:
论文的两位主要作者抱怨他们的研究中不断出现欺诈指控。2022 年,谷歌解雇了内部举报人,并拒绝批准出版谷歌研究人员撰写的一篇批评Mirhoseini等人的论文,举报人起诉谷歌不当解雇(根据加州举报人保护法)。
而本文表示:这位举报人向谷歌调查员承认,他怀疑这项研究是欺诈性的,但没有证据。
对错误论文的逐条回应
没有预先训练RL方法
与以前的方法不同,AlphaChip是一种基于学习的方法,这意味着它会随着解决更多的芯片放置问题而变得更好、更快。