想像一下你是一个973首席科学家,你的课题是用一个牛逼闪闪超级计算机模拟一杯水,看看在里面慢慢拽铁球阻力有多大。你的想法很简单:直接精确模拟每个水分子!
你给电脑里输入了水分子的真实大小(一个参数),形状(比如说用了2000个参数描述)和不同距离的作用力(又用了2000个参数),你的超级计算机很牛,直接模拟了10^26个水分子。然后你把铁球也建了模放了进去,用计算模拟的方法算出了让铁球慢慢前进需要克服的阻力。和实验一比,发现精确吻合!好开心,只要再模拟几回,多攒点数据就可以发nature了!
这时系统管理员给你发email,说你占了太多的cpu时间,别人啥事都干不了。让你想办法把计算量减少一点。
怎么办呢?你想了想,觉得铁球这么大,你不用把模拟搞得这么精细也能得到正确答案。所以你决定把模拟用的水分子体积加10倍,这样就只要模拟10^25个分子了。但是光这样搞不行,得出的结果肯定不对,因为有些纳米级的小运动造成的宏观效果没了。这时你有一个学生说,老板,其实咱可以试着改改另外那4000个参数,说不定能把失去的东西给补偿回来。你觉得靠谱,开动聪明的大脑想了想,心算出了每个参数需要的改变。于是你用更大的分子和新的参数重新计算,精确的再现了之前得到的数据。(注意,这时你已经对你的系统进行了一次 renormalization)
系统管理员觉得你好欺负,又要求你降低占用的资源。
你大手一挥说“这简单,我能把cpu时间降到1/10000000000”,你就把刚才那个增大分子尺寸+调整参数的过程重复了10遍,现在你的分子体积比真实水分子大10^11次方倍,但是你仍然牛逼的算出了和实验精确相符的阻力。
在你的nature 文章里,把为了简化计算发明的这个方法叫Renormalization group (RG)。把每次模拟时水分子的大小叫做RG scale, 然后你把每次用的参数按照水分子的大小列了个表,把它们在尺寸增加时的变化,叫做参数的RG running。你把用这种方法得到的这个新模型,叫做low energy effective theory (EFT).
最后,你有点惊讶的发现,当你一步步增大水分子尺寸时,本来都很关键的4000个参数,有些干脆变成0了,有些参数和其它的参数成正比了。总之到最后,你只用了大概10个自由参数就完美的描述了这一杯水。你把那些最后没用的参数叫irrelevant parameters,把它们描述的形状/作用力叫irrelevant operator. 你把这些irrelevant parameter/operator 都去掉,得到的那个精简的理论模型就叫做renormalizable theory。它和你之前得到的EFT几乎是一样的。
这时,系统管理员又来欺负你,说你能不能就模拟两个水分子,这样他就可以用超算玩游戏了。但是这回你两手一摊,说哥们这真不行,如果我的水分子选的比我的铁球还大,那无论怎么调参数,我的计算肯定失败,下一篇science就发不出来了!(在水分子的例子里,RG scale不应当接近铁球的尺寸,在真正的场论里,有技术可以允许把RG scale选择的和物理过程的尺寸相当。但是在任何情况下,RG scale都不应该比物理过程的尺寸更长。)
而且,重整化了很多次之后,似乎你得到的这个的系统越来越不像一个个水分子。那它像什么呢?你发现剩下的那几个参数里,其中一个的计算值和实验测出来的密度一样,其中一个和温度一样,另一个和压强一样,等等。也就是说这个系统经过了多次重整化之后变得更像一杯连续流体而不是很多小分子。这个现象也非常普遍,因为自然界中不同尺度的现象本来就是很不一样的。你于是在文章中指出重整化可以用来研究不同尺度的规律之间的联系和转变。
-------
吐个槽,“重整化群”真是物理名词界的一朵奇葩,把一个本来平易近人的词翻译的不明觉厉。这个词英文是 renormalization group(RG). Normalize 大家都认得,基本意思是给一个变量乘个常数,让它更符合一些简单要求。比如几何里说 normalized vector, 就是说改变了一个矢量的定义,让它的长度等于一. re-normalize 就是不断的 normalize. group 这里是泛指变换,不指数学上严格的群。renormalization group 的字面意思就是“不断重新定义参数的一组变换”。
-------
警告!前方有大量物理名词出没!!
重整化群在物理中有很多深远的影响。标准模型是我们描述粒子物理的基本理论,它是一个renormalizable theory. 从RG的角度看,它就相当于我们在上面把尺度扩大的10^10得到的effective theory。也就是说,真正的基本理论埋藏在比标准模型小的多的尺度。标准模型的尺度是多少呢?是10^-18米。所以终极理论描述的过程要比这个还小的多。我们离终极理论还很远很远。
现在想象,如果你的计算机无限强大,你能模拟无限大的一杯水。(现在不考虑铁球了)你不断的重复上面的这个RG过程,最后会怎么样呢?很可能,最后当你增大分子体积的时候,你发现系统的所有参数都不再需要变化了!这时,你就说你的系统有了scale symmetry,尺度不变性。你把这个尺度不变的模型叫一个不动点。后来你发现,可以乱改最初的那个精确分子模型的参数,但大部分情况下,经过很多轮RG running,它还是跑到了同一个不动点。你就说所有这样的微观理论都属于同一个universality class. 有时系统也会跑到另一个不动点。所以你发现RG对输入的微观系统实现了一个分类。这个和机器学习很像。(如何理解“深度学习和重整化群可以建立严格映射”,这一结论对领域有何影响? - 物理学) 两个非常不一样的系统宏观上行为可以是完全相似的(属于同一个universality class)。比如在三相点的水,和在相变临界态的铁磁体就可能属于同一个universality class。在物理体系里,这个分类和相变的对称性破缺有关。
-------
@Alex Huang 问了一个很好的问题:重整化群对什么样的系统是有效的?也就是说,什么情况下这个办法能有效的简化模型,降低计算量?
重整化群有效本质原因是不同尺度的过程之间往往有一种相对的独立性。如果你的系统是这样的,那重整化群的方法会给你有用的结果。
想像一下你站在一艘长200米的大轮船上,波长一米的小浪你能感觉到吗?即使同样的浪高,如果波长变成200米,这浪就能让船晃起来,让你晕的不行。所以,短距离的过程(波长一米的浪)对长距离的过程(大船的行驶)基本影响不大,最多可能就是改变了大船遇到的阻力。所以如果我们在模拟时可以不直接再现这种短距离过程,只要改变一些长距离的参数(行船的阻力)把它们的影响合适的加进去,就仍然可以精确的模拟系统长距离上的行为。当然在更复杂的问题里,你需要用计算的方法得出每一个参数随RG scale的变化,这样你自然能算出最终那些参数是重要的。
-------
最后,我在这里故意回避了量子场论,牺牲了一些技术细节,是想让非物理专业的读者对重整化的概念和操作有一个直观的认识。本文的目的是让读者以后能想起来用RG的思路解决问题。以上对RG的理解是上世纪量子场论的重大进步之一,后来也被用于描述其它物理体系。主要的推动者是前年去世的 Kenneth G. Wilson, 这个理解方式也被叫做Wilsonian RG。基于这个想法,Wilson同时也提出了用离散格点模拟量子场论的办法,这个方法今天叫lattice QCD, 需要用到目前世界上最好的超级计算机,和本文中水分子模拟也有更多直接对应的地方。我昨天听说,lattice qcd终于被发展到可以从第一原理出发,精确的计算质子和中子的质量差。(这也是当下唯一的办法。) Wilson泉下有知,也可以安心了!本小弱特以此文向Wilson和做lattice qcd的猛士们致敬。