现阶段用处不大,但是利用这个方向,整合方法学的数据,是极有必要的。
//吐槽一下: 没用是因为化学合成的决速步从来就不在设计上…我花一周设计一个路线,还不是要一年去做实验么?缩短到5秒钟设计有蛋用…//
文章作者自己说了一些缺点: 如无法很好地逆合成分析复杂天然产物,不能预测ee值,甚至连diastereoselectivity也不能很好判断。
但是我个人认为其实有个很伤感情的话作者没说,也就是这个程序归根到底还是只是个高级的搜索程序,没法设计新的反应,更不能预测新反应的选择性和收率。这也是其局限所在。
深入做过方法学的同僚会很清楚这个trick,将官能团A转变成B可能有10种方法,有的方法可以用于100+底物,收率20-90%不等,有的可能只适用于10种底物,收率>95%。
这时,你面对一个全新结构,要把其上的官能团A变成B,就是考验你经验和直觉的时候了。机器这时候需要的是把所有可能的方法都罗列出来,而不是武断的基于某个算法打个分,来个推荐。道理上可行,实际上不行,道理上不行,结果却行的例子简直太多了,实验做多了,脸
更进一步就是不对称化学了,被玄学配体支配的恐怖只有玩过才会懂,这不是逆合成分析AI目前能涉足的。未来可能会出现针对某一类特殊体系的不对称的AI,通用型暂时不看好。
偶联反应类似,金属,溶剂,配体,碱,添加剂,温度的选择,将极大影响反应的区域选择性和收率,除非有一模一样的反应,否则此版本AI万无可能预测精准。
那为什么说对整合数据很有必要呢?
因为现阶段方法学蓬勃发展,新方法层出不穷,化学家靠纸笔和经验的时代已经过去了。要用别人的最新成果,好的搜索和推荐工具必不可少。
这也对方法学工作者的数据质量提出了更高的要求,毕竟所有分析都是基于这些实验数据,如果实验数据不可靠,或者不完整,基于此做的预测自然不正确,害人害己。
而随着算法的发展,会指出哪些实验有必要做,从而指导标准化学实验数据库的建立,这是功德无量的大工程。如果成功,地位应当不会低于Gaussian程序,炸药奖可期。