化学科学如何从 AI 中受益?

  • 化学科学
  • AI
  • 语言模型
佚名 04/10

化学、生物学和医学领域的研究人员越来越多地转向 AI 模型来开发新的假设。然而,算法在何种基础上得出结论以及在多大程度上可以推广,往往是不清楚的。波恩大学的一份出版物现在警告说,在处理人工智能时存在误解。同时,它强调了研究人员最有可能对模型有信心的条件。该研究现已发表在《细胞报告物理科学》杂志上。

自然科学中的 AI 模型:- 从解释预测到捕获因果关系。Jürgen Bajorath/波恩大学

自适应机器学习算法非常强大。然而,它们有一个缺点:机器学习模型如何得出预测通常从外部并不明显。

假设你用几千辆汽车的照片给人工智能。如果您现在用新图像呈现它,它通常可以可靠地识别该图片是否也显示了汽车。但这是为什么呢?真的学会了汽车有四个轮子、一个挡风玻璃和一个排气管吗?或者它的决定是基于实际上无关紧要的标准——比如屋顶上的天线?如果是这种情况,它也可以将收音机归类为汽车。

AI 模型是黑匣子

“AI 模型是黑匣子,”Jürgen Bajorath 教授强调说。“因此,人们不应该盲目相信他们的结果并从中得出结论。”这位计算化学专家是 Lamarr 机器学习和人工智能研究所生命科学 AI 部门的负责人。他还负责波恩大学波恩-亚琛国际信息技术中心 (b-it) 的生命科学信息学项目。在当前的出版物中,他调查了何时最有可能依赖这些算法的问题。反之亦然:当不是。

“可解释性”的概念在这种情况下起着重要作用。打个比方,这是指 AI 研究中在黑匣子中钻一个窥视孔的努力。该算法应揭示它用作基础的标准 – 四个轮子或天线。“打开黑匣子目前是 AI 研究的一个中心话题,”Bajorath 说。“一些 AI 模型是专门开发的,以使其他模型的结果更易于理解。”

然而,可解释性只是一个方面——从模型选择的决策标准中可以得出哪些结论的问题同样重要。如果算法表明它已根据天线做出决定,则人类会立即知道此功能不适合识别汽车。尽管如此,自适应模型通常用于识别人类甚至可能没有注意到的大型数据集中的相关性。那么我们就像不知道是什么造就了汽车的外星人:外星人无法说天线是否是一个好的标准。

化学语言模型建议新化合物

“在科学中使用 AI 程序时,我们总是必须问自己另一个问题,”Bajorath 强调说,他也是跨学科研究领域 (TRA) “建模”的成员:“结果的可解释性如何?化学语言模型目前是化学和制药研究的热门话题。例如,可以用许多具有一定生物活性的分子来喂养它们。然后,根据这些输入数据,模型会学习并理想地建议一个同样具有这种活性但具有新结构的新分子。这也称为生成建模。但是,该模型通常无法解释为什么会使用这种解决方案。随后通常需要应用可解释的 AI 方法。

尽管如此,Bajorath 警告不要过度解释这些解释,即预测 AI 认为重要的特征确实会导致所需的活动。“目前的 AI 模型基本上对化学一无所知,”他说。“它们本质上是纯粹的统计和相关性,并注意任何显着特征,无论这些特征是否具有化学或生物学相关性。”尽管如此,他们的评估甚至可能是正确的——所以也许建议的分子具有所需的能力。然而,其原因可能与我们根据化学知识或直觉所期望的完全不同。为了评估驱动预测的特征与相应自然过程的结果之间的潜在因果关系,通常需要进行实验:研究人员必须合成和测试分子,以及具有 AI 认为重要的结构基序的其他分子。

合理性检查很重要

此类测试既耗时又昂贵。因此,Bajorath 警告不要在寻找科学上合理的因果关系时过度解释 AI 结果。在他看来,基于合理的科学原理的合理性检查至关重要:可解释的人工智能所建议的特征真的可以负责所需的化学或生物特性吗?值得追求 AI 的建议吗?或者它可能是一个伪影,一个随机识别的相关性,例如汽车天线,它与实际功能完全无关?

这位科学家强调,从根本上说,自适应算法的使用有可能大大推进许多科学领域的研究。然而,我们必须意识到这些方法的优点——尤其是它们的缺点。

【免责声明】发布内容来源于互联网、业内人士投稿以及微信公众号等公开资源,我们对文中观点持中立态度,文中观点不代表本平台的立场。所有文章仅供读者参考和交流使用。转载的文章版权归原作者所有,如有侵权行为,请及时与我们联系以便删除。

<END>