概率建模是现代机器学习和人工智能的基础之一。文中提出了一种新的概率模型:隐依存森林模型。隐依存森林模型用森林的结构来建模随机变量之间的关系,并且这个森林的结构可以随着变量取值的不同而做出相应的改变。因此,隐依存森林模型能够建模上下文相关的独立性。我们使用一阶依存文法来参数化隐依存森林模型。隐依存森林模型的学习可以被构建为一个存粹的参数学习问题,从而避免了复杂的结构学习问题。在我们测试的九个数据集上,隐依存森林模型在大部分数据集中取得了最好的效果。