马尔可夫链固定分布与scipy.sparse?

时间:2014-01-23 12:56:42

标签: python scipy sparse-matrix markov-chains

我将马尔可夫链作为一个大的稀疏scipy矩阵A给出。 (我已经用scipy.sparse.dok_matrix格式构建了矩阵,但转换为其他格式或将其构造为csc_matrix都很好。)

我想知道这个矩阵的任何静态分布p,它是特征值1的特征向量。此特征向量中的所有条目都应为正数,并且加起来为1,以表示概率分布。

这意味着我想要系统的任何解决方案 (A-I) p = 0p.sum()=1(其中I=scipy.sparse.eye(*A.shape)是唯一矩阵),但(A-I)不是完全排名,甚至整个系统也可能不足。另外,可以生成具有否定条目的特征向量,其不能被归一化为有效概率分布。防止p中的否定条目会很好。

  • 使用scipy.sparse.linalg.eigen.eigs不是解决方案: 它不允许指定附加约束。 (如果特征向量包含负数条目,则归一化没有帮助。)此外,它与真实结果有很大差异,有时会出现收敛问题,表现比scipy.linalg.eig差。 (另外,我使用了shift-invert模式,它改善了我想要的特征值的类型,但不是它们的质量。如果我不使用它,它甚至更具有杀伤力,因为我只对一个特定的特征值感兴趣,{{ 1}})。

  • 转换为密集矩阵并使用1不是解决方案:除负输入问题外,矩阵太大。

  • 使用scipy.linalg.eig并不是一个明显的解决方案: 矩阵要么不是正方形(当组合加性约束和特征向量条件时),要么不是满秩(当试图以某种方式单独指定它们时),有时也不是。

有没有一种很好的方法可以使用python以数字方式获得马尔可夫链的静态状态作为稀疏矩阵? 如果有办法获得详尽的清单(也可能是几乎静止的状态),那是值得赞赏的,但并非必要。

4 个答案:

答案 0 :(得分:5)

Google学者可以找到几篇关于可能方法摘要的文章,其中一篇: http://www.ima.umn.edu/preprints/pp1992/932.pdf

以下所做的是@Helge Dietert上面提到的首先拆分为强连接组件的建议,以及上面链接的文章中的#4。

import numpy as np
import time

# NB. Scipy >= 0.14.0 probably required
import scipy
from scipy.sparse.linalg import gmres, spsolve
from scipy.sparse import csgraph
from scipy import sparse 


def markov_stationary_components(P, tol=1e-12):
    """
    Split the chain first to connected components, and solve the
    stationary state for the smallest one
    """
    n = P.shape[0]

    # 0. Drop zero edges
    P = P.tocsr()
    P.eliminate_zeros()

    # 1. Separate to connected components
    n_components, labels = csgraph.connected_components(P, directed=True, connection='strong')

    # The labels also contain decaying components that need to be skipped
    index_sets = []
    for j in range(n_components):
        indices = np.flatnonzero(labels == j)
        other_indices = np.flatnonzero(labels != j)

        Px = P[indices,:][:,other_indices]
        if Px.max() == 0:
            index_sets.append(indices)
    n_components = len(index_sets)

    # 2. Pick the smallest one
    sizes = [indices.size for indices in index_sets]
    min_j = np.argmin(sizes)
    indices = index_sets[min_j]

    print("Solving for component {0}/{1} of size {2}".format(min_j, n_components, indices.size))

    # 3. Solve stationary state for it
    p = np.zeros(n)
    if indices.size == 1:
        # Simple case
        p[indices] = 1
    else:
        p[indices] = markov_stationary_one(P[indices,:][:,indices], tol=tol)

    return p


def markov_stationary_one(P, tol=1e-12, direct=False):
    """
    Solve stationary state of Markov chain by replacing the first
    equation by the normalization condition.
    """
    if P.shape == (1, 1):
        return np.array([1.0])

    n = P.shape[0]
    dP = P - sparse.eye(n)
    A = sparse.vstack([np.ones(n), dP.T[1:,:]])
    rhs = np.zeros((n,))
    rhs[0] = 1

    if direct:
        # Requires that the solution is unique
        return spsolve(A, rhs)
    else:
        # GMRES does not care whether the solution is unique or not, it
        # will pick the first one it finds in the Krylov subspace
        p, info = gmres(A, rhs, tol=tol)
        if info != 0:
            raise RuntimeError("gmres didn't converge")
        return p


def main():
    # Random transition matrix (connected)
    n = 100000
    np.random.seed(1234)
    P = sparse.rand(n, n, 1e-3) + sparse.eye(n)
    P = P + sparse.diags([1, 1], [-1, 1], shape=P.shape)

    # Disconnect several components
    P = P.tolil()
    P[:1000,1000:] = 0
    P[1000:,:1000] = 0

    P[10000:11000,:10000] = 0
    P[10000:11000,11000:] = 0
    P[:10000,10000:11000] = 0
    P[11000:,10000:11000] = 0

    # Normalize
    P = P.tocsr()
    P = P.multiply(sparse.csr_matrix(1/P.sum(1).A))

    print("*** Case 1")
    doit(P)

    print("*** Case 2")
    P = sparse.csr_matrix(np.array([[1.0, 0.0, 0.0, 0.0],
                                    [0.5, 0.5, 0.0, 0.0],
                                    [0.0, 0.0, 0.5, 0.5],
                                    [0.0, 0.0, 0.5, 0.5]]))
    doit(P)

def doit(P):
    assert isinstance(P, sparse.csr_matrix)
    assert np.isfinite(P.data).all()

    print("Construction finished!")

    def check_solution(method):
        print("\n\n-- {0}".format(method.__name__))
        start = time.time()
        p = method(P)
        print("time: {0}".format(time.time() - start))
        print("error: {0}".format(np.linalg.norm(P.T.dot(p) - p)))
        print("min(p)/max(p): {0}, {1}".format(p.min(), p.max()))
        print("sum(p): {0}".format(p.sum()))

    check_solution(markov_stationary_components)


if __name__ == "__main__":
    main()

编辑:发现了一个错误--- csgraph.connected_components也返回纯粹腐烂的组件,需要过滤掉。

答案 1 :(得分:1)

这解决了一个可能未被指定的矩阵方程,因此可以使用scipy.sparse.linalg.lsqr来完成。我不知道如何确保所有条目都是积极的,但除此之外,它非常简单。

import scipy.sparse.linalg
states = A.shape[0]

# I assume that the rows of A sum to 1.
# Therefore, In order to use A as a left multiplication matrix,
# the transposition is necessary.
eigvalmat = (A - scipy.sparse.eye(states)).T
probability_distribution_constraint = scipy.ones((1, states))

lhs = scipy.sparse.vstack(
    (eigvalmat,
     probability_distribution_constraint))

B = numpy.zeros(states+1)
B[-1]=1

r = scipy.sparse.linalg.lsqr(lhs, B)
# r also contains metadata about the approximation process
p = r[0]

答案 2 :(得分:1)

解决固定解决方案不是唯一的问题,解决方案可能不是非负解决方案。

这意味着您的马尔可夫链不是不可简化的,您可以将问题分解为不可约的马尔可夫链。为此,您需要找到马尔可夫链的封闭式通信类,这实际上是对转换图的连通组件的研究(Wikipedia建议使用一些线性算法来查找强连通组件)。此外,你可以通过所有开放的沟通课程,因为每个固定的国家必须消失这些。

如果你有封闭的沟通类C_1,...,C_n,你的问题有希望分成几个简单的小块:每个封闭类C_i上的马尔可夫链现在是不可简化的,因此受限制的转移矩阵M_i只有一个特征向量具有特征值0且该特征向量仅具有正分量(参见Perron-Frobenius定理)。因此,我们只有一个静止状态x_i。

完整马尔可夫链的静止状态现在是封闭类中x_i的所有线性组合。事实上,这些都是静止状态。

为了找到静止状态x_i,你可以连续应用M_i,迭代将收敛到这个状态(这也将保持你的规范化)。一般来说,很难说收敛速度,但它为您提供了一种简单的方法来提高解决方案的准确性并验证解决方案。

答案 3 :(得分:-1)

使用幂迭代(例如):http://www.google.com/search?q=power%20iteration%20markov%20chain

或者,您可以使用scipy.sparse.linalg.eig(即ARPACK)的shift-invert模式来查找接近1的特征值。“指定”规范化不是必需的,因为您可以在以后标准化值