scipy.sparse.linalg.
cgs#
- scipy.sparse.linalg.cgs(A, b, x0=None, *, rtol=1e-05, atol=0.0, maxiter=None, M=None, callback=None)[source]#
使用共軛梯度平方迭代法求解
Ax = b
。- 參數:
- A{稀疏陣列, ndarray, LinearOperator}
線性系統的實值 N 乘 N 矩陣。或者,A 可以是一個線性算符,它可以使用例如
scipy.sparse.linalg.LinearOperator
來產生Ax
。- bndarray
線性系統的右側。形狀為 (N,) 或 (N,1)。
- x0ndarray
解的起始猜測值。
- rtol, atolfloat, optional
收斂性測試的參數。為了收斂,應該滿足
norm(b - A @ x) <= max(rtol*norm(b), atol)
。預設值為atol=0.
和rtol=1e-5
。- maxiterinteger
最大迭代次數。即使尚未達到指定的容忍度,迭代也會在 maxiter 步後停止。
- M{稀疏陣列, ndarray, LinearOperator}
A
的預處理器。它應該近似於 A 的逆矩陣(請參閱「Notes」)。有效的預處理可以顯著提高收斂速度,這意味著達到給定的誤差容忍度所需的迭代次數更少。- callbackfunction
使用者提供的函數,在每次迭代後調用。它被調用為
callback(xk)
,其中xk
是目前的解向量。
- 返回值:
- xndarray
收斂的解。
- infointeger
- 提供收斂資訊
0 : 成功退出 >0 : 未達到容忍度收斂,迭代次數 <0 : 參數崩潰
註解
預處理器 M 應該是一個矩陣,使得
M @ A
的條件數小於 A,請參閱 [1]。參考文獻
[1]“預處理器”, 維基百科, https://en.wikipedia.org/wiki/Preconditioner
[2]“共軛梯度平方”, 維基百科, https://en.wikipedia.org/wiki/Conjugate_gradient_squared_method
範例
>>> import numpy as np >>> from scipy.sparse import csc_array >>> from scipy.sparse.linalg import cgs >>> R = np.array([[4, 2, 0, 1], ... [3, 0, 0, 2], ... [0, 1, 1, 1], ... [0, 2, 1, 0]]) >>> A = csc_array(R) >>> b = np.array([-1, -0.5, -1, 2]) >>> x, exit_code = cgs(A, b) >>> print(exit_code) # 0 indicates successful convergence 0 >>> np.allclose(A.dot(x), b) True