我知道如何使用 Python 通过最小二乘法求解 A.X = B:
示例:
A=[[1,1,1,1],[1,1,1,1],[1,1,1,1],[1,1,1,1],[1,1,0,0]]
B=[1,1,1,1,1]
X=numpy.linalg.lstsq(A, B)
print X[0]
# [ 5.00000000e-01 5.00000000e-01 -1.66533454e-16 -1.11022302e-16]
但是如果权重矩阵不是恒等矩阵来求解相同的方程呢:
A.X = B (W)
示例:
A=[[1,1,1,1],[1,1,1,1],[1,1,1,1],[1,1,1,1],[1,1,0,0]]
B=[1,1,1,1,1]
W=[1,2,3,4,5]
我找到了另一种方法(使用 W 作为对角矩阵和矩阵乘积):
A=[[1,1,1,1],[1,1,1,1],[1,1,1,1],[1,1,1,1],[1,1,0,0]]
B = [1,1,1,1,1]
W = [1,2,3,4,5]
W = np.sqrt(np.diag(W))
Aw = np.dot(W,A)
Bw = np.dot(B,W)
X = np.linalg.lstsq(Aw, Bw)
相同的值和相同的结果。
我不知道你是如何定义你的权重的,但如果合适的话你可以尝试一下:
import numpy as np
A=np.array([[1,1,1,1],[1,1,1,1],[1,1,1,1],[1,1,1,1],[1,1,0,0]])
B = np.array([1,1,1,1,1])
W = np.array([1,2,3,4,5])
Aw = A * np.sqrt(W[:,np.newaxis])
Bw = B * np.sqrt(W)
X = np.linalg.lstsq(Aw, Bw)
scikit 包直接提供加权回归.. https://scikit-learn.org/stable/modules/ generated/sklearn.linear_model.LinearRegression.html#sklearn.linear_model.LinearRegression.fit
import numpy as np
# generate random data
N = 25
xp = [-5.0, 5.0]
x = np.random.uniform(xp[0],xp[1],(N,1))
e = 2*np.random.randn(N,1)
y = 2*x+e
w = np.ones(N)
# make the 3rd one outlier
y[2] += 30.0
w[2] = 0.0
from sklearn.linear_model import LinearRegression
# fit WLS using sample_weights
WLS = LinearRegression()
WLS.fit(x, y, sample_weight=w)
from matplotlib import pyplot as plt
plt.plot(x,y, '.')
plt.plot(xp, xp*WLS.coef_[0])
plt.show()
最简单的实现:
def lstsq_weighted(A, B, W):
w = np.sqrt(W)
return np.linalg.lstsq(A * w.reshape(len(A), 1), B * w)
它使用逐元素乘法 (
*
) 来避免更昂贵的 .dot
和 .diag
。