scipy.special.pseudo_huber#

scipy.special.pseudo_huber(delta, r, out=None) = <ufunc 'pseudo_huber'>#

Pseudo-Huber 損失函數。

\[\mathrm{pseudo\_huber}(\delta, r) = \delta^2 \left( \sqrt{ 1 + \left( \frac{r}{\delta} \right)^2 } - 1 \right)\]
參數:
deltaarray_like

輸入陣列,指示軟性二次與線性損失的變換點。

rarray_like

輸入陣列,可能代表殘差。

outndarray,可選

函數結果的可選輸出陣列

返回:
res純量或 ndarray

計算出的 Pseudo-Huber 損失函數值。

參見

huber

此函數近似的相似函數

註解

如同 huberpseudo_huber 通常作為統計學或機器學習中的穩健損失函數,以減少離群值的影響。與 huber 不同,pseudo_huber 是平滑的。

通常,r 代表殘差,即模型預測與數據之間的差異。那麼,對於 \(|r|\leq\delta\)pseudo_huber 類似於平方誤差,而對於 \(|r|>\delta\) 則類似於絕對誤差。透過這種方式,Pseudo-Huber 損失通常在模型擬合中對於小殘差(如平方誤差損失函數)實現快速收斂,並且仍然減少離群值 (\(|r|>\delta\)) 的影響,如同絕對誤差損失。由於 \(\delta\) 是平方誤差和絕對誤差機制之間的截止點,因此必須針對每個問題仔細調整。pseudo_huber 也是凸函數,使其適用於基於梯度的優化。[1] [2]

在版本 0.15.0 中新增。

參考文獻

[1]

Hartley, Zisserman, “Multiple View Geometry in Computer Vision”. 2003. Cambridge University Press. p. 619

[2]

Charbonnier et al. “Deterministic edge-preserving regularization in computed imaging”. 1997. IEEE Trans. Image Processing. 6 (2): 298 - 311.

範例

導入所有必要的模組。

>>> import numpy as np
>>> from scipy.special import pseudo_huber, huber
>>> import matplotlib.pyplot as plt

計算 delta=1r=2 時的函數值。

>>> pseudo_huber(1., 2.)
1.2360679774997898

透過為 delta 提供列表或 NumPy 陣列,計算 r=2 時不同 delta 的函數值。

>>> pseudo_huber([1., 2., 4.], 3.)
array([2.16227766, 3.21110255, 4.        ])

透過為 r 提供列表或 NumPy 陣列,計算 delta=1 在多個點的函數值。

>>> pseudo_huber(2., np.array([1., 1.5, 3., 4.]))
array([0.47213595, 1.        , 3.21110255, 4.94427191])

可以透過為 deltar 提供具有相容形狀以進行廣播的陣列,來計算不同 deltar 的函數。

>>> r = np.array([1., 2.5, 8., 10.])
>>> deltas = np.array([[1.], [5.], [9.]])
>>> print(r.shape, deltas.shape)
(4,) (3, 1)
>>> pseudo_huber(deltas, r)
array([[ 0.41421356,  1.6925824 ,  7.06225775,  9.04987562],
       [ 0.49509757,  2.95084972, 22.16990566, 30.90169944],
       [ 0.49846624,  3.06693762, 27.37435121, 40.08261642]])

繪製不同 delta 的函數圖。

>>> x = np.linspace(-4, 4, 500)
>>> deltas = [1, 2, 3]
>>> linestyles = ["dashed", "dotted", "dashdot"]
>>> fig, ax = plt.subplots()
>>> combined_plot_parameters = list(zip(deltas, linestyles))
>>> for delta, style in combined_plot_parameters:
...     ax.plot(x, pseudo_huber(delta, x), label=rf"$\delta={delta}$",
...             ls=style)
>>> ax.legend(loc="upper center")
>>> ax.set_xlabel("$x$")
>>> ax.set_title(r"Pseudo-Huber loss function $h_{\delta}(x)$")
>>> ax.set_xlim(-4, 4)
>>> ax.set_ylim(0, 8)
>>> plt.show()
../../_images/scipy-special-pseudo_huber-1_00_00.png

最後,透過繪製 huberpseudo_huber 及其關於 r 的梯度,來說明它們之間的差異。該圖顯示 pseudo_huber 是連續可微分的,而 huber 在點 \(\pm\delta\) 處不是。

>>> def huber_grad(delta, x):
...     grad = np.copy(x)
...     linear_area = np.argwhere(np.abs(x) > delta)
...     grad[linear_area]=delta*np.sign(x[linear_area])
...     return grad
>>> def pseudo_huber_grad(delta, x):
...     return x* (1+(x/delta)**2)**(-0.5)
>>> x=np.linspace(-3, 3, 500)
>>> delta = 1.
>>> fig, ax = plt.subplots(figsize=(7, 7))
>>> ax.plot(x, huber(delta, x), label="Huber", ls="dashed")
>>> ax.plot(x, huber_grad(delta, x), label="Huber Gradient", ls="dashdot")
>>> ax.plot(x, pseudo_huber(delta, x), label="Pseudo-Huber", ls="dotted")
>>> ax.plot(x, pseudo_huber_grad(delta, x), label="Pseudo-Huber Gradient",
...         ls="solid")
>>> ax.legend(loc="upper center")
>>> plt.show()
../../_images/scipy-special-pseudo_huber-1_01_00.png