2744557306 发表于 2025-1-23 19:06

实现Logistic回归模型学习的梯度下降法

在实现Logistic回归模型的学习过程中,梯度下降法是一种常用的优化算法。Logistic回归用于二分类问题,通过使用sigmoid函数来预测样本属于某一类的概率。以下是如何用Python实现Logistic回归,并使用梯度下降法来学习模型参数

### Logistic 回归原理

1. **Sigmoid 函数**:
   \[
   \sigma(z) = \frac{1}{1 + e^{-z}}
   \]
   这个函数将任何实数映射到(0, 1)区间,用于计算预测概率。

2. **损失函数**:
   Logistic回归的损失函数是对数损失函数(Log Loss):
   \[
   J(\theta) = -\frac{1}{m} \sum_{i=1}^{m}
   \]
   其中 \( h_\theta(x) = \sigma(\theta^T x) \)。

3. **梯度下降法**:
   梯度下降更新参数的公式为:
   \[
   \theta := \theta - \alpha \nabla J(\theta)
   \]
   其中,\(\alpha\)是学习率,\(\nabla J(\theta)\)是损失函数的梯度。




页: [1]
查看完整版本: 实现Logistic回归模型学习的梯度下降法