(рд╣рд╛рдирд┐ рдлрд▓рди рдФрд░ рдЕрдиреБрдХреВрд▓рди рд╡рд┐рдзрд┐рдпрд╛рдБ)
ЁЯФ╖ 1. Loss Function (рд╣рд╛рдирд┐ рдлрд▓рди) рдХреНрдпрд╛ рд╣реИ?
Loss function рдпрд╣ рдорд╛рдкрддрд╛ рд╣реИ рдХрд┐ рдЖрдкрдХреЗ рдореЙрдбрд▓ рдХреА prediction рдЕрд╕рд▓реА output рд╕реЗ рдХрд┐рддрдиреА рджреВрд░ рд╣реИред
ЁЯФБ Role in Training:
- Prediction тЖТ Loss Function тЖТ Error тЖТ Backpropagation тЖТ Weight Update
ЁЯУМ рдХрд╛рд░реНрдп:
| Step | рдХрд╛рд░реНрдп |
|---|---|
| Prediction | Output generate рдХрд░рдирд╛ |
| Loss | рдЧрд▓рддреА рдорд╛рдкрдирд╛ |
| Backpropagation | Gradient рдирд┐рдХрд╛рд▓рдирд╛ |
| Optimizer | Weights update рдХрд░рдирд╛ |
ЁЯФ╣ 2. Loss Function рдХреЗ рдкреНрд░рдХрд╛рд░
ЁЯФ╕ A. Regression Problems рдХреЗ рд▓рд┐рдП:
тЬЕ Mean Squared Error (MSE):

- Continuous values рдХреЗ рд▓рд┐рдП
- Output рдХреЛ penalize рдХрд░рддрд╛ рд╣реИ рдЕрдЧрд░ prediction рдФрд░ label рдХрд╛ рдЕрдВрддрд░ рдмрдбрд╝рд╛ рд╣реЛ
тЬЕ Mean Absolute Error (MAE):

- Outliers рд╕реЗ рдХрдо рдкреНрд░рднрд╛рд╡рд┐рдд
ЁЯФ╕ B. Classification Problems рдХреЗ рд▓рд┐рдП:
тЬЕ Binary Cross Entropy:
L=тИТ[ylogтБб(p)+(1тИТy)logтБб(1тИТp)]
- Binary classification рдХреЗ рд▓рд┐рдП
- Sigmoid + BCELoss
тЬЕ Categorical Cross Entropy:

- Multi-class classification
- Softmax + CrossEntropyLoss
ЁЯТ╗ PyTorch Examples:
import torch
import torch.nn as nn
# MSE Loss
mse_loss = nn.MSELoss()
pred = torch.tensor([2.5])
target = torch.tensor([3.0])
print("MSE:", mse_loss(pred, target).item())
# Binary Cross Entropy
bce_loss = nn.BCELoss()
pred = torch.tensor([0.9])
target = torch.tensor([1.0])
print("BCE:", bce_loss(pred, target).item())
ЁЯФз 3. Optimization (рдЕрдиреБрдХреВрд▓рди)
Optimizer рд╡рд╣ algorithm рд╣реИ рдЬреЛ model рдХреЗ weights рдХреЛ loss minimize рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП update рдХрд░рддрд╛ рд╣реИред
ЁЯФ╕ 4. Common Optimization Algorithms
| Optimizer | Description |
|---|---|
| SGD | Simple gradient descent |
| Momentum | Adds momentum to SGD updates |
| RMSProp | Adaptive learning rate, good for RNN |
| Adam | Adaptive + Momentum = Most widely used |
ЁЯФБ Gradient Descent Update Rule:

рдЬрд╣рд╛рдБ:
- ╬╖: Learning rate
- тИВL/тИВw: Gradient of loss w.r.t. weights
тЪая╕П Learning Rate рдХреА рднреВрдорд┐рдХрд╛:
| Learning Rate | рдкрд░рд┐рдгрд╛рдо |
|---|---|
| рдмрд╣реБрдд рдЫреЛрдЯрд╛ | Slow training |
| рдмрд╣реБрдд рдмрдбрд╝рд╛ | Overshooting, unstable |
| рд╕рд╣реА | Fast & stable convergence |
ЁЯТ╗ PyTorch рдореЗрдВ Optimizer:
import torch.optim as optim
model = torch.nn.Linear(1, 1)
optimizer = optim.Adam(model.parameters(), lr=0.01)
# Example training step:
loss = torch.tensor(0.5, requires_grad=True)
loss.backward()
optimizer.step()
optimizer.zero_grad()
ЁЯОп Objectives Summary
- Loss function prediction error рдХреЛ рдорд╛рдкрддрд╛ рд╣реИ
- Optimizers gradients рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░ weights рдХреЛ update рдХрд░рддреЗ рд╣реИрдВ
- PyTorch рдореЗрдВ loss + optimizer combo рд╕рдмрд╕реЗ рдЬрд░реВрд░реА рд╕реЗрдЯрдЕрдк рд╣реИ
ЁЯУЭ рдЕрднреНрдпрд╛рд╕ рдкреНрд░рд╢реНрди (Practice Questions)
- Loss Function рдФрд░ Optimizer рдореЗрдВ рдХреНрдпрд╛ рдЕрдВрддрд░ рд╣реИ?
- MSE рдФрд░ MAE рдореЗрдВ рдХреНрдпрд╛ рдЕрдВрддрд░ рд╣реИ?
- Binary Cross-Entropy рдХрд╛ рдлреЙрд░реНрдореВрд▓рд╛ рд▓рд┐рдЦрд┐рдП
- Adam Optimizer рдХреИрд╕реЗ рдХрд╛рдо рдХрд░рддрд╛ рд╣реИ?
- рдиреАрдЪреЗ рджрд┐рдП рдЧрдП рдХреЛрдб рдХрд╛ output рдХреНрдпрд╛ рд╣реЛрдЧрд╛?
loss = torch.tensor(1.0, requires_grad=True) loss.backward() print(loss.grad)











