(рдУрд╡рд░рдлрд┐рдЯрд┐рдВрдЧ, рдЕрдВрдбрд░рдлрд┐рдЯрд┐рдВрдЧ рдФрд░ рд░реЗрдЧреНрдпреБрд▓рд░рд╛рдЗрдЬреЗрд╢рди)
ЁЯФ╢ 1. Underfitting рдХреНрдпрд╛ рд╣реИ?
ЁЯУМ рдкрд░рд┐рднрд╛рд╖рд╛:
Underfitting рддрдм рд╣реЛрддрд╛ рд╣реИ рдЬрдм model training data рдХреЛ рднреА рд╕рд╣реА рд╕реЗ рдирд╣реАрдВ рд╕реАрдЦ рдкрд╛рддрд╛ред
ЁЯФН рд╕рдВрдХреЗрдд:
- High training loss
- Low accuracy (train & test рджреЛрдиреЛрдВ рдкрд░)
- Model simple рд╣реИ рдпрд╛ data complex
ЁЯза рдХрд╛рд░рдг:
- Model рдмрд╣реБрдд рдЫреЛрдЯрд╛ рд╣реИ
- рдХрдо training epochs
- Features рдЕрдЪреНрдЫреЗ рд╕реЗ represent рдирд╣реАрдВ рдХрд┐рдП рдЧрдП
ЁЯФ╢ 2. Overfitting рдХреНрдпрд╛ рд╣реИ?
ЁЯУМ рдкрд░рд┐рднрд╛рд╖рд╛:
Overfitting рддрдм рд╣реЛрддрд╛ рд╣реИ рдЬрдм model training data рдХреЛ рдмрд╣реБрдд рдЕрдЪреНрдЫреЗ рд╕реЗ рдпрд╛рдж рдХрд░ рд▓реЗрддрд╛ рд╣реИ, рд▓реЗрдХрд┐рди test data рдкрд░ fail рд╣реЛ рдЬрд╛рддрд╛ рд╣реИред
ЁЯФН рд╕рдВрдХреЗрдд:
- Training loss рдмрд╣реБрдд low
- Test loss рдмрд╣реБрдд high
- Accuracy train рдкрд░ high, test рдкрд░ low
ЁЯза рдХрд╛рд░рдг:
- Model рдмрд╣реБрдд complex рд╣реИ (рдмрд╣реБрдд рд╕рд╛рд░реЗ parameters)
- рдХрдо data
- рдЬрд╝реНрдпрд╛рджрд╛ epochs
- Noise рдХреЛ рднреА рд╕реАрдЦ рд▓рд┐рдпрд╛ model рдиреЗ
ЁЯУИ Summary Table:
| Type | Train Accuracy | Test Accuracy | Error |
|---|---|---|---|
| Underfitting | Low | Low | High Bias |
| Overfitting | High | Low | High Variance |
| Just Right | High | High | Low Bias & Variance |
ЁЯФз 3. Regularization Techniques
ЁЯФ╖ Purpose:
Regularization techniques model рдХреЛ generalize рдХрд░рдиреЗ рдореЗрдВ рдорджрдж рдХрд░рддреЗ рд╣реИрдВ тАФ рдпрд╛рдиреА unseen (test) data рдкрд░ рдмреЗрд╣рддрд░ perform рдХрд░рдирд╛ред
ЁЯУМ Common Regularization Methods:
тЬЕ A. L1 & L2 Regularization:
optimizer = torch.optim.SGD(model.parameters(), lr=0.01, weight_decay=0.001) # L2
тЬЕ B. Dropout:
- рдХреБрдЫ neurons рдХреЛ randomly deactivate рдХрд░ рджрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИ training рдХреЗ рджреМрд░рд╛рди
- рдЗрд╕рд╕реЗ model рд╕рднреА features рдкрд░ рдЬрд╝рд░реВрд░рдд рд╕реЗ рдЬрд╝реНрдпрд╛рджрд╛ рдирд┐рд░реНрднрд░ рдирд╣реАрдВ рдХрд░рддрд╛
nn.Dropout(p=0.5)
тЬЕ C. Early Stopping:
- рдЬреИрд╕реЗ рд╣реА validation loss рдмрдврд╝рдирд╛ рд╢реБрд░реВ рд╣реЛ рдЬрд╛рдП тАФ training рд░реЛрдХ рджреА рдЬрд╛рддреА рд╣реИ
- рдЗрд╕рд╕реЗ overfitting рд░реЛрдХрд╛ рдЬрд╛рддрд╛ рд╣реИ
тЬЕ D. Data Augmentation:
- Image, text, рдпрд╛ audio data рдХреЛ рдереЛрдбрд╝рд╛ modify рдХрд░рдХреЗ training set рдХреЛ рдмрдбрд╝рд╛ рдмрдирд╛рдирд╛
- рдЗрд╕рд╕реЗ model рдХреЛ general patterns рд╕реАрдЦрдиреЗ рдореЗрдВ рдорджрдж рдорд┐рд▓рддреА рд╣реИ
тЬЕ E. Batch Normalization:
nn.BatchNorm1d(num_features)
ЁЯФБ PyTorch Example with Dropout:
import torch.nn as nn
model = nn.Sequential(
nn.Linear(100, 50),
nn.ReLU(),
nn.Dropout(p=0.5),
nn.Linear(50, 10)
)
ЁЯза Diagnostic Plot:
| Epochs тЖТ | ЁЯУЙ Train Loss | ЁЯУИ Test Loss |
|---|---|---|
| 1тАУ5 | High тЖТ Low | High тЖТ Low |
| 6тАУ20 | Low | Starts rising тЖТ Overfitting starts |
ЁЯОп Summary:
| Concept | Definition | Solution |
|---|---|---|
| Underfitting | Model рдХрдо рд╕реАрдЦрддрд╛ рд╣реИ | Bigger model, more training |
| Overfitting | Model рдмрд╣реБрдд рдЬрд╝реНрдпрд╛рджрд╛ рд╕реАрдЦ рд▓реЗрддрд╛ рд╣реИ | Regularization |
| Regularization | Generalization рд╕реБрдзрд╛рд░рдиреЗ рдХреА рддрдХрдиреАрдХ | Dropout, L2, Data Augmentation |
ЁЯУЭ Practice Questions:
- Underfitting рдФрд░ Overfitting рдореЗрдВ рдХреНрдпрд╛ рдЕрдВрддрд░ рд╣реИ?
- Dropout рдХреИрд╕реЗ рдХрд╛рдо рдХрд░рддрд╛ рд╣реИ?
- L2 Regularization рдХрд╛ loss function рдореЗрдВ рдХреНрдпрд╛ рдпреЛрдЧрджрд╛рди рд╣реИ?
- Early stopping рдХреНрдпреЛрдВ рдХрд╛рдо рдХрд░рддрд╛ рд╣реИ?
- Data augmentation overfitting рд╕реЗ рдХреИрд╕реЗ рдмрдЪрд╛рддрд╛ рд╣реИ?










