(рдкрд░рд╕реЗрдкреНрдЯреНрд░реЙрди рдФрд░ рдорд▓реНрдЯреА-рд▓реЗрдпрд░ рдкрд░рд╕реЗрдкреНрдЯреНрд░реЙрди)
ЁЯФ╖ 1. Perceptron: Single-layer Neural Unit
тЮд рдкрд░рд┐рднрд╛рд╖рд╛:
Perceptron рдПрдХ single-layer feedforward neural network рд╣реИ рдЬреЛ binary classification рдХрд░рдиреЗ рдореЗрдВ рд╕рдХреНрд╖рдо рд╣реЛрддрд╛ рд╣реИред
ЁЯзо рдЧрдгрд┐рддреАрдп рд░реВрдк:

ЁЯУМ рд╡рд┐рд╢реЗрд╖рддрд╛рдПрдБ:
рдЧреБрдг | рд╡рд┐рд╡рд░рдг |
---|---|
Structure | рдПрдХ рд╣реА layer (input рд╕реЗ output) |
Use | Linear binary classification |
Limitation | Non-linear problems (рдЬреИрд╕реЗ XOR) solve рдирд╣реАрдВ рдХрд░ рд╕рдХрддрд╛ |
ЁЯФБ Simple Diagram:

ЁЯФ╢ 2. MLP: Multi-layer Perceptron
тЮд рдкрд░рд┐рднрд╛рд╖рд╛:
MLP рдПрдХ feedforward artificial neural network рд╣реИ рдЬрд┐рд╕рдореЗрдВ рдПрдХ рдпрд╛ рдЕрдзрд┐рдХ hidden layers рд╣реЛрддреЗ рд╣реИрдВред
ЁЯПЧя╕П рд╕рдВрд░рдЪрдирд╛:
Input тЖТ Hidden Layer(s) тЖТ Output
(рд╣рд░ layer рдореЗрдВ neurons рд╣реЛрддреЗ рд╣реИрдВ, рдФрд░ рд╣рд░ neuron activation function apply рдХрд░рддрд╛ рд╣реИ)
ЁЯУМ рд╡рд┐рд╢реЗрд╖рддрд╛рдПрдБ:
рдЧреБрдг | рд╡рд┐рд╡рд░рдг |
---|---|
Structure | 2+ layers (input, hidden, output) |
Use | Complex, non-linear problems |
Training | Backpropagation + Gradient Descent |
Activation | ReLU, sigmoid, tanh, softmax |
ЁЯФБ MLP Diagram (Structure):

ЁЯТ╗ PyTorch рдореЗрдВ рдПрдХ рд╕рд░рд▓ MLP рдХреЛрдб:
import torch.nn as nn
class MLP(nn.Module):
def __init__(self):
super(MLP, self).__init__()
self.net = nn.Sequential(
nn.Linear(3, 5), # Input layer тЖТ Hidden
nn.ReLU(),
nn.Linear(5, 1), # Hidden тЖТ Output
nn.Sigmoid()
)
def forward(self, x):
return self.net(x)
ЁЯФД рддреБрд▓рдирд╛ рддрд╛рд▓рд┐рдХрд╛: Perceptron vs MLP
рд╡рд┐рд╢реЗрд╖рддрд╛ | Perceptron | MLP |
---|---|---|
Layers | Single | Multiple (hidden included) |
Activation | Step/Sigmoid | ReLU, Sigmoid, Tanh, Softmax |
Data Handling | рдХреЗрд╡рд▓ linearly separable | Complex, non-linear data |
Learning | Simple weight update | Backpropagation algorithm |
ЁЯОп Learning Summary:
- Perceptron рдПрдХ рд╕рдмрд╕реЗ рд╕рд░рд▓ Neural Network рд╣реИред
- MLP рдореЗрдВ Hidden layers рд╣реЛрдиреЗ рд╕реЗ рдпрд╣ complex pattern рд╕реАрдЦ рд╕рдХрддрд╛ рд╣реИред
- Deep Learning рдореЗрдВ MLP рд╕рдмрд╕реЗ рдмреБрдирд┐рдпрд╛рджреА рдФрд░ рдЖрдзрд╛рд░рднреВрдд рд╕рдВрд░рдЪрдирд╛ рд╣реИред
ЁЯУЭ рдЕрднреНрдпрд╛рд╕ рдкреНрд░рд╢реНрди (Practice Questions):
- Perceptron рдХрд╛ рдЧрдгрд┐рддреАрдп рдлрд╝реЙрд░реНрдореВрд▓рд╛ рдХреНрдпрд╛ рд╣реИ?
- Perceptron рдФрд░ MLP рдореЗрдВ рдореБрдЦреНрдп рдЕрдВрддрд░ рдХреНрдпрд╛ рд╣реИ?
- MLP рдореЗрдВ activation functions рдХреНрдпреЛрдВ рдЬрд╝рд░реВрд░реА рд╣реЛрддреЗ рд╣реИрдВ?
- Perceptron XOR problem рдХреНрдпреЛрдВ solve рдирд╣реАрдВ рдХрд░ рд╕рдХрддрд╛?
- рдПрдХ рд╕рд░рд▓ MLP рдореЗрдВ рдХрд┐рддрдиреА layers рд╣реЛрддреА рд╣реИрдВ?