NLP рдХреА рдПрдХ рдорд╣рддреНрд╡рдкреВрд░реНрдг category тАФ Sequence Models тАФ рдХреА рдУрд░ рдмрдврд╝рддреЗ рд╣реИрдВред
Text data inherently sequential рд╣реЛрддрд╛ рд╣реИ (рд╣рд░ word рдХрд╛ order matter рдХрд░рддрд╛ рд╣реИ), рдФрд░ рдЗрд╕реА рдХрд╛рд░рдг рд╣рдореЗрдВ рдРрд╕реЗ models рдХреА рдЬрд╝рд░реВрд░рдд рд╣реЛрддреА рд╣реИ рдЬреЛ sequence рдХреЛ рдпрд╛рдж рд░рдЦ рд╕рдХреЗрдВред
ЁЯФ╢ 1. Sequence Data рдХреНрдпрд╛ рд╣реЛрддрд╛ рд╣реИ?
Text = рд╢рдмреНрджреЛрдВ рдХрд╛ рдХреНрд░рдо (sequence of words):
рдЬреИрд╕реЗ: "рдореИрдВ рд╕реНрдХреВрд▓ рдЬрд╛ рд░рд╣рд╛ рд╣реВрдБред"
рдпрд╣рд╛рдБ “рдЬрд╛ рд░рд╣рд╛” рдФрд░ “рдЬрд╛ рд░рд╣реА” рдореЗрдВ рдлрд░реНрдХ рд╣реЛрддрд╛ рд╣реИ тАФ рдХреНрд░рдо рдорд╛рдпрдиреЗ рд░рдЦрддрд╛ рд╣реИред
ЁЯза Sequence models рдХрд╛ рдХрд╛рд░реНрдп рд╣реИ тАУ рдЗрд╕ рдХреНрд░рдо рдФрд░ рд╕рдВрджрд░реНрдн рдХреЛ рд╕рдордЭрдирд╛ред
ЁЯФБ 2. Recurrent Neural Network (RNN)
ЁЯУМ рдЙрджреНрджреЗрд╢реНрдп:
- рдРрд╕реЗ model рдмрдирд╛рдирд╛ рдЬреЛ рдкрд┐рдЫрд▓реЗ рд╢рдмреНрджреЛрдВ рдХрд╛ context рдпрд╛рдж рд░рдЦрдХрд░ рдЕрдЧрд▓рд╛ рд╢рдмреНрдж рд╕рдордЭреЗрдВ рдпрд╛ predict рдХрд░реЗрдВред
ЁЯФз Working (Step-by-step):
рд╣рд░ рд╕рдордп step рдкрд░ input рдЖрддрд╛ рд╣реИ (word) рдФрд░ hidden state update рд╣реЛрддрд╛ рд╣реИ:
xтВБ тЖТ xтВВ тЖТ xтВГ ...
тЖУ тЖУ тЖУ
hтВБ тЖТ hтВВ тЖТ hтВГ тЖТ Output

рдпрд╣ hidden state ht рдкрд┐рдЫрд▓реА рдЬрд╛рдирдХрд╛рд░реА рдХреЛ рдЕрдЧрд▓реА word processing рдореЗрдВ рдЙрдкрдпреЛрдЧ рдХрд░рддрд╛ рд╣реИред
тЪая╕П RNN рдХреА рд╕реАрдорд╛рдПрдВ (Limitations)
| рд╕рдорд╕реНрдпрд╛ | рд╡рд┐рд╡рд░рдг |
|---|---|
| тЭМ Vanishing Gradient | рд▓рдВрдмреЗ sentences рдореЗрдВ рдкрд┐рдЫрд▓реЗ context рдХреА рдЬрд╛рдирдХрд╛рд░реА рдЦреЛ рдЬрд╛рддреА рд╣реИ |
| тЭМ Fixed memory | рдкреБрд░рд╛рдиреЗ рд╢рдмреНрджреЛрдВ рдХреЛ рдареАрдХ рд╕реЗ рдирд╣реАрдВ рдпрд╛рдж рд░рдЦ рдкрд╛рддрд╛ |
| тЭМ Slow training | Sequential nature рдХреЗ рдХрд╛рд░рдг parallelization рдХрдард┐рди |
ЁЯФД 3. LSTM (Long Short-Term Memory)
LSTM, RNN рдХрд╛ рдПрдХ рдмреЗрд╣рддрд░ version рд╣реИ тАФ рдЬрд┐рд╕реЗ рдЗрд╕ рд╕рдорд╕реНрдпрд╛ рдХреЛ рд╣рд▓ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП 1997 рдореЗрдВ Hochreiter & Schmidhuber рдиреЗ рдкреНрд░рд╕реНрддрд╛рд╡рд┐рдд рдХрд┐рдпрд╛ред
ЁЯУМ Core Idea:
LSTM рдореЗрдВ рдПрдХ special memory cell рд╣реЛрддрд╛ рд╣реИ рдЬреЛ decide рдХрд░рддрд╛ рд╣реИ рдХрд┐ рдХреМрди-рд╕реА рдЬрд╛рдирдХрд╛рд░реА рдпрд╛рдж рд░рдЦрдиреА рд╣реИ, рдХреМрди-рд╕реА рднреВрд▓рдиреА рд╣реИ, рдФрд░ рдХреМрди-рд╕реА update рдХрд░рдиреА рд╣реИред
ЁЯза Key Components of LSTM:
| Gate | Role |
|---|---|
| ЁЯФТ Forget Gate | рдХреНрдпрд╛ рднреВрд▓рдирд╛ рд╣реИ |
| ЁЯФУ Input Gate | рдХреНрдпрд╛ рдЬреЛрдбрд╝рдирд╛ рд╣реИ |
| ЁЯУд Output Gate | рдЕрдЧрд▓реЗ step рдореЗрдВ рдХреНрдпрд╛ рднреЗрдЬрдирд╛ рд╣реИ |
ЁЯУК LSTM Architecture (Flow)
Input xтВЬ тЖТ [Forget Gate, Input Gate, Output Gate] тЖТ Cell State тЖТ Output hтВЬ
LSTM sequence рдХреЛ рдЬрд╝реНрдпрд╛рджрд╛ рджреЗрд░ рддрдХ рдпрд╛рдж рд░рдЦрдиреЗ рдореЗрдВ рд╕рдХреНрд╖рдо рд╣реЛрддрд╛ рд╣реИред
ЁЯФв Equations (Simplified):

ЁЯзк Practical Example:
ЁЯУМ Use Case: Text Generation
- Input: тАЬThe sunтАЭ
- Output: тАЬThe sun is shining brightly todayтАжтАЭ
LSTM last words рдХреЛ рдпрд╛рдж рд░рдЦрдХрд░ рдЕрдЧрд▓рд╛ word predict рдХрд░рддрд╛ рд╣реИред
ЁЯз░ Python Code Example (PyTorch)
import torch.nn as nn
class LSTMModel(nn.Module):
def __init__(self, vocab_size, embed_dim, hidden_dim):
super().__init__()
self.embedding = nn.Embedding(vocab_size, embed_dim)
self.lstm = nn.LSTM(embed_dim, hidden_dim, batch_first=True)
self.fc = nn.Linear(hidden_dim, vocab_size)
def forward(self, x):
x = self.embedding(x)
out, _ = self.lstm(x)
out = self.fc(out)
return out
ЁЯдЦ RNN vs LSTM Comparison
| Feature | RNN | LSTM |
|---|---|---|
| Memory | Short | Long |
| Gates | No | Yes (forget, input, output) |
| Vanishing Gradient | Common | Handled |
| Use Case | Simple patterns | Complex sequences |
ЁЯУИ Applications of Sequence Models
| Task | Use |
|---|---|
| ЁЯФд Language Modeling | Next word prediction |
| тЬНя╕П Text Generation | Poetry, story generation |
| ЁЯУз Spam Detection | Sequential classification |
| ЁЯОз Speech Recognition | Audio-to-text |
| ЁЯза Sentiment Analysis | Review understanding |
| ЁЯТм Chatbots | Human-like conversation |
ЁЯУЭ Practice Questions:
- Sequence model рдХреА рдЬрд░реВрд░рдд NLP рдореЗрдВ рдХреНрдпреЛрдВ рдкрдбрд╝рддреА рд╣реИ?
- RNN рдХрд╛ drawback рдХреНрдпрд╛ рд╣реИ?
- LSTM рдХреИрд╕реЗ context рдпрд╛рдж рд░рдЦрддрд╛ рд╣реИ?
- LSTM рдореЗрдВ рддреАрди рдореБрдЦреНрдп gates рдХреМрди рд╕реЗ рд╣реИрдВ?
- рдПрдХ рдЫреЛрдЯрд╛ рд╕рд╛ PyTorch LSTM model рдХрд╛ code рд▓рд┐рдЦрд┐рдПред
ЁЯза Summary Table
| Term | Meaning |
|---|---|
| RNN | Sequence modeling network |
| LSTM | Long-memory capable RNN |
| Gates | Decide memory control |
| Application | Text, audio, time-series |
| Limitation | RNN: short memory; LSTM: handles long-term context |

