Pretrained Models (VGG, ResNet, Inception, BERT)

अब हम Deep Learning में Pretrained Models की बात करेंगे, जो Transfer Learning की रीढ़ की हड्डी हैं।
ये models पहले से बहुत बड़े datasets पर train हो चुके हैं, और इन्हें विभिन्न tasks में reuse किया जा सकता है।


🔶 1. What are Pretrained Models?

Pretrained Models वे deep learning architectures होते हैं जिन्हें पहले से किसी बड़े dataset (जैसे ImageNet या Wikipedia) पर train किया गया है।
आप इन्हें reuse करके:

  • Feature Extraction कर सकते हैं
  • Fine-Tuning कर सकते हैं
  • Zero-shot tasks भी perform कर सकते हैं (कुछ models)

🎯 क्यों ज़रूरी हैं?

✅ Save time and computation
✅ बेहतर performance, खासकर छोटे datasets पर
✅ Common architectures को standard बनाना
✅ Foundation models का निर्माण


🔷 A. Pretrained Models in Computer Vision


1. VGGNet

  • 🧠 Developed by: Visual Geometry Group, Oxford
  • 📆 Year: 2014
  • 📐 Architecture: Simple CNNs with 3×3 convolutions
  • 🧱 Versions: VGG-16, VGG-19
  • ⚠️ Downside: Large number of parameters, slow
from torchvision import models
vgg = models.vgg16(pretrained=True)

2. ResNet (Residual Network)

resnet = models.resnet50(pretrained=True)

3. Inception (GoogLeNet)

  • 🧠 By: Google
  • 📆 Year: 2014
  • 🔄 Inception Module: Multiple filter sizes in parallel
  • 🧠 Deep but Efficient
  • 📊 Version: Inception-v1, v2, v3, v4
inception = models.inception_v3(pretrained=True)

🔷 B. Pretrained Models in Natural Language Processing (NLP)


4. BERT (Bidirectional Encoder Representations from Transformers)

  • 🧠 By: Google AI
  • 📆 Year: 2018
  • 🔍 Key Idea: Bidirectional context + Masked Language Modeling
  • 🌍 Trained On: Wikipedia + BookCorpus
  • ✅ Used for: Text classification, Q&A, NER, etc.
  • 🔁 Fine-tune specific to downstream tasks
from transformers import BertModel, BertTokenizer

model = BertModel.from_pretrained("bert-base-uncased")
tokenizer = BertTokenizer.from_pretrained("bert-base-uncased")

📊 Comparison Table

ModelDomainStrengthsWeakness
VGGVisionSimplicityToo many parameters
ResNetVisionDeep + residual connectionsSlightly complex
InceptionVisionMulti-scale processingHarder to modify
BERTNLPPowerful language understandingLarge memory usage

🧠 Use Cases of Pretrained Models

TaskModel
Image ClassificationResNet, VGG
Object DetectionFaster R-CNN with ResNet
Semantic SegmentationDeepLab, U-Net
Sentiment AnalysisBERT
Machine TranslationmBERT, T5
Question AnsweringBERT, RoBERTa

📝 Practice Questions

  1. Pretrained model क्या होता है?
  2. VGG और ResNet में क्या अंतर है?
  3. Inception module का उद्देश्य क्या है?
  4. BERT किस तरीके से context को समझता है?
  5. Vision और NLP में कौन-कौन से pretrained models आम हैं?

🧠 Summary

FeatureVisionNLP
Basic CNNVGG
Deep NetworkResNetBERT
Advanced StructureInceptionTransformer variants
Librarytorchvisiontransformers (HuggingFace)