Unsupervised Learning рд╡рд╣ рддрдХрдиреАрдХ рд╣реИ рдЬрд╣рд╛рдБ рд╣рдореЗрдВ рдХреЗрд╡рд▓ input data рджрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИ, рд▓реЗрдХрд┐рди рдЙрд╕рдХреЗ рд╕рд╛рде рдХреЛрдИ label рдпрд╛ output рдирд╣реАрдВ рд╣реЛрддрд╛ред
Model рдХреЛ рдЦреБрдж рд╕реЗ patterns, structure, clusters рдпрд╛ associations рдХреЛ рд╕реАрдЦрдирд╛ рд╣реЛрддрд╛ рд╣реИред
ЁЯза рдЙрдкрдпреЛрдЧ рдХреА рдкрд░рд┐рд╕реНрдерд┐рддрд┐рдпрд╛рдБ:
Supervised Learning | Unsupervised Learning |
---|---|
X (input) + Y (label) | рдХреЗрд╡рд▓ X (input) |
Spam Detection, Price Prediction | Customer Segmentation, Anomaly Detection |
ЁЯФС рдЙрджреНрджреЗрд╢реНрдп:
Unsupervised Learning рдХрд╛ рдореБрдЦреНрдп рдЙрджреНрджреЗрд╢реНрдп рд╣реИ:
- Hidden patterns рдЦреЛрдЬрдирд╛
- Similar data points рдХреЛ рдПрдХ рд╕рд╛рде рдЧреНрд░реБрдк рдХрд░рдирд╛
- Dimensionality рдХреЛ рдШрдЯрд╛рдирд╛
- Outlier рдпрд╛ anomaly detect рдХрд░рдирд╛
ЁЯФм рдкреНрд░рдореБрдЦ Algorithms:
Algorithm | рдЙрджреНрджреЗрд╢реНрдп | рдЙрджрд╛рд╣рд░рдг |
---|---|---|
K-Means Clustering | Similarity рдХреЗ рдЖрдзрд╛рд░ рдкрд░ group рдмрдирд╛рдирд╛ | Customer Segmentation |
Hierarchical Clustering | Tree structure рдореЗрдВ grouping | Genetic Analysis |
DBSCAN | Density-based clustering | Outlier Detection |
PCA (Principal Component Analysis) | Dimensionality Reduction | Image Compression |
Autoencoders | Feature Compression (DL-based) | Anomaly Detection |
t-SNE / UMAP | Visualization (2D mapping) | Data Plotting |
ЁЯФ╖ 1. K-Means Clustering
ЁЯОп рдЙрджреНрджреЗрд╢реНрдп:
рдбрд╛рдЯрд╛ рдХреЛ k рд╕рдореВрд╣реЛрдВ (clusters) рдореЗрдВ рдмрд╛рдБрдЯрдирд╛, рдЬрд╣рд╛рдБ рд╣рд░ group рдХрд╛ center тАЬcentroidтАЭ рд╣реЛрддрд╛ рд╣реИред
ЁЯУР Mathematical Objective:

рдЬрд╣рд╛рдБ:

тЬЕ Python Code (Sklearn):
from sklearn.cluster import KMeans
import matplotlib.pyplot as plt
X = [[1,2], [1,4], [1,0], [10,2], [10,4], [10,0]]
model = KMeans(n_clusters=2)
model.fit(X)
print(model.labels_) # Cluster IDs
print(model.cluster_centers_)
plt.scatter(*zip(*X), c=model.labels_)
plt.scatter(*zip(*model.cluster_centers_), c='red', marker='x')
plt.title("K-Means Clustering")
plt.show()
ЁЯФ╖ 2. Hierarchical Clustering
ЁЯУМ рд╡рд┐рд╢реЗрд╖рддрд╛рдПрдБ:
- Agglomerative: Bottom-up approach
- Dendrogram рдХреЗ рд░реВрдк рдореЗрдВ output рдорд┐рд▓рддрд╛ рд╣реИ
тЬЕ Code (SciPy):
from scipy.cluster.hierarchy import dendrogram, linkage
import matplotlib.pyplot as plt
X = [[1,2], [2,3], [10,12], [11,14]]
Z = linkage(X, method='ward')
dendrogram(Z)
plt.title("Hierarchical Clustering Dendrogram")
plt.show()
ЁЯФ╖ 3. DBSCAN (Density-Based Spatial Clustering)
ЁЯУМ рд▓рд╛рдн:
- Arbitrary shape рдХреЗ clusters рдмрдирд╛ рд╕рдХрддрд╛ рд╣реИ
- Outliers рдХреЛ рдЕрд▓рдЧ рдХрд░ рд╕рдХрддрд╛ рд╣реИ
ЁЯФ╖ 4. PCA (Principal Component Analysis)
ЁЯУМ рдЙрджреНрджреЗрд╢реНрдп:
High-dimensional data рдХреЛ рдХрдо dimensions рдореЗрдВ рдкреНрд░реЛрдЬреЗрдХреНрдЯ рдХрд░рдирд╛ред
ЁЯУР PCA Formula:
Data matrix X рдХреЛ transform рдХрд░рддреЗ рд╣реИрдВ: Z=XW
рдЬрд╣рд╛рдБ:
- W: Principal components (eigenvectors of covariance matrix)
- Z: Reduced dimensional representation
тЬЕ PCA Code:
from sklearn.decomposition import PCA
from sklearn.datasets import load_iris
import matplotlib.pyplot as plt
iris = load_iris()
X = iris.data
pca = PCA(n_components=2)
X_reduced = pca.fit_transform(X)
plt.scatter(X_reduced[:,0], X_reduced[:,1], c=iris.target)
plt.title("PCA of Iris Dataset")
plt.show()
ЁЯУК Summary Table:
Algorithm | рдЙрджреНрджреЗрд╢реНрдп | Output | Visualization |
---|---|---|---|
K-Means | Clustering | Cluster Labels | тЬЕ |
Hierarchical | Clustering Tree (Dendrogram) | Cluster Tree | тЬЕ |
DBSCAN | Density-Based Clustering | Labels + Outliers | тЬЕ |
PCA | Dimension Reduction | Compressed Data | тЬЕ |
Autoencoders | Neural Compression | Encoded Data | тЭМ (Complex) |
ЁЯУЭ Practice Questions:
- Unsupervised Learning рдореЗрдВ labels рдХреНрдпреЛрдВ рдирд╣реАрдВ рд╣реЛрддреЗ?
- K-Means рдХрд╛ objective function рдХреНрдпрд╛ рд╣реИ?
- PCA рдХреИрд╕реЗ dimension рдХреЛ reduce рдХрд░рддрд╛ рд╣реИ?
- DBSCAN рдФрд░ K-Means рдореЗрдВ рдХреНрдпрд╛ рдЕрдВрддрд░ рд╣реИ?
- Hierarchical Clustering рдореЗрдВ Dendrogram рдХреНрдпрд╛ рджрд░реНрд╢рд╛рддрд╛ рд╣реИ?