sklearn聚类算法用于图片压缩与图片颜色直方图分类

上期文章:机器学习之SKlearn(scikit-learn)的K-means聚类算法

我们分享了sklearn的基本知识与基本的聚类算法,这里主要是机器学习的算法思想,前期文章我们也分享过人工智能的深度学习,二者有如何区别,可以先参考如下几个实例来看看机器学习是如何操作的

不同K值下的聚类算法

首先我们随机创建一些二维数据作为训练集,观察在不同的k值下聚类算法的区别

import numpy as np
import matplotlib.pyplot as plt
from sklearn import metrics
from sklearn.datasets.samples_generator import make_blobs
from sklearn.cluster import KMeans

# X为样本特征,Y为样本簇类别, 共1000个样本,

# 每个样本4个特征,共4个簇,簇中心在[-1,-1], [0,0],[1,1],[2,2], 簇方差分别为[0.4, 0.2, 0.2]

X, y = make_blobs(n_samples=1000, n_features=2,centers=[[-1,-1], [0,0], [1,1], [2,2]],
cluster_std=[0.4, 0.2, 0.2, 0.2],random_state =9)
y_pred = KMeans(n_clusters=2, random_state=9)
y_pred = y_pred.fit_predict(X)
plt.figure()
plt.subplot(1,2,1)
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.subplot(1,2,2)
plt.scatter(X[:, 0], X[:, 1], c=y_pred)
plt.show()

利用KMeans函数新建一个聚类算法,这里设置为2分类

y_pred = KMeans(n_clusters=2, random_state=9)

然后进行分类

y_pred = y_pred.fit_predict(X)
 新建对象后,常用的方法包括fit、predict、cluster_centers_和labels。
 fit(X)函数对数据X进行聚类,
 使用predict方法进行新数据类别的预测,
 使用cluster_centers_获取聚类中心,
 使用labels_获取训练数据所属的类别,
 inertia_获取每个点到聚类中心的距离和

代码截图

KMeans 2 分类

当然3分类,4分类我们只需要修改一下KMeans函数中的n_clusters参数即可

y_pred = KMeans(n_clusters=3, random_state=9)
y_pred = KMeans(n_clusters=4, random_state=9)

KMeans 3 分类

KMeans 4 分类

图片颜色直方图的聚类

用于相似图片搜索引擎的Python OpenCV图像直方图

谷歌百度以图搜图如何实现?教你打造属于自己的相似图片搜索引擎

我们以前的文章分享过颜色直方图的概念,既然图片有不同的像素组成的,我们可以获取图片直方图的数据,进行sklearn的聚类来查看图片那个色素使用的最多。

from sklearn.cluster import KMeans
import matplotlib.pyplot as plt
import cv2
import numpy as np
def RGBhistogram(clt):    
    numLabels = np.arange(0, len(np.unique(clt.labels_)) + 1)    
    (hist, _) = np.histogram(clt.labels_, bins=numLabels)    
    hist = hist.astype("float")    
    hist /= hist.sum()    
    return hist
def plot_bar(hist, centroids):    
    bar = np.zeros((50, 300, 3), dtype="uint8")    
    startX = 0    
    for (percent, color) in zip(hist, centroids):        
    print(str(percent)[0:4])       																					 
    endX = startX + (percent * 300)        
    cv2.rectangle(bar, (int(startX), 0), (int(endX), 50),                      
                  color.astype("uint8").tolist(), -1)        
    cv2.putText(bar, str(percent)[0:4], (int(startX), 10),                    
                cv2.FONT_HERSHEY_SCRIPT_COMPLEX, 0.5, (100, 200, 200), 1)        
              startX = endX 														   
    return bar

首先我们建立2个函数,一个主要是计算直方图数据,另一个主要来显示图片色素的条形图

代码截图

image = cv2.imread("12.png")
image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
img = image.reshape((image.shape[0] * image.shape[1], 3))
clt = KMeans(n_clusters=3)
clt.fit(img)
hist = RGBhistogram(clt)
bar = plot_bar(hist, clt.cluster_centers_)

plt.figure()
plt.subplot(1, 2, 1)
plt.imshow(image)
plt.subplot(1, 2, 2)
plt.imshow(bar)
plt.show()

首先读取一张图片,进行图片的resize,这里主要是减少数据量

使用sklearn的kmeans算法进行颜色色素的聚类,这里选择3聚类,那么我们主要显示数据量最多的前三个色素

clt = KMeans(n_clusters=3)
clt.fit(img)
 新建对象后,常用的方法包括fit、predict、cluster_centers_和labels。
 fit(X)函数对数据X进行聚类,
 使用predict方法进行新数据类别的预测,
 使用cluster_centers_获取聚类中心,
 使用labels_获取训练数据所属的类别,
 inertia_获取每个点到聚类中心的距离和

sklearn的kmeans算法聚类完成后,把聚类好的数据进行直方图的数据统计,然后进行数据的整理,这里我们整理前3个主要的色素,利用每个色素的百分比进行条状图的画图,并显示色素的百分比例

hist = RGBhistogram(clt)
bar = plot_bar(hist, clt.cluster_centers_)

最后显示图片以及统计好的色素条状图

图片颜色聚类

代码截图

sklearn聚类算法用于图片压缩

import numpy as np
import matplotlib.pyplot as plt
from sklearn.cluster import KMeans
from sklearn.utils import shuffle
import cv2

# 加载图片

# 加载图像并转换成二维数字阵列

image = cv2.imread('13.png')
image = np.array(image, dtype=np.float64) / 255
w, h, d = original_shape = tuple(image.shape)
assert d == 3
image_array = np.reshape(image, (w * h, d))
image_array_sample = shuffle(image_array, random_state=0)[:1000]
kmeans = KMeans(n_clusters=64, random_state=0).fit(image_array_sample)
labels = kmeans.predict(image_array)

这里我们首先加载图片,并把图片转换到二维数字阵列

image_array_sample = shuffle(image_array, random_state=0)[:1000]

如上便是把图片数据进行无序打乱,这样会避免人为的一些干扰,尽可能的还原数据的真实性

然后使用

kmeans = KMeans(n_clusters=64, random_state=0)

函数进行数据的聚类操作的新建类,这里

新建对象后,常用的方法包括fit、predict、cluster_centers_和labels。fit(X)函数对数据X进行聚类,使用predict方法进行新数据类别的预测,使用cluster_centers_获取聚类中心,使用labels_获取训练数据所属的类别,inertia_获取每个点到聚类中心的距离和

进行fit图片聚类后,进行图片的标签预测

kmeans.predict(image_array)
 新建对象后,常用的方法包括fit、predict、cluster_centers_和labels。
 fit(X)函数对数据X进行聚类,
 使用predict方法进行新数据类别的预测,
 使用cluster_centers_获取聚类中心,
 使用labels_获取训练数据所属的类别,
 inertia_获取每个点到聚类中心的距离和

代码截图

神经网络预测完成后,便可以进行图片的压缩了,我们新建一个压缩图片函数,传递的参数为kmeans.cluster_centers_, labels, w, h,然后重新组成图片数据

#重组压缩图片
def recreate_image(codebook, labels, w, h):
    d = codebook.shape[1]
    image = np.zeros((w, h, d))
    label_idx = 0
    for i in range(w):
        for j in range(h):
        image[i][j] = codebook[labels[label_idx]]
        label_idx += 1
    return image

代码截图

最后显示照片

# 与原始图像一起显示所有结果
plt.figure()
plt.subplot(1, 2, 1)
plt.axis('off')
plt.title('Original image ')
plt.imshow(image)
plt.subplot(1, 2, 2)
plt.axis('off')
plt.title('Quantized (64 colors, K-Means)')
plt.imshow(recreate_image(kmeans.cluster_centers_, labels, w, h))
plt.show()

代码截图

这里我们新建一个画布,包括1行2列,1行1列显示原始数据,1行2列显示压缩后的图片,从压缩图片可以看出,很多地方的颜色都已经被弱化,但是保留了绝大部分的数据,也能够很好的反映图片,这在神经网络进行大量数据提取计算时,是很有必要的,避免大量的计算

图片压缩

通过以上几个聚类的分享,我们已经了解到了聚类的基本用法,想了解更多算法的小伙伴们可以参考官方教程。

以上主要是机器学习的算法思想,深度学习当然也可以来实现类似的功能,比如CNN 卷积神经网络,机器学习的算法都是现成的,一些前辈已经完成的算法,我们可以直接使用,具体深度学习,我们需要搭建自己的神经网络,进行不同神经网络的训练学习

深度学习与机器学习区别

机器学习与深度学习

机器学习:实现人工智能的方法

机器学习直接来源于早期的人工智能领域,传统的算法包括决策树、聚类、贝叶斯分类、支持向量机、EM、Adaboost等等。从学习方法上来分,机器学习算法可以分为监督学习(如分类问题)、无监督学习(如聚类问题)、半监督学习、集成学习、深度学习和强化学习。

深度学习:实现机器学习的技术

深度学习本来并不是一种独立的学习方法,其本身也会用到有监督和无监督的学习方法来训练深度神经网络。但由于近几年该领域发展迅猛,一些特有的学习手段相继被提出(如残差网络),因此越来越多的人将其单独看作一种学习的方法。

无论机器学习,还是深度学习都是帮助我们实现未来的人工智能的强有力工具,当然随着算法的不断完善,相信后期还会有更完善的学习算法。