实战三:手把手教你实现物体识别

article/2025/9/11 18:21:13

                             实战三:手把手教你实现物体识别

一、基于Haad+Adaboost实现人脸识别

1.原理介绍(参考下面的博客文章)

http://www.cnblogs.com/ello/archive/2012/04/28/2475419.html

Haar分类器 = Haar-like特征+积分图方法+AdaBoost+级联

Haar分类器算法的要点如下:

a.使用Haar-like特征做检测

b.使用积分图(Integral Image)对Haar-like特征求值进行加速

c.使用AdaBoost算法训练区分人脸和非人脸的强分类器

d.使用筛选式级联把强分类器级联到一起,提高准确率

(1)Haar-like特征是何方神圣呢?

a.什么是特征呢?

假设在人脸检测时我们需要有这么一个子窗口在待检测的图片窗口中不断的移位滑动,子窗口每到一个位置,就会计算出该区域的特征,然后用我们训练好的级联分类器对该特征进行筛选,一旦该特征通过所有强分类器的筛选,则判定该区域人脸。

b.Haar-like特征的表示

下面是Viola牛们提出的Haar-like特征。

下面是Lienhart等牛们提出的Haar-like特征。

 

这些所谓的特征不就是一堆堆带条纹的矩阵么,到底是干什么用的呢?

解释:将上面的任意一个矩形放到人脸区域上,然后,将白色区域的像素和减去黑色区域的像素和,得到的值暂且称之为人脸特征值,如果你把这个矩形放到一个非人脸区域,那么计算出的特征值和人脸特征值是不一样的,所以这些方块的目的就是把人脸特征量化,以区分人脸和费人脸。

为了增加区分度,可以对多个矩形特征计算得到一个区分度更大的特征值,那么什么样的矩形特征怎么样的组合到一块可以更好的区分出人脸和非人脸呢,这就是AdaBoost算法要做的事情了。

 

(2)AdaBoost你给我如实道来!

AdaBoost是一种具有一般性的分类器提升算法,它使用的分类器并不局限某一特定的算法。利用AdaBoost可以帮助我们选择更好的矩阵特征组合。

 

(3)积分图是一个加速器

积分图就是只遍历一次图像就可以求出图像中所有区域像素和的快速算法,大大的提高了图像特征值计算的效率。

 

2.基于Haad+Adaboost实现人脸识别

(1)前期准备

准备一张人脸照片face.jpg,并获取opencv自带的人脸检测器以及眼睛检测器模块。

(2)整体步骤

a.加载xml文件

b.加载jpg图片

c.jpg图片转灰度图

d.检测人脸

e.在图片中将人脸用矩形框起来

f.展示图片

(3)程序源码

import cv2
import numpy as np
# xml文件的引入
face_xml = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')
eye_xml = cv2.CascadeClassifier('haarcascade_eye.xml')# load jpg
img = cv2.imread('face.jpg')
cv2.imshow('src',img)# haar  gray
gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)# dect
# 1 人脸灰度图片数据 2 缩放系数 3 目标大小
faces = face_xml.detectMultiScale(gray,1.3,5)print('face=',len(faces))
# draw
for (x,y,w,h) in faces:cv2.rectangle(img,(x,y),(x+w,y+h),(255,0,0),2)# 眼睛识别代码roi_gray = gray[y:y+h,x:x+w]roi_img = img[y:y+h,x:x+w]eyes = eye_xml.detectMultiScale(roi_gray)print('eyes=',len(eyes))for (e_x,e_y,e_w,e_h) in eyes:cv2.rectangle(roi_img,(e_x,e_y),(e_x+e_w,e_y+e_h),(0,255,0),2)cv2.imshow('dst',img)
cv2.waitKey(0)

(4)结果展示

二、基于SVM的男女识别

1.原理

还是先从原理入手,从网上看到的刘强西救爱人的故事:

https://www.sohu.com/a/128747589_614807

总之,上述故事的球称作[data](数据源),棍子称作[classifier](分类器),最大间隙trick称作[optimization](最优化),拍桌子称作[kernelling](建立核函数),那张纸称作[hyperplane](超平面)

 

2.基于SVM的男女识别

提供男女的身高和体重的数据,进行训练,然后再给出数据,预测男女。

有标签的训练称之为监督学习,样本分为负样本和正样本。

(1)前期准备

女生数据[155,48],[159,50],[164,53],[168,56],[172,60]

男生数据[152,53],[156,55],[160,56],[172,64],[176,65]

预测数据 女[167,55], 男[162,57]

标签 0女 1男

(2)整体步骤

a.准备data数据

b.准备label标签

c.训练SVM

d.数据的预测

(3)源码

import cv2
import numpy as np
import matplotlib.pyplot as plt# 1 准备data
rand1 = np.array([[155,48],[159,50],[164,53],[168,56],[172,60]])
rand2 = np.array([[152,53],[156,55],[160,56],[172,64],[176,65]])
data = np.vstack((rand1,rand2))
data = np.array(data,dtype='float32')# 2 label 标签
label = np.array([[0],[0],[0],[0],[0],[1],[1],[1],[1],[1]])# 3 训练SVM
# m1 机器学习模块 SVM_create()创建向量机
svm = cv2.ml.SVM_create()
# 属性设置
svm.setType(cv2.ml.SVM_C_SVC) # svm type
svm.setKernel(cv2.ml.SVM_LINEAR) # line 线性分类器
svm.setC(0.01)
# 训练
svm.train(data,cv2.ml.ROW_SAMPLE,label)# 4 完成数据的预测
pt_data = np.vstack([[167,55],[162,57]]) # 0 女生 1 男生
pt_data = np.array(pt_data,dtype='float32')
# 开始预测
(par1,par2) = svm.predict(pt_data)
print(par2) 

(4)结果展示

三、基于Hog+SVM实现小狮子的识别

1.Hog原理

参考文章

https://www.cnblogs.com/hustdc/p/6563891.html

https://blog.csdn.net/datase/article/details/71374471

hog特征是histogram of gradient的缩写,我们观察图像时,信息更多来自目标边沿的突变。我们计算一块区域内的所有像素处的梯度信息,即突变的方向和大小,然后对360度进行划分,得到多个bin,统计该区域内所有像素所在的bin,就得到了一个histogram,就是说hog特征。

2.基于Hog+SVM实现小狮子的识别

(1)前期准备

样本的准备,正样本和负样本的准备,正样本是包含需要检测的物体,负样本是不包含需要检测的物体。

这里的样本数据提供一种方法,从视频中获取图片,直接给出代码。

# 视频分解成图片
# 1 load加载视频 2 读取info 3 解码 单帧视频parse 4 展示 imshow
import cv2
# 获取一个视频打开cap
cap = cv2.VideoCapture('1.mp4')
# 判断是否打开
isOpened = cap.isOpened
print(isOpened)
#帧率
fps = cap.get(cv2.CAP_PROP_FPS)
#宽度
width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))
#高度
height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
print(fps,width,height)i = 0
while(isOpened):if i == 100:breakelse:i = i+1(flag,frame) = cap.read() # 读取每一张 flag读取是否成功 frame内容fileName = 'image'+ str(i) + '.jpg'print(fileName)if flag == True:#写入图片cv2.imwrite(fileName,frame,[cv2.IMWRITE_JPEG_QUALITY,100])
print('end!')

将视频生成的图片尺寸转换成64*128的照片

# 540 * 960 ==>64*128
import cv2for i in range(0,100):fileName = 'imgs\\'+str(i+1)+'.jpg'print(fileName)img = cv2.imread(fileName)imgInfo = img.shapeheight = imgInfo[0]width = imgInfo[1]mode = imgInfo[2]dstHeight = 128dstWidth = 64dst = cv2.resize(img,(dstWidth,dstHeight))cv2.imwrite(fileName,dst)

 

 

(2)总体步骤

a.全局变量的赋值

b.hog对象的创建

c.SVM分类的创建

d.计算hog以及label标签

e.训练

f.检测

 

(3)代码

# 1 准备样本 2 训练 3 预测
# 1 样本
#   pos是正样本,包含需要检测的物体 neg是负样本,不包含需要检测的物体
#   图片大小是64*128
#   如何获取样本? 1 来源于网络 2 源自公司内部 3 自己收集
#   一个好的样本 远胜过一个复杂的神经网络
#   正样本:尽可能的多样 环境多样 干扰多样 820 负样本 1931  1:2或者1:3之间# 2 训练# 1.参数 2 hog 3.SVM 4.computer hog 5.label 6.train 7.predicr 8.draw
import cv2
import numpy as np
import matplotlib.pyplot as plt#1 设置全局变量 在一个windows窗体中有105个block,每个block下有4个cell,每个cell下有9个bin,总共3780维
PosNum = 820 # 正样本的个数
NegNum = 1931 # 负样本的个数
winSize = (64,128) # 窗体大小
blockSize = (16,16) # 105个block
blockStride = (8,8) # block的步长
cellSize = (8,8)
nBin = 9#2 hog对象的创建
hog = cv2.HOGDescriptor(winSize,blockSize,blockStride,cellSize,nBin)#3 SVM分类器的创建
svm = cv2.ml.SVM_create()#4 5 计算hog label
featureNum = int(((128-16)/8+1)*((64-16)/8+1)*4*9)  # 3780
featureArray = np.zeros(((PosNum+NegNum),featureNum),np.float32)
labelArray = np.zeros(((PosNum+NegNum),1),np.int32)
# SVM 监督学习 样本和标签 SVM学习的是image的hog特征
for i in range(0,PosNum):fileName = 'pos\\'+str(i+1)+'.jpg'img = cv2.imread(fileName)hist = hog.compute(img,(8,8)) # 当前hog的计算 3780维的数据for j in range(0,featureNum):featureArray[i,j] = hist[j] # hog特征的装载labelArray[i,0] = 1 # 正样本标签为1for i in range(0,NegNum):fileName = 'neg\\'+str(i+1)+'.jpg'hist = hog.compute(img,(8,8))for j in range(0,featureNum):featureArray[i+PosNum,j] = hist[j]labelArray[i+PosNum,0] = -1 # 负样本标签为-1# 设置SVM的属性
svm.setType(cv2.ml.SVM_C_SVC)
svm.setKernel(cv2.ml.SVM_LINEAR)
svm.setC(0.01)# 6 train
ret = svm.train(featureArray,cv2.ml.ROW_SAMPLE,labelArray)# 7 检测(创建myHog--->myDect参数得到-->来源于resultArray(公式得到) rho(训练得到))# rho
alpha = np.zeros((1),np.float32)
rho = svm.getDecisionFunction(0,alpha)
print(rho)
print(alpha)# resultArray
alphaArray = np.zeros((1,1),np.float32)
supportVArray = np.zeros((1,featureNum),np.float32)
resultArray = np.zeros((1,featureNum),np.float32)
alphaArray[0,0] = alpha
resultArray = -1*alphaArray*supportVArray #计算公式# mydect参数
myDetect = np.zeros((3781),np.float32)
for i in range(0,3780):myDetect[i] = resultArray[0,i]
myDetect[3780] = rho[0]# 构建好myHog
myHog = cv2.HOGDescriptor()
myHog.setSVMDetector(myDetect)# 待检测图片的加载
imageSrc = cv2.imread('Test.jpg',1)
# 检测小狮子 (8,8)winds的滑动步长 1.05 缩放系数 (32,32)窗口大小
objs = myHog.detectMultiScale(imageSrc,0,(8,8),(32,32),1.05,2)
# 起始位置、宽和高 objs三维信息
x = int(objs[0][0][0])
y = int(objs[0][0][1])
w = int(objs[0][0][2])
h = int(objs[0][0][3])# 目标的绘制 图片 起始位置 终止位置 颜色
cv2.rectangle(imageSrc,(x,y),(x+w,y+h),(255,0,0))
# 目标的展示
cv2.imshow('dst',imageSrc)
cv2.waitKey(0)

(4)结果展示

 四、项目地址

链接:https://pan.baidu.com/s/14O4NbkxZ3G9AWMOtyX9xXg

提取码:24hb

github


http://chatgpt.dhexx.cn/article/3faTKjDw.shtml

相关文章

手把手教你使用LabVIEW OpenCV dnn实现物体识别(Object Detection)含源码

文章目录 前言一、物体识别算法原理概述1、物体识别的概念2、Yolo算法原理概述 二、opencv调用darknet物体识别模型(yolov3/yolov4)1、darknet模型的获取2、python调用darknet模型实现物体识别3、LabVIEW调用darknet模型实现物体识别yolo_example.vi4、L…

颜色和移动物体识别系统

颜色和移动物体识别系统 1.开发工具 Python版本:Anaconda 的python环境3.8版本 开发软件:Pycharm社区版 识别模型:深度学习模型,普通学习模型 相关模块:opencv-python3.4.8.29模块 2.环境搭建 安装Anaconda并将路径添加…

[Vuforia]二.3D物体识别

之前说过10之后的版本没有3dScan了,所以还是9.8的版本或者之前更早的版本。 3d物体扫描需要先下载扫描的APK进行扫面。 首先要在手机上装一个扫描程序,扫描现实中的三维物体,然后上传高通官网,在下载成UnityPackage类型让Unity能…

K210视觉体验—物体识别

K210视觉体验—物体识别 使用设备ZTFR开发板 人脸识别构造函数导入模型 示例代码基础测试 使用设备 ZTFR开发板 人脸识别 首先简单介绍一下 K210 的 KPU。KPU 是 K210 内部一个神经网络处理器,简单来说就是 KPU 能加载和运行各种现成的 AI 算法模型,实现…

tensorflow 物体识别

tensorflow推出的object detection模块,为我们做物体检测提供了极大的便利,如果还没有安装该模块,可以参照 http://blog.csdn.net/hanshuobest/article/details/79222685 下面的示例演示如何用已训练的模型做物体检测 import numpy as np …

计算机视觉物体识别的过程,计算机视觉之从OpenCV到物体识别(二)

前言:上一章节我们学会了图片、视频以及外设获取帧图片的方式,以及OpenCV 的灰度图片处理。计算机不像人眼可以很轻易地辨别物体,本质是将一张图片转换成灰度图,通过一定的模型训练,使得机器能够从0,1(黑与白)中分辨物体的特征,由局部到整体,图片越复杂,所需的训练程度…

unity c# 触摸屏物体识别桌算法

unity源码地址链接:unityc#触摸屏物体识别桌算法-C#文档类资源-CSDN下载 实操的时候出现算出来的坐标不对,没有时间去找问题,优化了,所以代码仅供参考。 使用的是Lean Touch插件,免费的。 模块由三个点构成&#xf…

如何用AR引擎技术, 5步优雅实现物体识别和跟踪

AR技术让应用实现虚拟世界和现实世界的融合,让开发者的创意和脑洞能够拥有更多炫酷有趣的呈现方式。AR拍照、AR购物、AR教育、AR搜索等丰富应用场景,凭借着AR技术的加持,为用户带来更优质的沉浸式体验,为用户创造更多价值。 例如…

物体识别全流程(Ubuntu16.04)结合ROS

物体识别全流程(Ubuntu16.04)结合ROS 1.使用labellmg,标记图片,生成xml标签 在此下载labellmg包 下载之后解压到要放置的目录 推荐使用Python3Qt5 打开labellmg包 在当前目录终端下运行如下命令行 sudo apt-get install pyqt5-…

opencv人脸识别以及自定义物体识别系统

目录 一、简介: 二、软硬件应用: 三、模块介绍: (一)人脸识别: (二)、自定义物体识别: (三)、图片展示: (四&#x…

opencv物体识别-识别水果

前言 玩一玩用opencv做一些简单的物体识别 1.思路讲解 我们基于简单的opencv的阈值分割,通过这个阈值分割,我们能把我们需要识别的物体在二值图里面变成白色,其余的变成黑色。然后对我们分割出来的物体部分提取轮廓,算出覆盖轮…

物体识别

一、物体识别 图像识别:很重要,是很多算法的基础 图像识别定位:识别出来是猫,且定位出猫的位置 物体检测:每个图像中含有多物体,检测出有几个个体,并框出来位置 图像分割:不仅仅框…

【AI技术】物体识别概述1

【AI技术】物体识别概述1 1、背景2、物体识别3、应用 1、背景 主要针对客户以及初学者概述物体识别。 2、物体识别 物体识别又叫目标识别,物体分类,图像分类,习惯性称为图像分类,即对整张图片进行分类。 物体识别针对的是物体分…

目标检测和物体识别的方法有哪些?如何进行物体定位和分类?

目标检测和物体识别是计算机视觉领域中重要的任务,旨在从图像或视频中自动定位和识别出不同类别的物体。这些任务在许多应用领域中具有广泛的应用,如自动驾驶、视频监控、人机交互等。本文将介绍目标检测和物体识别的方法以及如何进行物体定位和分类。 一…

小程序 跳转 公众号 文章

1.通过组件 web-view https://developers.weixin.qq.com/miniprogram/dev/component/web-view.html <web-view src"https://mp.weixin.qq.com/s/Cz4x4QpvF_Pozn7xjYOVyw"></web-view>2.如果是关联好小程序的公众号 1.如果是 左图文章 都是 https://m…

微信小程序跳转公众号h5页面

小程序提供了web- view组件进行用来内嵌网页 根据限制说明准备域名即可&#xff0c;开发阶断可以使用http的域名&#xff0c;在开发者工具中勾选不验证https证书即可&#xff0c;发布上线时必须使用https的域名。 同时需要小程序后台配置业务域名。

微信小程序跳转微信公众号

1 webview 嵌套 微信公众号的页面 然后 文章里 添加 公众号二维码 然后引导用户长按识别公众号 2 公众号有关注的页面 路径 需要自己找 我记得是替换什么officeid啥的 百度即可 3 利用<official-account bindload"lookSuccess" binderror"lookFai…

微信小程序跳转公众号

长按识别跳转 步骤&#xff1a; 新建一个页面使用web-view组件的src链接到公众号编辑好的一篇带有公众号的二维码的文章 微信规则只有小程序关联的公众号里的文章可以长按识别二维码 <template><view><!--微信规则只有小程序关联的公众号里的文章可以长按识别…

小程序直接跳转公众号的必要条件记录

1、小程序必须关联公众号主体&#xff0c;可以从图1查看是否已被关联&#xff0c;如果没有被关联&#xff0c;则可以去图2进行关联 图1&#xff1a; 图2&#xff1a;登录微信公众平台&#xff0c;进入图片广告-小程序管理&#xff0c;进行关联 2.小程序不能直接打开公众号首…

小程序跳转公众号文章

这是首页的代码 <image class"seedingBannar" data-id"{{item.id}}" bindtap"goTweet" src"{{resourceUrlitem.iconPath}}"></image>// 跳转到推文页面goTweet: function (e) {console.log(e.currentTarget.dataset.id)wx…