MATLAB图像处理,double 与im2double的用处与区别【学习笔记】

article/2025/9/11 14:38:36

double只是将像素的灰度值从int8换为double,数值大小不变,125还是125.0。
im2double则附带了归一化操作,125变成了125/255=0.490196078
double也不是毫无用处,在将一个256级的灰度图修改为4级时候就用这个,用im2double反而不行。

%-----图像采样,棋盘效应,图像量化,灰度级减少----
clear;
close all;
I=imread('lena_std.tif');
I0=rgb2gray(I); %rgb转灰度图I0,此时还是int8型
%---双精度化---
I1=im2double(I0); %附带归一化
I2=double(I0);    %只是整型转为doubleimshow(I0);
%----空间采样---
I3=I0(1:16:end,1:16:end);
figure
subplot(1,2,1),imshow(I0),title('原始图像');
subplot(1,2,2),imshow(I3),title('16*16');
%-----存储---
xlswrite('lena.xlsx',I(:,:,1),1);
xlswrite('lena.xlsx',I0(:,:,1),2);
%----量化灰度等级----I3=round(I2/64)*64;
I4=floor(I2/64)*64;
figure
subplot(1,3,1),imshow(I0),title('原始图像');
subplot(1,3,2),imshow(uint8(I3)),title('round -4级');
subplot(1,3,3),imshow(uint8(I4)),title('floor -4级');

相应的变量类型
在这里插入图片描述
修改灰度等级的结果:
在这里插入图片描述


http://chatgpt.dhexx.cn/article/2nFxDJkc.shtml

相关文章

信息论 | 计算离散信源的信息量和熵的MATLAB实现(函数封装调用)

《信息论基础》 实验报告 姓名 XX 班级 XXXXXX 学号 2020XXXXXXXX 实验项目 计算离散信源的熵 日期 2022.10.21 实验环境 联想电脑MATLAB R2018a版 实验内容与完成情况(记录实验内容、操作步骤、实验结果等,包括系统输出的错误信息&#xff0c…

信息量,信息熵,纯度

如果看不懂博文,请阅读《信息论基础》一看便懂。 链接:https://pan.baidu.com/s/1T7rS4owM2nU_DP6rthqUPA 提取码:zu9s (1)消息 消息是实体,信息是抽象的。可以从消息中获取信息。消息的表现形式可以是…

基于GIS技术的地质灾害易发性评价—信息量模型

1.将上述步骤的所有图层和历史滑坡点导入arcgis,并使用多值提取至点的步骤,提取滑坡点属性值 2.转换工具—表转excel,得到多值提取至点的表格 3.打开各图层属性表提取每一分级的栅格像元,并计算信息量值。

自信息量,熵及其性质

一般地,如果一个随机事件有种等可能的结果,那么对其编码恰需要n位二进制数,即n比特来储存消息。 因此,可以把对所有可能消息的最小二进制编码位数近似着作该随机事件的熵,记为H。 对于上面的例子分别有 定义2.3 …

GIS与地质灾害评价——信息量的统计

GIS与地质灾害评价中一般都要进行信息量的统计,特别是地质灾害易发性评价的过程中,我们通常将某一因子分为几类,为了比较某一因子不同类别致灾的贡献率,我们通常都要进行信息量的统计。 下边我将某一区域的高程因子为例进行信息量…

数学期望、信息量、信息熵、相对熵、交叉熵

1、数学期望 数学期望就是总体的均值,或者各项的加权平均。 先看离散的情况,假设X为离散型随机变量,x1,x2,x3,……,xk为随机变量的所有可能取值,p1,p2,p3&a…

信息论:信息量的计算

香农定义,一个事件包含信息量的大小由这个事件消除了多少不确定性决定 计算得出的信息称为 Shannon information content 信息量在某些情况下是可加的,比如: 得知一个六面骰子投掷三次的结果所包含的信息量,是得知投掷一次的结果…

信息量与信息熵

信息量 信息奠基人香农(Shannon)认为“信息是用来消除随机不确定性的东西”。也就是说衡量信息量大小就看这个信息消除不确定性的程度。 “太阳从东方升起了”这条信息没有减少不确定性。因为太阳肯定从东面升起。这是句废话,信息量为0。 …

信息量为什么要表示成对数的形式

近期在路上进行了不少的思考,任何方面,任何领域…我会把这些记录在手机的备忘录里,然后在周末总结出来,早就成了习惯。 近日对信息论,排队论以及贝叶斯定理关注比较多,后二者可以完全改造TCP的拥塞控制机制…

离散信源信息量、平均信息量的计算

信息量I与消息出现的概率 P(x) 之间的关系: 1.信息量是概率的函数,即If[P(x)]; 2.P(x) 越小,I越大,P(x) 越大,I越小; 3.若干个相互独立事件构成的消息,所含信息量等于各独立事件信息…

信息量和信息熵的理解

信息量和信息熵的概念最早是出现在通信理论中的,其概念最早是由信息论鼻祖香农在其经典的paper《A Mathematical Theory of Communication》中提出的。如今,这些概念不仅仅是通信领域中的基础概念,也被广泛的应用到了其他的领域中&#xff0c…

《通信原理》(2):信息量及平均信息量

前言 在上篇文章中我们介绍了下通信系统,按照信道中传输的是模拟信号还是数字信号,通信系统可分为模拟通信系统和数字通信系统;此外我们还介绍了广播、点-点、单工通信、半双工通信、全双工通信、并行传输、串行传输这些通信方式。在这篇文章…

特征选择——互信息量

最近做了一个数据比赛,由于对数据背后的业务不太了解,所以特征工程大多采取了“暴力”提取的方式,最终特征过多直接导致模型存在过拟合问题。所以赛后总结在做特征工程的过程中就要考虑特征的取舍问题,主要通过特征与因变量Y之间的…

信息论——信源信息量和信息熵

目录 一、概率基础知识 二、信源信息量和信息熵 离散有记忆信源 信源的随机性 信息量大小 自信息量;该符号出现后,提供给接收者的信息量,表示信源符号的先验不确定性 事件之间的互信息量:事件与事件之间的互信息量之所以存…

信息及信号量之信息量的推导过程

对此先让我们看一下官方的定义: 信息: 信息是对客观世界中各种事物的运动状态和变化的反映,是客观事物之间相互联系和相互作用的表征,表现的是客观事物运动状态和变化的实质内容。 信息量:对信息计量的一种量度 计算…

信息量理解、信息熵公式的推导

1, 了解信息熵先弄明白信息量的概念 信息量是指信息多少的量度。 信息量有两个重要的特点: (1)一个事件的信息量与这个事件发生的概率是呈负相关的。这个很好理解,就拿生活中的例子来说,越大概率事件所涵盖的信息量越小&#xff0…

信息量,熵,互信息,信道容量等相关概念

读论文时,发现关于信息论一无所知的样子,基本概念十分混淆,下面是一些基本概念及对应的理解~ 文章目录 一. 信息量二. 熵三. 联合熵四. 条件熵五. 互信息六. 信道容量 一. 信息量 1. 定义 信息量是对事件的不确定性的度量,单位b…

车牌识别C语言源码

欢迎加入群105060236讨论。 2011-11-23更新本算法主要分成这几个部分,图像采集(即图像输入)、图像预处理(粗略定位车牌位置)、图像处理(精确确定车牌位置,去噪)、车牌字符分割&…

Tensorflow车牌识别完整项目(含完整源代码及训练集)

基于TensorFlow的车牌识别系统设计与实现,运用tensorflow和OpenCV的相关技术,实现车牌的定位、车牌的二值化、车牌去噪增强、图片的分割,模型的训练和车牌的识别等 项目问题,毕设,大创可私聊博主 目录 环境准备 思路…

车牌识别:HyperLPR车牌识别代码解析

首先声明,这只是本人自己对HyperLPR代码的看法解析可能会有错还请多多谅解。 先贴上HyperLPR源码的链接HyperLPR 其中最有用的其实就是HyperLPRLite.py这个代码文件,原来Github上的使用教程可能有点老了不太适用,这边附上一个简单的demo使用&…