图片格式:JPG;RAW ;TIFF;PNG;GIF的解析

article/2025/9/21 16:48:23

参考图片格式:JPG;RAW ;TIFF;PNG;GIF的解析 - 云+社区 - 腾讯云

相信大家平时在拍摄照片的时候,一定遇到过各种各样纷繁复杂的图片格式。

同时在后期处理的时候,存储图像也面临着各种不同选择。

这期我们就来给大家全方位解析常用的图片格式:JPG;RAW ;TIFF;PNG;GIF

干货易懂,速存哦!

1、JPG

关键词:常用

JPG全名是JPEG,是图片的常见一种格式。支持最高级别的压缩,不过,这种压缩是有损耗的。

通常来说JPG因为经过压缩,其图片体积较小,所以能得以在各大平台进行高效传播。

我们平时所接触的网页浏览图基本都是JPG格式。

▲JPG格式常用于网络传播图片,高效快速

2、RAW

关键词:原始

RAW的原意就是“未经加工”。

RAW文件记录了数码相机传感器的原始信息,同时记录了由相机拍摄所产生的一些原数据如ISO的设置、快门速度、光圈值、白平衡等。

RAW是未经处理、也未经压缩的格式,可以把RAW概念化为“原始图像编码数据”或更形象的称为“数字底片”。

其作用和老式的底片作用更加相似。是最大程度保留原始数据的格式。

▲RAW格式常用于照片的后期制作,极大程度保留原始数据

JPG和RAW对比

我们在设置相机存储照片的时候,通常面临着JPG和RAW的选择。

二者的区别:

● JPG格式的文件体积小传输速度快。占用的空间容量少

RAW的文件体积大传输慢。需要的存储空间更大。同时软件打开RAW的时间较长。

● JPG画质一般,拍出来的照片效果一般。在修改照片的时候不能很好的还原照片图像。而且每修改一次画面损失加强一次

RAW画质很精细,拍出来的照片效果非常的好。在修改照片的时候,能够很好的还原相片图像。

● JPG格式兼容性好,一般计算机都可以认出这个图片。

RAW必须使用特殊的阅读器才可以打开并转换这个图片。

总而言之,一般的图片直接保存JPG就好啦。注重后期修改的图片建议保存RAW无损。

3、TIFF

关键词:高质

TIFF是由数码相机内影像生成器生成的照片格式。

TIFF格式为无损压缩文件,压缩率低,它可以显示上百万的颜色,所以也因此占的空间大。

TIFF 格式可以制作质量非常高的图像,因而经常用于出版印刷。像喷绘和写真的图像最好储存为TIF格式。

▲TIFF格式的高质无损常用于印刷行业

TIFF和RAW格式对比

同样是无损精细,TIFF格式和RAW格式的区别主要在于以下:

● TIFF是无损压缩格式。RAW简单说就是原来的格式。

● TIFF一般软件都可以打开,RAW一般要由随机器送的软件才可以打开。

● RAW里有比TIFF更多的信息。

● TIFF不可以进行暴光调整,RAW则可进行暴光调整。

4、PNG

关键词:透明

PNG采用无损压缩,在多数情况下都可以保留图片画质,但是体积较大。

如果是经常对某图片进行编辑保存,要求图片数据100%完整,或需要透明效果,则推荐使用。

如给PS当素材或用作图标、企业logo等。

▲PNG格式常用于素材设计、图标logo

5、GIF

关键词:动态

其最大的特点是动态。网上很多小动画都是GIF格式。

其实GIF是将多幅图像保存为一个图像文件,从而形成动画。

最常见的就是通过一帧帧的动画串联起来的搞笑gif图,所以归根到底GIF仍然是图片文件格式。

▲GIF格式常用于表情包、视频截取

课堂小结

JPG:体积小 有压缩 适用于正常传播

RAW:体积大 需要专业工具打开 画质精良 数字底片 适用于后期商业修片

TIFF:体积大 高质无损 适用于印刷出版

PNG:体积大 高质 可应用透明 适用于设计素材 图标logo


http://chatgpt.dhexx.cn/article/cWwn04bS.shtml

相关文章

常见图片宽高解析

于比较常用的图片格式Png、Jpg、Gif、Bmp,我们需要针对不同的图片格式使用不同的控件来显示,这里就有一个来解析图片格式的问题。我们不能单纯的用文件后缀名.png、.jpg、.jpeg、.gif、.bmp来区分图片格式,因为实际上我们可以直接修改图片后缀…

图片类型解析

文章目录 PNGPNG 特点PNG 类型PNG 数据结构PNG 适用场景PNG 压缩过程 JPG/JPEGWebP PNG PNG 特点 无损压缩:PNG图片采取了基于LZ77派生算法对文件进行压缩,使得它压缩比率更高,生成的文件体积更小,并且不损失数据。体积小&#…

激活函数(5)ELU函数、PReLU函数

ELU函数 ELU函数公式和曲线如下图 ELU函数是针对ReLU函数的一个改进型,相比于ReLU函数,在输入为负数的情况下,是有一定的输出的,而且这部分输出还具有一定的抗干扰能力。这样可以消除ReLU死掉的问题,不过还是有梯度饱…

激活函数(relu,prelu,elu,+BN)对比on cifar10

最近做了个对比实验,通过修改激活函数观察对图片分类准确率的影响,现记录如下: 一.理论基础 1.1激活函数 1.2 elu论文(FAST AND ACCURATE DEEP NETWORK LEARNING BY EXPONENTIAL LINEAR UNITS (ELUS))…

22个激活函数,ReLU、RReLU、LeakyReLU、PReLU、Sofplus、ELU、CELU、SELU、GELU、ReLU6、Sigmoid、Tanh、Softsign、Hardtanh等

转自:https://www.pianshen.com/article/33331174884/ 1.22.Linear常用激活函数 1.22.1.ReLU torch.nn.ReLU() 1.22.2.RReLU torch.nn.RReLU() 1.22.3.LeakyReLU torch.nn.LeakyReLU() 1.22.4.PReLU torch.nn.PReLU() 1.22.5.Sofplus torch.nn.Softplus() 1.22.6.E…

常用激活函数(Sigmiod、Tanh、Softmax、ReLU、elu、LReLU、Softplus)函数表达式、特点、图像绘制(代码)---已解决

楼主最近在研究激活函数,索性将常用的激活函数进行了简单的整理,方便以后翻看,也希望能帮到你。 1、sigmoid函数 函数表达式:f(x) 1/(1e^-x) 函数特点: 优点:1.输出[0,1]之间;2.连续函数&#…

Sigmoid,tanh,Relu,Leaky ReLu,ELU,GeLu 激活函数理解

目录 1 神经网络为什么需要非线性激活函数?2 Sigmoid2.1缺陷2.1.1 梯度消失2.2.2 Output非zero-centered 3 Tanh3.1 缺陷 4 ReLu4.1 缺陷 5 Leaky ReLu6 ELU7 GeLu7.1 基础知识回顾7.1.1 正态分布7.1.2 概率密度函数7.1.3 累积分布函数7.1.4 Φ(x)与erf(x)函数关系公…

Elu函数~小朋友

Elu激励函数的数学表达式如下: 图一:摘自 https://blog.csdn.net/zrh_CSDN/article/details/81266188 代码如下: #code:utf-8import numpy as np import matplotlib.pyplot as pltdef elu(x,a):y x.copy()for i in range(y.shape[0]):if y[…

【Python--torch(激活函数说明+代码讲解)】激活函数(sigmoid/softmax/ELU/ReLU/LeakyReLU/Tanh)

【Python–torch】激活函数(sigmoid/softmax/ELU/ReLU/LeakyReLU/Tanh) 文章目录 【Python--torch】激活函数(sigmoid/softmax/ELU/ReLU/LeakyReLU/Tanh)1. 介绍2. 常用激活函数说明2.1 Sigmoid2.1.1 公式2.1.2 图像2.1.3 代码解读 2.2 Softmax2.2.1 公式2.2.2 代码解读 2.3 EL…

A.深度学习基础入门篇[四]:激活函数介绍:tanh、sigmoid、ReLU、PReLU、ELU、softplus、softmax、swish等

【深度学习入门到进阶】必看系列,含激活函数、优化策略、损失函数、模型调优、归一化算法、卷积模型、序列模型、预训练模型、对抗神经网络等 专栏详细介绍:【深度学习入门到进阶】必看系列,含激活函数、优化策略、损失函数、模型调优、归一化…

el-descriptions

<el-descriptions title"用户信息"><el-descriptions-item label"用户名">kooriookami</el-descriptions-item><el-descriptions-item label"手机号">18100000000</el-descriptions-item><el-descriptions-ite…

功能性模块:(8)一文理解常用激活函数(Sigmoid,ReLU,ELU,GELU...)

一文理解常用激活函数 1. Sigmoid 公式&#xff1a; Sigmoid ( x ) 1 1 exp ⁡ ( − x ) \text{Sigmoid}(x) \frac{1}{1 \exp(-x)} Sigmoid(x)1exp(−x)1​ Sigmoid的函数形状如下图所示: 对应的导数形式如下图所示&#xff1a; Sigmoid函数的优点&#xff1a; 便于求…

深入理解ReLU、Leaky ReLU、 PReLU、ELU、Softplus

文章目录 ReLULeaky ReLUPReLUELUSoftplus ReLU ReLU&#xff08;Rectified Linear Unit&#xff0c;修正线性单元&#xff09;&#xff0c;也叫Rectifier 函数&#xff0c;它的定义如下&#xff1a; Relu可以实现单侧抑制&#xff08;即把一部分神经元置0&#xff09;&#x…

搞懂激活函数(Sigmoid/ReLU/LeakyReLU/PReLU/ELU)

1. 简介 在深度学习中&#xff0c;输入值和矩阵的运算是线性的&#xff0c;而多个线性函数的组合仍然是线性函数&#xff0c;对于多个隐藏层的神经网络&#xff0c;如果每一层都是线性函数&#xff0c;那么这些层在做的就只是进行线性计算&#xff0c;最终效果和一个隐藏层相当…

YOLOv5改进系列(13)——更换激活函数之SiLU,ReLU,ELU,Hardswish,Mish,Softplus,AconC系列等

【YOLOv5改进系列】前期回顾: YOLOv5改进系列(0)——重要性能指标与训练结果评价及分析 YOLOv5改进系列(1)——添加SE注意力机制

【PyTorch】教程:torch.nn.ELU

torch.nn.ELU CLASS torch.nn.ELU(alpha1.0, inplaceFalse) paper: Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs). 参数 alpha ([float]) – α \alpha α 默认为1.0inplace ([bool] ) – 内部做, 默认为 False ELU 定义 ELU ( x ) { x , …

【YOLOv7/YOLOv5系列算法改进NO.54】改进激活函数为ReLU、RReLU、Hardtanh、ReLU6、Sigmoid、Tanh、Mish、Hardswish、ELU、CELU等

文章目录 前言一、解决问题二、基本原理三、​添加方法四、总结 前言 作为当前先进的深度学习目标检测算法YOLOv7&#xff0c;已经集合了大量的trick&#xff0c;但是还是有提高和改进的空间&#xff0c;针对具体应用场景下的检测难点&#xff0c;可以不同的改进方法。此后的系…

常用激活函数:Sigmoid、Tanh、Relu、Leaky Relu、ELU优缺点总结

1、激活函数的作用 什么是激活函数&#xff1f; 在神经网络中&#xff0c;输入经过权值加权计算并求和之后&#xff0c;需要经过一个函数的作用&#xff0c;这个函数就是激活函数&#xff08;Activation Function&#xff09;。 激活函数的作用&#xff1f; 首先我们需要知道…

深度学习—激活函数详解(Sigmoid、tanh、ReLU、ReLU6及变体P-R-Leaky、ELU、SELU、Swish、Mish、Maxout、hard-sigmoid、hard-swish)

非线性激活函数详解 饱和激活函数Sigmoid函数tanh函数hard-Sigmoid函数 非饱和激活函数Relu&#xff08;修正线性单元&#xff09;&#xff1a;Relu6&#xff08;抑制其最大值&#xff09;&#xff1a;ELU&#xff08;指数线性单元&#xff09;SELULeaky-Relu / R-ReluP-Relu&a…

激活函数详解(ReLU/Leaky ReLU/ELU/SELU/Swish/Maxout/Sigmoid/tanh)

神经网络中使用激活函数来加入非线性因素&#xff0c;提高模型的表达能力。 ReLU(Rectified Linear Unit,修正线性单元) 形式如下: ReLU公式近似推导:: 下面解释上述公式中的softplus,Noisy ReLU. softplus函数与ReLU函数接近,但比较平滑, 同ReLU一样是单边抑制,有宽广的接受…