差分放大电路

article/2025/9/28 20:08:39

 

目录

1  差分放大电路的基本组成

1.1  抑制零漂的原理

 1.2  差模信号和共模信号的区分

2  长尾式差分放大电路

2.1  静态分析

2.2  动态分析

 3  差分放大电路的四种输出方式


差分放大电路是一种常见的电子放大电路,它利用差分信号输入来实现信号的放大。差分放大电路由两个输入信号和一个输出信号组成,输入信号相互之间呈差分(即两个信号之间的差值),输出信号是输入信号经过放大处理后的结果

差分放大电路通常用于抑制共模信号干扰和提高信号的共模抑制比。它可以在各种电路应用中使用,例如音频放大器、运算放大器、数据通信接口等。

1  差分放大电路的基本组成

将两个电路结构,参数均相同的单管放大电路组合在一起,就成为了差分放大电路的基本组成,在理想状态下两部分三极管和电阻特性一致,当两端输入相等均为0时,此时输出也为0,温度升高时,Icq1升高,Ucq1减小,Icq2升高,Ucq2减小,两端变化相等相互抵消,有着抑制输出端零点漂移的作用。

1.1  抑制零漂的原理

假设两个上图的三极管放大倍数是Au1,差分输入为u_{Id},两端的集电极输出电压的变化量分别为:

\triangleu_{C1}=1/2A_{u1}\bigtriangleupu_{Id}

\triangleu_{C2}=1/2A_{u1}u_{Id}  

则放大电路的输出电压的变化为

\triangleu{_{0}} =\triangleu_{C1} +\triangleu_{C2} =A_{u1}\bigtriangleupu_{Id}

由此可以看出差模放大倍数和单管电压放大倍数相同,多用一个放大管后,放大倍数没有提高,但是换来了对零漂的抑制。

 1.2  差模信号和共模信号的区分

如果差分两端输入电压大小相等、极性相反的信号叫做差模信号;如果两端输入电压大小相等、极性相同的信号,这样的信号叫做共模信号。理论上差分放大电路两个输入端加上任意大小相同,任意极性的输入信号uI1uI2都可以看做某个差模信号和某个共模信号的组合。其中差模信号uID和共模信号uIC的值为

uID=uI1-uI2

uID=1/2(uI1+uI2)

2  长尾式差分放大电路

 长尾Re的作用是引入了一个共模负反馈,对差模信号无反馈作用,

假设存在一个正值的共模信号,两个晶体管的集电极电流ic都会增加,流到Re时的电流ie增加,此时就有Re的电位增加,反馈到两管的基极回路中,u_{BE1}u_{BE2}都会降低,限制了ic的增加。

Re越大,共模负反馈就越强,则抑制零漂的效果就越强随着Re的逐渐增大,直流压降越来越大,为了避免电压变化范围过大,在电路中引入一个负电源-VEE来补偿Re上的直流压降。

2.1  静态分析

基极电流为

I_{BQ}R+U_{BEQ}+2I_{EQ}R_{E}

I_{BQ} = \frac{\tfrac{}{}V_{EE} -U_{BEQ}}{R+2(1+\beta )R_{e}}

静态集电极电流

I_{CQ} =\betaI_{BQ}

U_{CQ}=V_{CC} -I_{CQ}R_{C}

静态基极电位为

U_{BQ}= - I_{BQ}R_{}

2.2  动态分析

由于接入Re后,差模信号流过Re的电流不变,Ue相当于一个固定电位,在交流通路中可以将Re短路。 

差分放大电压和单管放大电压一致,是以牺牲一个管子为代价获得了抑制零漂的能力。

输入电阻和输出电阻分别为:

 3  差分放大电路的四种输出方式

 如图所示,差分信号输入放大过程可以分为以下几步。

1.在左侧输入信号,会在T1管的集电极输出反相放大的电压信号;

2.会在发射机输出同向放大的电流信号,假如底部是Re处是电流源的话,向下的电流会保持不变,此时电流信号输出给右侧晶体管的发射极端;

3、此时会有一个向上的电流,这个电流会分流出去,叠加在基极和集电极,使得两边的电流减小,由于集电极是基极的β倍,基极占比可以忽略不计,大部分叠加在集电极;

4、此时集电极电流减小,此时会在集电极输出放大的电压信号,和底部传入的电流信号相比,此信号是同向放大的电压信号,

左侧IB增大控制IC增大,IE=IB+IC,由于底部是恒流源,电流保持不变,此时电流流向右边。电流在右边叠加1在基极和集电极,会减小原有的电流,由于两个管子的参数基本一致,可以得出左边的增大量等于右边管子的减小量。所以可以在右边得到大小相同方向相反的波形。

这也就是差模关系,左侧输出反相放大信号,右边输出同向放大信号也是大小相同方向相反的差模关系。

此时单端输出单端输入时,假设放大倍数为10,那么左侧输出-10倍,右端输出是10倍。

如果是单端输入双端输出的话,左侧减右侧就是输出-20倍。

如果是双端输入的话,左端输入在左端输出-10倍,在右端输出10倍,右端的输入在左端输出10倍,右端输出-10倍,但是右端输入的信号为差模信号,所以叠加起来左端输出-20倍,右端输出20倍。

双端输入双端输出的话,左端减右端输出-40倍。


http://chatgpt.dhexx.cn/article/an1aprqH.shtml

相关文章

教你轻松掌握差分放大电路,看完这篇不踩坑

要想掌握差分放大电路,首先就要知道什么是差分放大电路以及它的作用。 差分放大电路是模拟集成运算放大器输入级所采用的的电路形式,差分放大电路是由对称的两个基本放大电路,通过射极公共电阻耦合构成的,对称的意思就是说两个三极…

什么是差分放大电路

差分放大电路利用电路参数的对称性和负反馈作用,有效地稳定静态工作点,以放大差模信号抑制共模信号为显著特征,广泛应用于直接耦合电路和测量电路的输入级。但是差分放大电路结构复杂、分析繁琐,特别是其对差模输入和共模输入信号…

模电电路笔记———差分放大电路的使用

目录 一、差分放大电路简介 二、使用方法 1.电路图连接 2.电阻关系 总结 前言 最近绘制电路板需要,学习模电相关差分放大电路知识。 一、差分放大电路简介 常规放大电路需要基准电压作为比较,比如AGND,有时电路实际需要中需要比较两处电压差…

运算放大器的差分放大电路

差分放大电路利用电路参数的对称性和负反馈作用,有效地稳定静态工作点,以放大差模信号抑制共模信号为显著特征,广泛应用于直接耦合电路和测量电路的输入级。但是差分放大电路结构复杂、分析繁琐,特别是其对差模输入和共模输入信号…

【skLearn 回归模型】Lasso ---- 选择最佳正则化参数 <带交叉验证的Lasso LassoCV()>

文章目录 一、linear_model.LassoCV()♦ 正则化路径 regularization path♦ linear_model.LassoCV类① 自定义alpha范围测试② LassoCV默认参数配置测试 一、linear_model.LassoCV() 使用交叉验证的 Lasso类的参数看起来与岭回归略有不同,这是由于 Lasso对于alpha的取值更加敏…

python-sklearn岭回归与LASSO回归模型(套索)代码实操

python-sklearn岭回归与lasso回归模型代码实操 前言一、岭回归1.岭回归介绍2.代码实现3.岭回归参数调整4.岭迹分析,可视化分析 二、LASSO回归1.LASSO回归介绍2.代码实现ps. Lasso回归的特征选择3.岭回归参数调整4.模型系数的数据可视化比较 前言 hello大家好这里是小…

python机器学习库sklearn——Lasso回归(L1正则化)

分享一个朋友的人工智能教程。零基础!通俗易懂!风趣幽默!还带黄段子!大家可以看看是否对自己有帮助:点击打开 全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 Lasso The L…

【数据挖掘】Lasso回归原理讲解及实战应用(超详细 附源码)

需要源码请点赞关注收藏后评论区留言私信~~~ Lasso回归 岭回归无法剔除变量,而Lasso(Least Absolute Shrinkage and Selection Operator)回归模型,将惩罚项由L2范数变为L1范数,可以将一些不重要的回归系数缩减为0&…

Lasso回归系列四:Group Lasso,Sparse Group Lasso

Lasso变体:Group Lasso,Sparse Group Lasso 关于Lasso回归的讲解可以看我的另一篇博客:Lasso回归系列二:Lasso回归/岭回归的原理 Group Lasso 在Lasso回归中,是单独地看待每个特征(即假定特征不存在先验的分组)&…

Group Lasso

简介 Lasso(least absolute shrinkage and selection operator,又译最小绝对值收敛和选择算子、套索算法)是一种同时进行特征选择和正则化(数学)的回归分析方法,旨在增强统计模型的预测准确性和可解释性&a…

Lasso回归(Stata)

本文借鉴了数学建模清风老师的课件与思路,可以点击查看链接查看清风老师视频讲解:清风数学建模:https://www.bilibili.com/video/BV1DW411s7wi 前言 一、lasso回归的应用 这里因为Stata里对岭回归有bug,所以就没有岭回归&#xff…

Lasso-Logistic回归-R语言应用详解

Lasso简介 LASSO(Least Absolute Shrinkage and Selection Operator)是线性回归的一种缩减方式,通过引入 L 1 L_1 L1​惩罚项,实现变量选择和参数估计。 ∑ i 1 N ( y i − β 0 ∑ j 1 p x i j β j ) 2 λ ∑ j 1 p ∣ β j ∣ \sum_{i1}^{N}\le…

Lasso问题

转自:http://blog.csdn.net/slade_sha/article/details/53164905 先看一波过拟合: 图中,红色的线存在明显的过拟合,绿色的线才是合理的拟合曲线,为了避免过拟合,我们可以引入正则化。 下面可以利用正则化来…

Lasso Regression

Lasso Regression 标签(空格分隔): 监督学习 在数据挖掘和机器学习算法的模型建立之初,为了尽量的减少因缺少重要变量而出现的模型偏差问题,我们通常会尽可能的多的选择自变量。但是在实际建模的过程中,通…

logistic回归、lasso回归、ridge回归、Elastic Net回归之间的总结

1. 概念 一直看一遍忘一遍,实在懒得再查了,理解后再次整理,希望能加深理解。 先总结几个概念: 回归分析是一种预测性的建模技术,它研究的是因变量(目标)和自变量(预测器&#xff…

机器学习--岭回归和Lasso回归

任何数据都存在噪声和多重共线性 如何解决多重共线性 ? 1.算法角度(正则化) 2.数据角度(最有效果) 岭回归与Lasso回归的出现是为了解决线性回归出现的过拟合(数据间高度线性相关)以及在通过正规…

LASSO和LARS

1、LASSO简介 LASSO是一种经典的松弛算法,其全称是The Least Absolute Shrinkage and Selectionator operator,于1996年由Tibshirani提出来。lasso的一个根本思想就是利用L1范式来诱导稀疏解,下面给出lasso的两种形式以及其等价性证明&#x…

R语言实现LASSO回归

Lasso回归又称为套索回归,是Robert Tibshirani于1996年提出的一种新的变量选择技术。Lasso是一种收缩估计方法,其基本思想是在回归系数的绝对值之和小于一个常数的约束条件下,使残差平方和最小化,从而能够产生某些严格等于0的回归…

python-LASSO回归模型

https://zhuanlan.zhihu.com/p/76055830 LASSO回归模型的应用 ①可视化方法确定值 import pandas as pd import numpy as np import matplotlib.pyplot as plt import matplotlib from sklearn import model_selection from sklearn.linear_model import Lasso, LassoCV font…

Lasso模型

Lasso是一种数据降维方法,该方法不仅适用于线性情况,也适用于非线性情况。Lasso是基于惩罚方法对样本数据进行变量选择,通过对原本的系数进行压缩,将原本很小的系数直接压缩至0,从而将这部分系数所对应的变量视为非显著…