Latex行内公式或行间公式太长换行

article/2025/9/15 23:23:52

在这里插入图片描述

行内公式

代码:

%错误示范
Then it sets ABET's the master public key $m p k_{A B E T}=\left(g, h, u, v, w, e(g, g)^{\alpha}, e(g, h)^{\delta},\left\{h_{i}^{\alpha}\right\}_{i \in[1, n]},\left\{g_{i}=g^{z_{i}}\right\}_{i \in[1, n]},{{h}^{\alpha }},{{h}^{\beta }},{{H}_{1}},{{H}_{2}} \right)$
%正确代码
Then it sets ABET's the master public key $m p k_{A B E T}=\left(g, h, u, v, w,\right.$ \\$\left. e(g, g)^{\alpha}, e(g, h)^{\delta},\left\{h_{i}^{\alpha}\right\}_{i \in[1, n]},\left\{g_{i}=g^{z_{i}}\right\}_{i \in[1, n]},{{h}^{\alpha }},{{h}^{\beta }},{{H}_{1}},{{H}_{2}} \right)$

在这里插入图片描述

说明:
对于编译后的PDF观察,手动对公式隔断。比如这里对w之后进行隔断,在公式代码中w之后加\.right.和换行符号\\。即$前半段公式内容 \right.$ \\。后半段公式开头加\left.,即$\left. 后半段公式内容$

行间公式

代码:

#错误示范
\[mp{{k}_{ABET}}=\left( g,h,u,v,w,e{{\left( g,g \right)}^{\alpha }},e{{\left( g,h \right)}^{\delta }},{{\left\{ h_{i}^{\alpha } \right\}}_{i\in \left[ 1,n \right]}},{{\left\{ {{g}_{i}}={{g}^{{{z}_{i}}}} \right\}}_{i\in \left[ 1,n \right]}},{{h}^{\alpha }},{{h}^{\beta }},{{H}_{1}},{{H}_{2}} \right)\]
#正确
\begin{equation}\begin{aligned}mp{{k}_{ABET}}=&\left( g,h,u,v,w,e{{\left( g,g \right)}^{\alpha }},e{{\left( g,h \right)}^{\delta }},{{\left\{ h_{i}^{\alpha } \right\}}_{i\in \left[ 1,n \right]}}, \right. \\&\left. {{\left\{ {{g}_{i}}={{g}^{{{z}_{i}}}} \right\}}_{i\in \left[ 1,n \right]}},{{h}^{\alpha }},{{h}^{\beta }},{{H}_{1}},{{H}_{2}} \right) \nonumber\end{aligned}
\end{equation}

在这里插入图片描述说明:

\begin{equation}\begin{aligned}等式=&前半段内容 \right. \\&\left. 后半段内容\end{aligned}
\end{equation}

其中&为公式对齐


http://chatgpt.dhexx.cn/article/DAvX6MOF.shtml

相关文章

Latex 公式换行问题(换行,等号对齐)

Latex 公式换行问题(换行,等号对齐) 作为一个研究生肯定避免不了写论文,在这个过程中latex使用就尤为重要,他会帮助你们实现期刊格式要求的排版。今天就简单说一下我在写论文过程中遇到的问题之一,公示太长…

Latex中多行公式换行及设置编号位置

1. 公式换行 公式换行的方式有很多种,介绍三种 (1)用equation结合aligned: \begin{equation}\label{eqn:1} \begin{aligned} & a b \\ & c d \\ & e f. \end{aligned} \end{equation} 结果为: &a…

【C语言】用C语言实现最大公约数和最小公倍数【超详细讲解】

最大公约数: “最大公因数,也称最大公约数、最大公因子,指两个或多个整数共有约数中最大的一个。a,b的最大公约数记为(a,b),同样的,a,b,c的最大公…

LRN与BN

LRN是作用于卷积的一种优化,即局部响应归一化层。它的作用是减少过拟合的产生,一般用在卷积RULE激活函数之间。 具体是实现如下: 公式看起来有一些麻烦,但我们不需要关心公式的组成,我们考虑其中的原理即可。为什么要…

Alexnet中的LRN

LRN全称为Local Response Normalization,即局部响应归一化层,LRN函数类似Dropout,是一种防止过拟合的方法。这个函数很少使用,基本上被类似Dropout这样的方法取代,见最早的出处AlexNet论文对它的定义, 《ImageNet Clas…

Pytorch之经典神经网络CNN(三) —— AlexNet(CIFAR-10) (LRN)

2012年 多伦多大学Hinton提出的 AlexNet AlexNet是第一个large-scale CNN, 从AlexNet之后CNN开始变得火了起来 贡献是提出了用多层最小卷积叠加来替换单个大卷积 AlexNet首次引入了dropout AlexNet 该模型一共分为八层,5个卷积层, 以及3个全连接层 (注意这个8层是没…

tf.nn.lrn() 局部响应归一化函数

背景文档 1、首先先了解一下 什么是过拟合和欠拟合?by Panda.X 2、下面简单说一下LRN,全称Local Response Normalization (局部响应归一化函数),是一种防止过拟合的方法,一般在激活层之后使用。这个函数很…

LRN层的实现

版权声明:本文为卜居原创文章,未经博主允许不得转载。卜居博客地址:http://blog.csdn.net/kkk584520 LRN全称为Local Response Normalization,即局部响应归一化层,具体实现在CAFFE_ROOT/src/caffe/layers/lrn_layer.cp…

简谈caffe中的LRN层

昨日面试,被问道BN层和LRN层,一直以来用的都是bn,所以当时对LRN只剩下点印象,事后弥补了一下这边知识点的不足,浅谈自己对LR&#xff…

LRN(Local Response Normalization)局部归一化分析

其中LRN的公式如下: 论文中说 Denoting by aix,y the activity of a neuron computed by applying kernel i at position (x, y) and then applying the ReLU nonlinearity, the response-normalized activity bix,y is given by the expression LRN是用在激活之后…

LRN学习笔记

LRN(Local Response Normalization) 作用:将不同卷积核RELU后的feature归一化,平滑处理,能增加泛化能力。 原因:生物方面,玄学 Alexnet提出 公式: 其中i代表第i个卷积核 a x , y i , 表 示 第…

LRN(局部响应归一化)

原理: LRN层模仿了生物神经系统的“侧抑制”机制,对局部神经元的活动创建竞争环境,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强模型的泛化能力。 LRN对于ReLU这种没有上限边界的激活函数会比…

LRN局部响应标准化

全称:local response normalization最早来源于论文AlexNet中提到的:i:代表下标,你要计算像素值的下标,从0计算起 j:平方累加索引,代表从j~i的像素值平方求和 x,y:像素的位…

tensorflow下的局部响应归一化函数tf.nn.lrn

1、其中LRN就是局部响应归一化: 这个技术主要是深度学习训练时的一种提高准确度的技术方法。其中caffe、tensorflow等里面是很常见的方法,其跟激活函数是有区别的,LRN一般是在激活、池化后进行的一中处理方法。 AlexNet将LeNet的思想发扬光大…

局部响应归一化(Local Response Normalization,LRN)和批量归一化(Batch Normalization,BN)的区别

为什么要归一化? 归一化已成为深度神经网络中的一个重要步骤,它可以弥补ReLU、ELU等激活函数无界性的问题。有了这些激活函数,输出层就不会被限制在一个有限的范围内(比如tanh的 [ − 1 , 1 ] [-1,1] [−1,1]),而是可以根据训练需…

LRN 局部响应归一化层(Local Response Normalization)

局部响应归一化层(Local Response Normalization) 局部响应归一化层简称LRN,是在深度学习中提高准确度的技术方法。一般是在激活、池化后进行的一中处理方法,因在Alexnet中运用到,故做一下整理。 为什么要引入LRN层&a…

AlexNet中的LRN(Local Response Normalization)

神经网络初学者,没有什么理论基础,偶然看到个ImageNet,就准备从其入手,先弄懂每层的含义,其中这个LRN层真是让人百思不得其解,搜索了下,给出的介绍比较少。为什么会比较少呢,搜索到最…

Alexnet LRN层和conv2局部连接

LRN(local response norm)局部归一 AlexNet本文出自NIPS2012,作者是大神Alex Krizhevsky,属于多伦多大学Hinton组。当年取得了ImageNet最好成绩,也是在那年之后,更多的更深的神经网路被提出,比…

tensorflow中的lrn函数详解

LRN函数类似DROPOUT和数据增强作为relu激励之后防止数据过拟合而提出的一种处理方法,全称是 local response normalization--局部响应标准化。这个函数很少使用,基本上被类似DROPOUT这样的方法取代,具体原理还是值得一看的 函数原型 def lrn(input, de…

CNN中的LRN层

LRN层是按下述公式计算的:(用处不大 可被dropout normalization替代) 转自:https://blog.csdn.net/searobbers_duck/article/details/51645941