【IC7】FPGA最高工作频率的计算方法;FPGA最大输出频率;查看handbook的PLL最高频率;Fout_ext;Fout两个参数;FPGA输出1ns脉冲

article/2025/9/25 23:16:39

目录

1 时钟周期 T = Tco + Tlogic + Troute + Tsu

2, 故   Tlogic = 4 * Tlut   

3, = Tco + Tsu + 12 * Tlut

4,搜索handbook,不要搜索datasheet

4-1 时钟树的特性

4-2 PLL特性;Fout_ext;Fout两个参数

5,FPGA输出1ns脉冲


我们的设计需要多大容量的芯片?我们的设计能跑多快?这是经常困扰工程师的两个问题。对于前一个问题,我们可能还能先以一个比较大的芯片实现原型,待原型完成再选用大小合适的芯片实现。对于后者,我们需要一个比较精确的预估,我们的设计能跑50M,100M 还是133M?

  首先让我们先来看看Fmax 是如何计算出来的。图(1)是一个通用的模型用来计算FPGA的。我们可以看出,Fmax 受Tsu , Tco , Tlogic 和 Troute 四个参数影响。( 由于使用FPGA 全局时钟,时钟的抖动在这里不考虑)。

1 时钟周期 T = Tco + Tlogic + Troute + Tsu

  时钟频率 Fmax = 1/Tmax

  其中:

  Tco : D 触发器的输出延时

  Tlogic : 组合逻辑延时

  Troute : 布线延时

  Tsu : D 触发器的建立时间  


                              图( 1 ) 时钟周期的计算模型

 

  由图(1)可以看出,在影响Fmax 的四个参数中,由于针对某一个器件Tsu 和Tco 是固定的,因此我们在设计中需要考虑的参数只有两个Tlogic 和Troute.通过良好的设计以及一些如Pipeline 的技巧,我们可以把Tlogic 和Troute 控制在一定的范围内。达到我们所要求的Fmax.

  经验表明一个良好的设计,通常可以将组合逻辑的层次控制在4 层以内,即( Lut Levels 《=4 ) 。而Lut Levels( 组合逻辑的层次 )将直接影响Tlogic 和Troute 的大小。 组合逻辑的层次多,则Tlogic 和Troute 的延时就大,反之, 组合逻辑的层次少,则Tlogic 和Troute 的延时就小。

  让我们回过头来看看Xilinx 和Altera 的FPGA 是如何构成的。是由Logic Cell ( Xilinx )或 Logic Element( Altera )这一种基本结构和连接各个Logic Cell 或Logic Element 的连线资源构成。无论是Logic Cell 还是 Logic Element ,排除其各自的特点,取其共性为一个4 输入的查找表和一个D 触发器。如图(2)所示。而任何复杂的逻辑都是由此基本单元复合而成。图(3)。上一个D 触发器的输出到下一个D 触发器的输入所经过的LUT 的个数就是组合逻辑的层次( Lut Levels )。因此,电路中用于实现组合逻辑的延时就是所有Tlut 的总和。在这里取Lut Levels = 4 。

2, 故   Tlogic = 4 * Tlut  

 

 

                                            图( 2 ) FPGA基本逻辑单元  


                                            图( 3 ) 复杂组合逻辑的实现

 

  解决的 Tlogic 以后,我们来看看Troute 如何来计算。由于Xilinx 和Altera 在走线资源的设计上并不一样,并且Xilinx 没有给出布线延时的模型,因此更难于分析,不过好在业内对布线延时与逻辑延时的统计分析表明, 逻辑延时与布线延时的比值约为1:1 到1:2.由于我们所选用的芯片大量的已经进入0.18um 和0.13um 深亚微米的工艺,因此我们取逻辑延时与布线延时的比值为1:2.

  Troute = 2 * Tlogic        //布线延时时间设定为逻辑延时的两倍

  Tmax = Tco + Tlogic + Troute + Tsu

  = Tco + Tsu + 3 * Tlogic

3, = Tco + Tsu + 12 * Tlut

  下表是我们常用的一些 Xilinx 和Altera 器件的性能估算。我们选取的是各个系列中的最低的速度等级。由于Altera 的APEX ,APEX II 系列器件的不同规模的参数不同,我们选取EP20K400E 和 EP2A15 作代表。

Tsu ( ns )Tco ( ns )Tlut ( ns )Fmax
Spartent II-50.71.30.796 M
Virtex E-60.631.00.47137M
Virtex II-40.370.570.44160M
Virtex II Pro -50.290.400.37193M
APEX E-3 #0.230.321.0179M
APEX II-9##0.330.230.7112M
Stratix -70.0110.2020.527153M
 

  # 以EP20K400E-3 的数据计算得出。

  ## 以 EP2A15-9 的数据计算得出。

4,搜索handbook,不要搜索datasheet

EP4CE15F23C8N pdf, EP4CE15F23C8N description, EP4CE15F23C8N datasheets, EP4CE15F23C8N view ::: ALLDATASHEET :::

(转)关于FPGA器件的工作频率_xuexiaokkk的博客-CSDN博客_fpga工作频率

4-1 时钟树的特性

4-2 PLL特性;Fout_ext;Fout两个参数

5,FPGA输出1ns脉冲

用FPGA能产生1nS脉冲吗? - FPGA论坛-资源最丰富FPGA/CPLD学习论坛 - 21ic电子技术开发论坛

用FPGA能产生1nS的脉冲吗? - FPGA|CPLD|ASIC论坛 - 电子技术论坛 - 广受欢迎的专业电子论坛!

用FPGA能产生1nS脉宽的脉冲吗?【fpga吧】_百度贴吧


http://chatgpt.dhexx.cn/article/Nf6Y1hH4.shtml

相关文章

CNN与RNN的详细介绍

CNN与RNN的介绍 本文主要总结我对李宏毅老师讲的CNN和RNN的理解,通过对比总结各自的优势,同时加深自己对这方面知识的理解。 1、CNN介绍 CNN是一种利用卷积计算的神经网络。它可以通过卷积计算将原像素很大的图片保留主要特征变成很小的像素图片。本文介…

CNN简介

CNN 卷积神经网络是含有卷积层的神经网络,而卷积层则得名于卷积运算。 Filter 在卷积层中,我们会用一个叫做filter的东西扫过一张图片。这些 filter 啊 它们的大小是,3 3 Channel 的 Size。如果今天是彩色图片的话,那就是 RGB 三个 Channel,如果是…

深度学习(六):CNN介绍

深度学习(六):CNN介绍 CNN架构 首先input一张image以后,这张image会通过convolution layer,接下里做max pooling这件事,然后在做convolution,再做max pooling这件事。这个process可以反复无数次…

cnn算法

机器学习算法完整版见fenghaootong-github 卷积神经网络原理(CNN) 卷积神经网络CNN的结构一般包含这几个层: 输入层:用于数据的输入卷积层:使用卷积核进行特征提取和特征映射激励层:由于卷积也是一种线性运算,因此需…

cnn-lstm介绍(2)

1. CNN-LSTM模型。CNN具有注意最明显的特征,因此在特征工程中得到了广泛的应用。LSTM有,按时间顺序扩张的特性,广泛应用于时间序列中。 根据CNN和LSTM股票预测模型的特点 建立了基于CNN的LSTM模型-e模型结构 示意图如图1所示,主…

实例分割模型Mask R-CNN详解:从R-CNN,Fast R-CNN,Faster R-CNN再到Mask R-CNN

Mask R-CNN是ICCV 2017的best paper,彰显了机器学习计算机视觉领域在2017年的最新成果。在机器学习2017年的最新发展中,单任务的网络结构已经逐渐不再引人瞩目,取而代之的是集成,复杂,一石多鸟的多任务网络模型。Mask …

CNN与RNN的区别

从应用方面上来看,我了解到的CNN用到做图像识别比较多,而RNN在做到语言处理多一点,如果拿来比喻的话,CNN如同眼睛一样,正是目前机器用来识别对象的图像处理器。相应地,RNN则是用于解析语言模式的数学引擎&a…

卷积神经网络(CNN)结构详解

一、CNN的基本结构: 1.图像就是输入层 2.接着是CNN特有的卷积层(convolution),卷积层的自带激活函数使用的是ReLU 3.接着是CNN特有的池化层(pooling), 4.卷积层池化层的组合可以在隐藏层中出…

CNN的实现(附代码)

前言 前文已经单独实现了卷积层和池化层,现在来组合这些层,搭建进行手写数字识别的CNN。 这个简单的CNN网络构成如下。 网络的构成是“Convolution - ReLU - Pooling -Affine - ReLU - Affine - Softmax”,我们将它实现为名为SimpleConvNet…

CNN卷积网络简介

CNN卷积网络 CNN卷积网络的结构 输入层: 输入层是3232 RGB图像。 注:有必要计算每一层输出的图片大小。 卷积层: 卷积层的核心在于卷积核与激活函数。   卷积层最主要的作用是寻找与卷积核匹配的特征,因为与卷积核符合(卷积核…

CNN的通俗理解

Agenda 1 卷积神经网络Convolutional Neural Networks,CNN1.1 前言1.2 图像转化成矩阵1.3 卷积核1.4 特征图feature map1.5 激活函数1.6 池化1.7 训练 1 卷积神经网络Convolutional Neural Networks,CNN 1.1 前言 卷积神经网络是针对图像的深度学习框架。 1.2 图像转化成矩阵…

CNN网络详解

分割线----------------------------------   这里更新过一次,在朋友的提醒下,我发现这份代码不是很容易懂。我使用了Pytorch给的官方demo重新实现了LeNet,并做出了详细解释,如果理解下面代码有问题,可以先看我的这篇…

卷积神经网络(CNN)基本概念

一、卷积神经网络基本概念 卷积神经网络包含了一个由卷积层和子采样层构成的特征抽取器。在卷积神经网络的卷积层中,一个神经元只与部分邻层神经元相连接。在CNN的一个卷积层中,通常包含若干个特征平面,每个特征平面都由一些矩形排列的神经元…

CNN简单介绍及基础知识

文章目录 一)卷积神经网络历史沿革 二)CNN简单介绍 三)CNN相关基础知识 前言 在过去的几年里,卷积神经网络(CNN)引起了人们的广泛关注,尤其是因为它彻底改变了计算机视觉领域,它是近年来深度学习能在计算机…

一文读懂目标检测:R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSD

一文读懂目标检测:R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSD 前言 之前我所在的公司七月在线开设的深度学习等一系列课程经常会讲目标检测,包括R-CNN、Fast R-CNN、Faster R-CNN,但一直没有比较好的机会深入(但当你对目标检测…

理解 CNN

理解 CNN 注意:下面提到的图像指位图 目录 理解 CNNCNN人类的视觉原理几个关键层卷积层(fliter、kernel)池化层 (pooling) 激活层(activate)全连接层(Linear) pytorch实现TextCNN卷积传播图解不同视角看CNN 参考 CNN 卷积神经网络-CNN 最擅长的就是图片的处理。它…

【深度学习】CNN算法

一.定义: 卷积神经网络(CNN),是一类包含卷积计算且具有深度结构前馈神经网络,是深度学习(deep learning)的代表算法之一。 卷积神经网络具有表征能力,能够按其阶层结构对输入信息进…

Python CNN卷积神经网络实例讲解,CNN实战,CNN代码实例,超实用

一、CNN简介 1. 神经网络基础 输入层(Input layer),众多神经元(Neuron)接受大量非线形输入讯息。输入的讯息称为输入向量。 输出层(Output layer),讯息在神经元链接中传输、分析、权…

CNN(卷积神经网络)详解

Why CNN 首先回答这样一个问题,为什么我们要学CNN,或者说CNN为什么在很多领域收获成功?还是先拿MNIST来当例子说。MNIST数据结构不清楚的话自行百度。。 我自己实验用两个hidden layer的DNN(全连接深度神经网络)在MNIST上也能取得不错的成绩…

CNN(Convolutional Neural Network)

CNN的基本结构 图中是一个图形识别的CNN模型。可以看出最左边的船的图像就是我们的输入层,计算机理解为输入若干个矩阵,这点和DNN基本相同。 接着是卷积层(Convolution Layer),这个是CNN特有的。卷积层的激活函数使用的是ReLU。我…