AR/VR工作原理及目前存在的技术问题

article/2025/8/17 22:59:28

是什么使得一个还没有发布任何产品的公司吸引了阿里巴巴8亿美金投资,公司估值高达45亿美金?今天在硅谷大讲堂:硅谷VR/AR技术论坛邀请到了Google资深研究员,9年专注VR/AR技术的美女吴博士,纽约州立大学石溪分校顾险峰教授,一起解析VR/AR的前世金生,Magic leap,Hololens背后的技术和未来挑战。

  这次讲座之余,笔者跟吴博士交流,还得到她的独家授权分享她对于Magic Leap的独到见解。

  (注:本文仅代表个人观点,和公司无关。文章内容都是基于公开信息。)

  (一)Magic Leap和HoloLens是什么?

  Magic Leap和HoloLens都是Augmented Reality (AR)眼镜的代表,有一个相关的概念也很火爆:Virtual Reality (VR)。

  1. AR 和VR眼镜的区别是什么?

  AR眼镜是透明的,让你能同时看到现实世界,和叠加在上面的虚拟成像。应用例子:赶不上Lady Gaga的演唱会?没关系,戴上眼镜她就在你家里开一个。代表产品原型:Magic Leap和微软的HoloLens。

  VR眼镜是不透明的,只显示虚拟世界,把物理世界完全挡住。应用例子:坐在家里也能去大溪地“潜水”。代表产品/原型:三星的Gear VR,谷歌的Cardboard VR,和脸书的Oculus Rift。


Google Cardboard VR


Facebook Oculus VR

  2. Magic Leap和Microsoft为什么要做透明AR眼镜?

  总的来说,这是计算机的必然发展趋势。2007年苹果推出iPhone以来,手机发展太迅猛,用户随时随地带着它,各项使用数据毫无悬念地都在超越PC端。所以,人机交互界面的未来主要在于移动。但现在的手机局限在于:(1)既然要便于携带屏幕就做得小,屏幕小了某些功能就得受限;(2)显示屏幕是平面也就是二维(2D)的,而真实世界是三维(3D)的。

  未来的透明AR眼镜有望实现大突破,就是既能让用户随身携带,又能在她眼前显示超大屏幕,还能把以假乱真的3D内容渲染到她看到的真实世界里(想象你坐在教室里听课,你的老师看起来真实无比,但其实就是在你的眼镜上虚拟出来的)。这样的眼镜大概不会完全取代手机,但毫无疑问潜力无穷。

  跟VR比较,AR的应用场景也更广阔(你总不能带着VR头盔大街上走吧)。本质上,AR是VR的超集,镜片前面一挡就成了VR(前提是视角能做到差不多大)。

  3. 但是戴眼镜好麻烦,为什么不直接像《星球大战》一样在空气中显示全息图(Hologram)?

  Holography是人类的美好愿景,有一天也许能做成,但近期看离实用还早。现在有一些大学实验室在研究裸眼光场显示器(light field display),但需要很复杂笨重昂贵的设备,还只能在安装了的地方用。相对而言,眼镜的可行性要大得多。如果能做成轻便的AR眼镜,将是移动人机交互界面上也是计算机发展的重大革新。

  4. 在VR头盔上加个前视摄像头不也就成AR了吗?为什么非要透明的?

  好问题。说起来AR有两种,一种是前面所说的透明AR(optical see-through)——现实世界是透过镜片直接看到的。另一种就是“视频叠加”(video see-through或者video overlay)——现实世界是通过摄像头捕捉,然后以视频的方式呈现给用户(在上面再渲染一些东西)。事实上,现在手机和平板上已经出现了很多video overlay的应用,比如看星空,求翻译,选家具等。


  那为什么不用VR头盔加摄像头实现这种AR呢?当然可以,现在很多VR头盔都在试探这种做法。它和透明AR相比各有优劣,比如优势在于用视频实现的虚拟和现实的叠加(overlay)要比透明AR简单得多,这也是为什么它已经开始在移动端商用的原因。

  但劣势也可想而知,用户看到的毕竟只是一个2D视频,质量跟眼睛直接看到的世界还是差很大的。而且视频从采集到显示总归是有延迟的,如果跟体感信号不一致的话会造成身体不适。所以不管怎样都还是会有公司前仆后继地去做透明AR的,Magic Leap和Microsoft HoloLens就是例子。

  5. Magic Leap为什么那么牛能融到14亿美金?(最近的Series C融了8亿)

  前面说的应用潜力无穷肯定是助力,同时还有技术,创始人,团队的原因。

  Magic Leap的核心技术是来自华盛顿大学前研究员Brian Schowengerdt的,他导师Eric Seibel是光纤扫描内窥镜(Scanning Fiber Endoscope)的专家。大家都知道内窥镜就是医生们做手术时用来体内成像的,本质是个微小摄像头。Brian呢很聪明地逆转光路把这个技术用到了显示上,这样通过极细的光纤用激光就可以打出彩色的图像(如左图所示)。这个技术十几年前就发表了[2],后来又不断改进,生成了一堆专利。Magic Leap很大程度上是基于Brian的这些专利。(可惜这么重要的技术骨干既没有成为创始人,也没有被列为“核心人员”,不过这是题外话了。)

  那这种技术为什么重要呢?我们后面留成一个专门的问题讲。

  然而光有技术牛是不够的,AR眼镜这种东西,要想做好可想而知是需要投入巨大的人力物力的,软件硬件都得有重大突破。苹果、微软、谷歌这样的公司可能有财力去做这个事,为什么会相信一个初创小企业能做成?我觉得犹太人创始人Rony Abovitz起的作用很大。Rony之前是MAKO Surgical的联合创始人。这家公司知道的人不多,但他们做的东西说出来就吓人了——人是做机器人手术(robotic surgery)的,主要是骨科手术精准定位。听起来科幻吧超前吧,可是人2004年创建,2008年就上市了,2013年以16.5亿美元卖给了Stryker Medical。这种track record他拉不到投资谁能拉到。

  除了创始人兼CEO,团队也不是盖的,计算机视觉部分拉到了Gary Bradski和Jean-Yves Bouguet这样的大牛。合作的Weta Workshop是在好莱坞给电影做特效的,《指环王》就是他们做的。所以Magic Leap当年用来拉投资用的概念视频就像一个微型电影一样。

  6. 现在该回到前面的问题了,为什么Magic Leap的光场显示技术很重要?

  首先,它是基于极细的光纤的,可以让眼镜做得轻薄。但更重要的是因为Brian证明了用这种技术不仅可以投射出一个2D图片,还能显示出一个光场(Light Field)。

  现代的近眼眼镜为了实现3D有两种主要的技术:Stereoscopic(中文翻译成“立体”,但其实不够准确),和Light Field(光场)。Stereoscopic眼镜早已商化(比如所有3D影院里用的,还有市面上几乎所有AR和VR眼镜/原型——包括Microsoft HoloLens,Epson Moverio,Lumus DK-40, Facebook Oculus——都是Stereoscopic)。而Light Field还只在实验室里有雏形(Magic Leap大概是做得最好的一个)。什么是Stereoscopic 3D呢?为什么它不够好还要做Light Field呢?什么又是Light Field呢?

  Stereoscopic 3D是假3D

  3D图像比2D图片多了一个维度,这个维度就是景深(depth),看过3D电影和2D电影的同学知道感官上有明显的区别(只有少数人有双盲症不能看到)。大家知道人眼感知景深有很多机制,包括单眼(monocular)和双眼(binocular)的。单眼能感知的景深信号很多,比如:一个东西遮挡了另一个(occlusion),熟悉的物体的大小(relative size/height),物体移动的变化(远的物体变化慢近的物体变化快,即motion parallax)。在此基础上,双眼的景深信号也非常强烈(所以远古的我们能更好地判断对面的老虎或者鹿到底离多远)。两只眼睛看到同一个场景会有细微差别,这让大脑能通过三角计算(triangulation)来得到物体景深。

  Stereoscopic 3D就是利用这个原理给双眼分别显示不同的图片(如下图),它们很相似,只在水平方向上有细微差别。而这两张图片拍摄的时候,就是用两个并排的相机模拟人眼的位置拍的,现在的3D电影都是基于这个原理。

  但这样的Stereoscopic 3D有什么问题呢?简单讲它会引起用户身体不适如头晕、恶心等。为什么呢?这又涉及到人眼的一个有意思的机制。当我们在看一个现实世界中的物体时,眼睛其实有两种自然反应:

  1)聚焦(Accommodation/Focus)。眼睛的晶状体就像一个凸透镜,它会调节凸度来让那个物体在咱们视网膜上清楚成像。

  2) “会聚”(Convergence)。在每只眼睛聚焦的同时,两只眼球还会有旋转运动来一起指向那个物体。

  很自然地,这两种反射运动在神经上是联接的(neurally coupled),也就是说任意一种运动会自动引发另一种运动。这也意味着,在人眼看真实物体的时候,聚焦和会聚的距离总是相等的(vergence distance = accommodation distance,参见下图A)。

  那么Stereoscopic 3D的问题就来了。因为Stereoscopic的投射距离总是固定的(也就是accommodation distance不变),而图片的disparity会让眼睛会聚在不同的距离(vergence distance)以产生景深3D效果(见下图B)。所以,这两种距离经常是不一致的(vergence distance ≠ accommodation distance),会造成这两种神经相连的运动强行分离(neurally decoupled)。

  从另一个角度讲,在自然世界里,当人眼聚焦并会聚到一个物体时,别的距离的物体应该都是模糊的(下图C)。而在Stereoscopic 3D里,不管人眼聚焦到哪儿,别的距离的物体成像都是清楚的(下图D)。

  这些都不符合自然界人眼的规律,因此大脑会产生混乱,长时间就会引起恶心晕眩等症状[4]。所以Stereoscopic其实是用了一个小伎俩让人能看到3D效果,但它并不是真3D。

  光场(light field)是真3D

  光场显示跟Stereoscopic 3D比的一个很大不同就是它有本事能让人眼聚焦到不同的距离,从而和会聚的距离保持一致。这是最符合人眼观察自然世界规律的做法,因此被称为true-3D。

  可以想象要实现这样的光场显示,并不是那么简单。现在主要是两种方法:空间复用(space multiplexing)和时间复用(time multiplexing)。“空间复用”简单说就是把一个像素当几块用来实现不同的聚焦距离。Nvidia在SIGGRAPH上展示的那个原型就属于这种。这个方法最大的问题就是分辨率大打折扣。我曾经试戴过,基本就是雾里看花。

  “时间复用”呢,就是用高速原件来快速产生不同的聚焦距离,让人眼以为它们是同时产生的。这样的好处就是分辨率不损失。大家知道人眼的速度感知是有限的,很多显示器都是60Hz的,因为人眼能分辨的极限值一般就是60Hz(在某些高速内容比如游戏里可能达到90-120Hz)。这意味着什么呢,如果利用高速显示360Hz,就可以实现6个不同的聚焦距离。而有研究表明用6个聚焦距离加上一种线性混合(linear blending)的渲染算法就基本能实现从约30厘米到无穷远让人眼自然对焦[5]。

  Magic Leap的技术是哪种呢?它最近demo用的哪种技术没有公开,但很有可能还是基于Brian的高速激光光纤扫描(scanning fiber)技术,也是一种时间复用的办法。Brian当年先试过只用一根光纤扫描不同聚焦距离,这样做明显对速度要求太高,后来用一个光纤束(fiber bundle/array),比如16根,每个光纤有一点位置差,然后同时扫描得到不同聚焦距离。

  这样的光场受现实系统的局限肯定不可能是连续的,都是被采样的(downsampled)。但是,即使是这样的光场投射到眼睛里也在理论上是跟真实世界物体光线进入眼睛是一个道理,因此可以实现true-3D。回到最初的问题,这也是为什么Magic Leap的技术重要的原因。现在你也理解了为什么Rony说“HoloLens会让人恶心”了吧?

  (二)透明AR眼镜面临哪些挑战

  Botao同学谈到了一些重要挑战(知乎),比如3D感知和定位,手势识别,眼动跟踪,计算量,电池的问题等,我再补充几个。

  1. 显示

  首先能实现近眼光场显示就很难,现在的公司除了Magic Leap还都是用古老的Stereoscopic 3D的方法,用户戴长了就会眼困头晕恶心。而Magic Leap所用的近眼显示技术理论上成立,现实中也还有很多问题要解决。比如:


  • 系统大小: Magic Leap现在还没有公开过它的原型照片,据报道都还是像一个冰箱一样大的,离可穿戴还有很长的路要走。

  • 光场采样:既然是采样就一定有损失,比如对比度清晰度上,如何才能最优采样?

  • 聚焦和会聚(Accommodation-vergence matching):即便聚焦距离对了,也要保证会聚距离始终与其保持一致。Magic Leap现在的demo视频还只是从单眼摄制的,还没有证据表明他们很好地解决了双眼问题。

  • 室外显示:现在大家的demo都是室内的。当用户在室外时,太阳光强度比显示光高几个数量级。至少镜片需要有自动调光的技术。

  • 捕捉内容:虽然现在可以用计算机图形来做demo,但以后的应用一定会需要相机采集的内容,而光场的拍摄本身还有很多问题要解决。

  • 散热:是一个容易被忽视的问题。当年Google Glass出来的时候有人说用着用着脸就像要烧起来了。现在还没有证据表明HoloLens和Magic Leap的眼镜能长时间保持凉爽。


  2. 镜片


近眼显示有两个关键部件:显示器和镜片。现在大部分的AR眼镜镜片都是基于分光镜(beamsplitter prism)的,比如Google Glass,HoloLens,Epson Moverio。如图左,简单的分光镜就是45度角,把显示器产生的光从眼镜框反射进人眼,也同时让现实世界的光透进来。这样做简单便宜,但是镜片厚。一个以色列公司Lumus做出了一个光导(waveguide)技术让镜片变得很薄,可惜工艺复杂成本太高。后来也有一些便宜的光导产品出现,但质量还远不如Lumus。所以,镜片也还有很长的路要走,不仅要做到视角(Field-of-View)大,还要轻薄,透光性好,在折射/反射显示光的时候也要尽量保持光的属性并做到尽量小的光损失。

  3. 视角(FoV)和分辨率(Resolution)

  视角直接决定了用户体验。现在的很多AR眼镜视角还在20°-40°之间,不少试戴了HoloLens的记者都对它的视角表示失望。而人眼的横向视角双眼差不多有200°,纵向有130°。视角大意味着总的分辨率也要很大才能覆盖,8K*8K才会比较理想。

  4. 遮挡(Occlusion)

  前面说到过单眼的景深感知有一个很重要的信号就是物体之间的遮挡。在用透明AR眼镜时,一个关键问题就是虚拟物体和现实物体之间的遮挡怎么实现。

  如果是现实物体在前面,虚拟物体在后面,还相对比较好办,就是要自动探测现实物体的距离,再计算出虚拟物体哪些部位需要遮挡从而不渲染。但是如果反过来,虚拟物体需要遮挡现实物体,就没那么直接了,因为理论上需要把现实物体的光从眼镜上选择性地滤掉。从Magic Leap最近的demo看,在虚拟物体明亮时,它本身的亮度会自然遮挡后面的真实物体,但当虚拟物体比较暗时,还是有所谓的“鬼影效果”(ghost effect),不符合自然规律,又会让大脑产生混乱。

  如果想实现完全正确的遮挡效果,只能在镜片上做实时的像素级的滤光机制(per-pixel shutter),但现在的技术都还不成熟。

  Magic Leap:以增强现实展示科幻世界

  5. 渲染黑色

  透明AR眼镜现在还没办法渲染黑色。因为它说到底是虚拟光和自然光的叠加。如果画黑色,用户是看不到的,只会看到后面的背景真实物体的光。类似的暗色都有这个问题。

  6. 延迟

  透明AR眼镜还有一个很大的挑战就是延迟。把虚拟物体叠加到真实物体上(比如放一个虚拟水杯到一个真实桌子上)涉及到一系列计算:探测真实物体→计算它的空间位置和方向→计算叠加位置→渲染虚拟物体等。这一切都必须在一眨眼内发生,让用户感觉不到延迟。比如在那个水杯例子里,我们的头可能是一直在动的,随着我们头动,我们看到的那个水杯应该在桌上原来的位置不动才对。而如果系统延迟过大,我们看到的那个水杯的位置可能就总是不对,大脑就又混乱了。这对透明AR挑战尤其大,因为真实世界我们是直接看到的,几乎没有任何延迟,而虚拟物体的渲染得能跟上这个速度才显得自然。在video overlay里,就没有这个问题,因为我们看到的真实世界的视频已经是延迟的了,这样在上面的物体叠加就比较容易跟它保持同步。

  7. 激光

  Magic Leap以前的技术专利是用激光直接打到人眼里,虽然据说很安全,但还没有确切的科学证据。所以用户接受度是个问题,很多人估计一听到这个就望而却步了。

  说了这么多,这下一代移动人机交互界面到底什么时候能做成呢?我个人感觉要做成人民群众喜闻乐见的版本至少要5年时间,也许更长。因为以上列出的这些挑战,每一个都还需要很多努力才能解决。目前它们很多都还不到量变(只是需要优化)的阶段,而是需要大的质的飞跃。所以,路漫漫而修远兮。但既然这是计算机发展的必然方向,拭目以待吧。

  最后大力推荐

  顾险峰教授的Magic Leap核心技术揭秘:http://blog.sciencenet.cn/blog-2472277-954754.html 

  知乎问答:Magic Leap 和微软的 HoloLens 相比有哪些异同点:https://www.zhihu.com/question/36921637 

  参考:

  [1] Brian T. Schowengerdt et al., 3D Displays using Scanning Laser Projection, SID Symposium Digest of Technical Papers

  Volume 43, Issue 1, pages 640–643, June 2012.

  [2] Brian T. Schowengerdt et al., True Three-Dimensional Displays that Allow Viewers to Dynamically Shift Accommodation, Bringing Objects Displayed at Different Viewing Distances Into and Out of Focus, CYBERPSYCHOLOGY & BEHAVIOR Volume 7, Number 6, 2004.

  [3] Xu Liu and Haifeng Li, The Progress of Light-Field 3-D Displays, Information Display, 2014.

  [4] David M. Hoffman et al., Vergence–accommodation conflicts hinder visual performance and cause visual fatigue, J. Vis. 2010.

  [5] K. J. MacKenzie, D. M. Hoffman, and S. J. Watt, Accommodation to Multiple-Focal-Plane Displays: Implications for Improving Stereoscopic Displays and for Accommodation Control, Journal of Vision(2010).


http://chatgpt.dhexx.cn/article/8V3YRfXg.shtml

相关文章

AR行业发展现状:定义、技术原理及商业价值

文章来源:AR工业应用 资料源自网络 《Pokemon Go》这款游戏能够大火,除了一个好的IP之外。AR技术也功不可没。而在AR发光之后,什么是AR?它的技术原理是怎么样的,它能够具备哪些商业价值?希望通过这篇文章&a…

全球首份AR报告第二章:AR的工作原理

这里写链接内容 全球首份AR报告第二章:AR的工作原理 继智能手机、平板电脑之后,虚拟现实(VR)与增强现实(AR)有潜力成为下一个重大通用计算平台。 从当前来看,更多的公司选择从VR领域进行切…

AR Tag介绍

什么是AR Tag? ARTag(AR标签,AR是“增强现实”的意思)是一种基准标记系统,可以理解为其他物体一种参照物,看起来类似二维码,但其编码系统和二维码还是有很大区别,多用在相机标定&am…

增强现实技术(AR)在Web端的技术原理

鉴于Web技术的最新进展,在开发基于AR的解决方案时,它提供了一组新的选择。网络浏览器的最新更新为AR的应用打开了大门。使用Web或本地应用程序构建AR体验更好吗?在本文中,我将简要概述JS在本机应用程序世界中的使用,然后将深入探讨什么是WebAR,它如何工作,如何与本机应用…

AR-HUD相关技术介绍2021-03-23

随着智能驾驶技术的不断革新,越来越多的外部传感器的加入,AR-HUD的功能与效果会得到进一步的提升。 看过电影《极品飞车》、《钢铁侠》的朋友,在享受其紧张刺激的电影情节的过程中,想必对其中展示的HUD技术也会记忆犹新。 什么是H…

AR——增强现实技术

前言:在VR技术引发大众热议的当下,有一种产生已久的技术已然悄悄进入我们的生活。很多人或许听说过这个名字,也亲身体验过这项技术的神奇,却对其原理知之甚少!   下面先让我们看几组图片:     看到…

读《VR虚拟现实与AR增强现实的技术原理与商业应用》

前言 亚马逊的kindle会员可以免费借阅这边书,就借来草草看一下,其实很多时候,看书不是为了学会一些东西,而是科普科普,让自己对某方面的内容大概有一点印象,以后如果有机会或者有了更大的兴趣&#xff0c…

VRRP技术原理

目录 一、VRRP的作用 二、VRRP的工作原理 三、VRRP配置命令 总结: 一、VRRP的作用 VRRP是一种主出口网关的备份,以确保主出口网关的可用性的一种技术 上图是我画一个网络的走向路径图,比较丑,还请不要在意。是每台PC都经过一…

SLAM AR 技术与应用

SLAMAR 技术与应用 一、概述 图像处理领域涉及AR的技术可以抽象为这么一类技术: 通过图像和其他传感器信息计算摄像机的位置和图像内环境三维结构信息,并结合3D渲染提供更自然的人机交互能力。 如图1所示,位置和结构信息一般包括相机机位(…

计算机组成ar什么意思,到底什么是AR技术?

到底什么是AR技术? 时间:2020-03-14 11:04:11 人气:1043 来源: 栏目:AR沙盘定制开发 导读:AR技术综合了计算机仿真技术、计算机图形学和多媒体技术、人工智能技术、计算机网络技术、并行处理技术和多传感器 等电子技术,模拟人的视觉、昕觉和触觉等感官功能,使得用户从感…

3D/VR/AR简易技术原理介绍

3D/VR/AR简易技术原理介绍 3D模型的生成流程 1.信息的采集 物体图片的采集,同一平面上需要360度全方位角度采集 2.查找特征点 找到图片的特征点,作为物体的识别参考,如下图所示: 参考算法:SIFT 3.生成点云图 通过特征点计算相机矩阵,再衍生出360度点云图,如下图:…

初探AR技术

初探AR技术 AR概述概念定义:技术手段:参考实例: AR解决方案AR SDKARKit简介扩展 ARCore简介ARCore 的工作原理优缺点 Vuforia简介优缺点 Wikitude简介 EasyAR简介优缺点 Web AR 总结本文参考 AR概述 概念定义: 增强现实&#xff…

Web与小程序AR技术原理

AR(Augmented Reality增强现实)技术,能够将虚拟数字信息与真实世界信息无缝连接,将虚拟物体带入现实中与用户进行互动。凭借其丰富真实的交互体验,AR技术成为了各大品牌的营销利器。 今天,我们就来简单梳理一下“AR” 究竟是一项什…

AR增强现实技术解读

来源:网络 AR增强现实,是用户对现实世界感知的新技术。 一般认为,AR技术的出现源于虚拟现实技术(Virtual Reality,简称VR)的发展,但二者存在明显的差别。 传统VR技术给予用户一种在虚拟世界中…

【我的渲染技术进阶之旅】【AR研究】第一集—AR的基本原理科普

AR,即增强现实技术,它的出现意味着能将计算机技术带到现实当中来,能使科技更“贴近”人们的现实世界的生活,被誉为可能是代替智能手机的,未来的下一个平台。 作为永远要离未来更近一些的设计师,当然需要了解…

AR技术简谈:相关原理,技术应用以及设备推荐,带你感受虚拟信息与真实世界巧妙融合。

1.AR技术原理 AR技术是一种增强现实技术,利用计算机生成的模拟信息与真实世界进行混合叠加,从而创造出新的虚拟图像。AR技术可以广泛应用于多媒体、智能交互、传感等领域,例如在游戏、教育、医疗、建筑、旅游等领域中,通过AR技术可…

搭建nutz框架实现登录登出

创建web项目 把jar粘贴到lib目录下 全选build path 新建类 类名为MainModule 添加模块类自动扫描 web.xml文件 注意< display-name> 和< parm-name>标签 需要修改 <?xml version"1.0" encoding"UTF-8"?> <web-app xmlns:xsi&q…

使用nutz框架,找不到入口函数,访问Url报404

案例 今天在跟着nutz框架教程去配置demo时&#xff0c;发现访问URL找不到入口函数&#xff0c;出现了Search mapping for path/user/count : NOT Action match 异常&#xff0c;据nutz文档介绍&#xff0c;找不到方法, 一般是At写错或者UserModule的package写错,导致映射不到或…

Nutz框架-- Cnd条件使用原生sql

案例 今天接到一个临时的业务需求&#xff0c;做一个简单的过滤作为临时业务需要使用一两天&#xff0c;于是想到在原有的Cnd条件上加上一个Not like 进行过滤&#xff0c;但是发现现有Cnd条件查询好像满足不了 解决方案 使用Nutz框架中的Static类来实现自定义sql与Cnd.and()拼…

对于nutz框架的学习入门级使用——配置

准备&#xff1a;eclipse&#xff0c;jdk8.0&#xff0c;tomcat8.5&#xff0c;nutz的jar包 第一步&#xff1a;新建一个项目 第二步&#xff1a;导入需要的包&#xff08;数据的jar包也会同时导入&#xff09; 第三步&#xff1a;新建一个Mainmodule的类&#xff0c;并写入如…