Web技术基础

article/2025/9/30 2:04:39

前言

    当我们还没有接触Web时,可能处理的都是静态网页如Html,这个网页的数据都是直接写在标签里写死的,那么如果我们要做类似淘宝的一个网站,数据每天都会更新,那么静态网页就不支持了,就需要从数据库里去拿数据,来用动态网页解决,也就是Web技术。

什么是Web技术呢?

   Web称为网页,该技术分为Web服务器端和Web客户端,Web应用中的每一次信息交换都要涉及客户端和服务端,客户端也就是浏览器和服务器交互的技术称为Web技术。

理解B/S架构

  1.概念

     当我们去开发一个Web应用程序时,如,在线购物,网上银行,用户只需打开一个浏览器,不需要安装任何其他软件,就可以轻松搞定,这种被广泛应用的Web应用程序(Web技术)就是B/S架构。

  2.工作原理

      在B/S架构中,浏览器和服务器采用请求/响应模式进行交互,浏览器通过http协议向web服务器发送一个请求,服务器去数据库拿数据,拿到数据后以html的形式或jsp动态网页的形式响应到浏览器,浏览器进行解析,页面显示。

  

  3.优点

  1. 用户访问简单: 用户不需要安装复杂的软件,只需要一个浏览器即可。
  2. 维护升级快捷 :当系统升级时,只需升级服务器端的代码,最后发送到客户端。
  3. 开发的跨平台性 : 相对于C/S架构而言,它必须安装软件,用户才可以使用,但B/S架构可以很好的做到跨平台的支持。

URL

1. 什么是URL?

   URL被称为统一资源占位符,用于完整的描述网页资源地址的一种标识方法,分为静态资源和动态资源,URL就是网址。

2.URL的组成

  1. 协议 : 一般使用HTTP超文本传输协议,该协议支持简单的请求和响应会话,用来保持浏览器和服务器之间的通信。
  2. 服务器名称或IP地址 :localhost就代表本地的服务器地址,也可以使用IP地址替代,如果是企业级网站可以用域名代替IP地址。
  3. 端口号 : 服务器的端口号,TomCat服务器的端口号是8080。
  4. 路径 : 该Web应用的上下文路径,如: JSP或html等。

示例

     http://localhost:8080/hello.jsp

Http协议

1.GET方法和POST方法

  •  在客户端和服务端之间通过HTTP进行请求/响应时,GET和POST是两个最常用到的方法,其中,GET方法主要用来从指定资源中获取数据,POST方法主要用于向指定资源提交需要处理的数据。

Get方法

  • get请求将数据(用户需要发送给服务器的数据)放在请求的URL中发送

        /test/index.jsp?name1=value&name2=value;

get发送的请求的参数跟在?后面表示,多个参数使用&连接。

使用get发送的格式:

Post方法

  • post请求将数据放在请求体中发送,不会跟在URL后面。

使用post发送的格式: 

post请求的参数写在请求体里 

对比get和post

对比方面        GET方法POST方法
对数据长度的限制传送数据量较小,不能大于2KB传送数据量无限制
数据可见性数据在URL中对所有人都是可见的数据不会显示在URL中
安全性安全性低                安全性高
缓存能被缓存不能被缓存

3.状态码

   在浏览器接收并显示网页前,此网页所在的服务器会返回一个包含HTTP状态码的信息头,用以响应浏览器的请求。

HTTP常见状态码:

状态码及消息描述
200 OK请求成功
302 Found所请求的页面已经转移至新的URL中
400  Bad Request服务器未能理解请求(客户端传递的参数不对等等)
404 Not Found服务器无法找到请求的页面(路径不对)
500 请求未完成(服务器出错)

TomCat服务器

 1.简介

    我们大概已经了解到Web应用的执行原理和一些交互方式,大家也知道服务器中保存着网页或数据等,浏览器是通过请求去拿,那么我们用什么服务器呢?

      这里我用的是Apache旗下的一个Tomcat服务器,是一个免费开源的容器,目前也很流行。

2.下载地址
Apache Tomcat® - Apache Tomcat 8 Software Downloadshttps://tomcat.apache.org/download-80.cgi

3.TomCat目录介绍

/bin存放各种平台下用于启动和停止TomCat的脚本文件(各种指令)
/conf存放TomCat服务器的各种配置文件
/lib存放TomCat服务器所需的jar文件
/logs存放日志文件
/webappsWeb应用的发布目录
/work        存放JSP生成的Servlet

4.TomCat服务器部署Web应用

 1.在webapps目录中,创建Web应用项目

  2.注意Web项目格式

/Web应用的根目录,WEB-INF的上一级
/WEB-INF存放各种资源,注意: 客户端对该目录和子目录都不可以直接访问
/WEB-INF/classes存放Web应用的所有.class文件
/WEB-INF/lib存放jar包
/WEB-INF/web.xmlWeb应用的核心配置文件。

注意: /WEB-INF的上一级用来定义页面,默认访问index.jsp

3.编写Web应用的代码 

4./bin目录下点击startup.bat启动服务器

输入URL显示页面

注意: 我们可以看到上面的地址为url组成地址,http 会自动添加,所以没有显示,librartMange是项目名称,/底下没有页面地址是因为index.jsp动态页面为自动显示。

5./bin目录下点击shutdown.bat关闭服务器

5.使用idea来部署Web应用 

1.新建普通java项目​​​​​​​   

2.项目右击点击Add FrameWork support(添加框架支持)​​​​​​​​​​​​​​         

3.勾选 Web application(部署了一个Web项目)

 4.点击Edit ...部署Tomcat服务器

     

 5. 部署本地下载好的Tomcat

 6.填写路径/部署项目


http://chatgpt.dhexx.cn/article/irtMecHq.shtml

相关文章

web端基本技术点整理

1 WEB端概述 1.1 前端框架演变 https://blog.csdn.net/bjweimengshu/article/details/79563440 1.2 技术概览 https://blog.csdn.net/fighting_no1/article/details/79599806 1.3 学习路线 https://blog.csdn.net/zwjweb/article/details/78704342 https://blog.csdn.net/zwjwe…

数据可视化网页内容自动抓取工具

网页内容提取支持我们对公开的网页信息数据进行提取,如果通过人工对网页数据采集,是一个繁琐的工作,网页内容提取工具通过可视化的操作页面,模拟人工进行网页内容提取,能快速获取整个网站的对应元素。 网页内容提取工具…

抓取网站的5种方法

来自维基百科 Web爬虫(有时也称为蜘蛛)是一种Internet机器人,通常系统地浏览Web索引,以进行Web索引。 Web搜寻器以要访问的URL列表(称为种子)开始。搜寻器访问这些URL时,它会识别页面中的所有超…

如何抓取网页数据

如何抓取网页数据,每当我们在网上找到自己想到的数据,都需要复制粘贴或下载然后一步一步地整理。今天教大家如何快速地免费获取网页数据信息,只需要输入域名点选你需要的数据,软件全自动抓取。支持导出各种格式并且已整理归类。详…

爬取动态网页数据的软件-抓取动态网页数据的工具

爬取动态网页数据,随着时代的进步,互联网的发展,不管是企业还是个人都知道了数据的重要性。今天给大家分享一款免费爬取动态网页数据的软件。只要点点鼠标就能轻松爬取到你想要的数据,不管是导出还是自动发布都支持!详…

工具说明书 - 网页内容抓取工具Web Scraper(一)

Web Scraper,官网自称为排名第一的网页抓取/提取插件,可以安装在Chrome和Firefox上。 安装路径: https://chrome.google.com/webstore/detail/web-scraper-free-web-scra/jnhgnonknehpejjnehehllkliplmbmhn?hlenhttps://chrome.google.com/…

如何进行网页抓取数据??

最近老是做导数据,有时候没有旧库了,我们可以从老网页抓取数据 主要思路:通过把网页转换成doc式的html,然后进行获取元素的值 我来写个案例: 这是目标网页: http://zxjg.yn.gov.cn/zxjg/gongshi?rowIndex1&re…

网页抓取及信息提取(三)

R星校长 第3关:网页数据分析 任务描述 下图是2016年国防科技大学分数线的网页,在浏览器中我们可以看到,各省的最高分、最低分、平均分都整齐地排列自在表格中。一个网页的源代码时常有成百上千行,其中很多代码都是为了布局页面样…

爬虫入门(五)抓取网页数据

前面已经实现了获取整个网页HTML的功能,并且在获取HTML的基础上,加上一些诸如:下载出错自动重试、用户代理、服务器代理、爬取深度、避免重爬、id遍历、链接遍历等进阶功能。而且在处理过程中也初步使用了正则表达式。 但是前面我们获取的HT…

网页抓取数据-网页抓取数据的软件免费

在互联网络的时代,信息如同大海般没有边际。甚至我们获取信息的方法已经发生改变:从传统的翻书查字典,继而变成通过搜索引擎进行检索。我们从信息匮乏的时代一下子走到了信息极大丰富今天。 随着互联网的发展及普及,互联网用户迅速…

使用爬虫抓取网页内容

对于爬虫我们首先想到的是 python,但是对于前端来说我们通常是 node 来写爬虫,去抓取网站的数据而已。 爬虫的基本流程 1、发起请求 使用http库向目标站点发起请求,即发送一个Request,第三方请求库如 request,axios 等…

网页数据抓取-网页实时数据抓取软件

网页数据抓取,随着社会的发展,互联网的普及,不管是企业还是个人都意识到数据的重要性。今天给大家分享一款免费的网页数据抓取软件。只要点点鼠标就能轻松采集你想要的内容不管是导出还是自动发布都支持!详细参考图片!…

网页抓取软件-免费网页自动采集抓取任意内容软件

网页抓取工具,网页抓取工具主要是用来收集数据。这也是网页抓取工具最直接和最常见的用途。由于网页抓取是一个工具是一个软件,程序运行速度极快,而且不会因为做重复的事情而感到疲劳,所以使用数据提取来获取大量的数据就变得非常…

Python网页抓取教程

​— Python网页抓取教程:循序渐进 — 抓取网页入门其实挺简单的。在之前的文章中我们介绍了怎么用C#和JAVA两种方法来抓取网页,这一期给大家介绍一种更容易,也是使用最广泛的一种抓取方法,那就是Python。 说起Python,大家应该并…

网页抓取及信息提取(一)

R星校长 第1关:利用URL获取超文本文件并保存至本地 当我们想要在浏览器中打开一个网页时,需要在浏览器的地址栏中输入该网页的url,例如在地址栏中输入百度搜索网站的首页url:https://www.baidu.com/ ,点击确认后&…

五,网页抓取

五,网页抓取 前言一、Requests库的使用二、定制Requests1.传递URL参数2.定制请求头3.设置超时2.发送post请求 感谢 前言 看完前几章,你可能已经对爬虫有了一个大概了解,接下来让我们深入学习静态网页的抓取。 一、Requests库的使用 在静态网…

网站抓取工具

经常由于某些原因我们需要爬取某一个网站或者直接复制某一个站点,到网上找了很多工具进行测试,试了很多各有各的问题,最终选择了Teleport Ultra,用起来效果很好;具体的操作手册等东西就不在这里说了,网上搜…

网页信息抓取

——看到社区里面好多人都有抓取网页信息的需要,特地把我自己做的DEMO放上来,供大家参考,也希望大家多提意见,共同学习完善这个小程序. 准备工具:Dreamweaver,RegexBuddy 抓取分3步进行: 1)下载网页数据; 2)处理网页得到想要的数据; 3)保存数据 一、下载网页源代码 …

网页抓取 - 完整指南

💂 个人网站:【海拥】【摸鱼游戏】【神级源码资源网】🤟 前端学习课程:👉【28个案例趣学前端】【400个JS面试题】💅 想寻找共同学习交流、摸鱼划水的小伙伴,请点击【摸鱼学习交流群】 目录 介绍什么是网页抓…

使用 Python 进行网页抓取

如果您知道如何做到这一点,那么对于企业和个人使用来说,网络抓取似乎是一种非常有用的节省时间的工具。我们将重点介绍为什么您应该使用 Python 进行网页抓取,并为您提供有关如何完成它的快速教程,包括使用哪些Python 开发工具。 …