【MySQL】检索数据

article/2025/10/22 13:19:42

每日鸡汤 :
—— 若你困于无风之地,我将奏响高空之歌

要和我一起花 10 min 学一会 SQL 嘛? - 当然愿意,我美丽的小姐
(封寝期间练就的自言自语能力越来越炉火纯青了~~~)

前言:

  1. 本实验中所用数据库创建SQL代码以及插入数据SQL代码链接:https://pan.baidu.com/s/1hvcR13JJqx_0VXA3bz3rgQ
    提取码:2333

  2. 本人用来编写运行 SQL 代码的工具是 Navicat ,将 Navicat 转换为命令行模式的方法如下:鼠标右键自己新建的数据库 ,选择命令行界面

在这里插入图片描述

1. select 语句 —— 用于检索所有列

(1)检索单列

从 Product s表中检索名为 prod_name 的列

select prod_name from Products

注意:

  • SQL 语句要以 ;分割
  • SQL 语句不区分大小写
  • SQL 语句忽略空格及空行

(2)检索多个列

select prod_id, prod_name, prod_price from Products;

选择多个列时,列间以逗号分割

(3)检索所有列 : 用 * 表示所有列

select * from Products;

(4)检索不同的值

当我们不希望结果中含有重复值时,用 distinct 关键字修饰

select distinct vend_id from products;

注意: distinct 关键字作用于所有列,不仅仅是紧跟其后的一列,即返回包含指定所有列的不同结果数

(5)限制结果

对这部分功能的实现,不同的数据库具有不同的实现方法,这里以 MySQL 数据库为例。

如果只需返回一定数量的行,使用 limit 字句,如下代码表示限制只返回 5 行

select prod_name from Products limit 5;

也可通过 offset 语句指定从第几行开始向下检索,入下代码表示从第5行开始向下检索 5 行(若不够5行,则有多少返回多少)

注意: MySQL 数据库有第0行

select prod_name from Products limit 5 offset 5;

2. 注释的使用

(1)行内注释

方法一:使用 ---- 后的内容为注释

select prod_name -- 选择产品名
from Products;

方法二: 使用 ## 后的内容为注释

select prod_name #行内注释第二种方法
from Products;

(2)多行注释

使用 /**/

/*测试多行注释*/
select prod_name
from Products;

http://chatgpt.dhexx.cn/article/H74HDEHv.shtml

相关文章

数据库的检索(select)

今天我们学习一下数据库检索语句,由于经常用到,有需求的小伙伴欢迎来查看哦! 一、简单的查询 --获取所以列 select * from T_table --获取部分列 select id, title from T_table 效果展示: 在...之间:Between.. a…

《MySQL必知必会》学习笔记之“数据库的检索”

文章目录 第一章 SQL与MySQL1 数据库基础2 什么是SQL3 客户机—服务器软件4 MySQL工具mysql命令行实用程序(使用最多的实用程序之一)MySQL AdministratorMySQL Query Browser 第二章 使用MySQL1 连接2选择数据库3了解数据库和表4 注释 第三章 检索数据1 …

最全最易理解的数据库查询教程

数据库查询 检索数据表中一个字段的内容检索数据表中多个字段的内容检索数据表中所有字段的内容带限制条件的查询表达式查询使用 WHERE 语句和逻辑表达式使用WHERE语句检索单范围数据使用WHERE语句检索双范围数据使用WHERE语句检索不匹配某条件的语句使用通配符[]模糊匹配数据内…

数据库基础知识——SELECT 语句(检索数据)

SQL使用 SQL(发音为字母S-Q-L或sequel)是结构化查询语言(Structured Query Language)的缩写。SQL是一种专门用来与数据库通信的语言。 SQL 语言特点: SQL 语言不区分大小写;在命令行窗口的 SQL 语句要以…

Python爬虫获取数据保存到数据库中(超级详细,保证一看就会)

1.简介介绍 -网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动…

python数据爬取---简单页面的爬取

1、准备Requests和User Agent python中能实现爬虫功能的库有若干个,而最简单最容易上手的,要数Requests库,它是一个常用的http请求库,首先用pip install requests 进行安装才能使用。 User Agent一般翻译为用户代理,…

Python小姿势 - # 如何使用Python爬取网页数据

如何使用Python爬取网页数据 今天我们来学习一下如何使用Python来爬取网页数据。 首先,我们需要准备一个空白的文件,在文件中输入以下代码: import requests url http://www.baidu.com r requests.get(url) print(r.text) 上面的代码中&…

Python爬取数据

爬虫基本思路<通用> Response 服务器返回响应数据 Preview 预览 Payload 请求参数 Headers 头部信息&#xff1a;请求url地址、请求方式、响应头、请求头 一、数据来源分析 -抓包分析我们想要的数据内容&#xff0c;请求的那个网页 url地址得到。 -选中xhr 找到想要的内容…

手把手教会你用Python爬虫爬取网页数据!!

其实在当今社会&#xff0c;网络上充斥着大量有用的数据&#xff0c;我们只需要耐心的观察&#xff0c;再加上一些技术手段&#xff0c;就可以获取到大量的有价值数据。这里的“技术手段”就是网络爬虫。今天就给大家分享一篇爬虫基础知识和入门教程&#xff1a; 什么是爬虫&a…

python-爬取网站数据

一、安装jar 找到python解释解释器的安装根目录&#xff0c;执行以下命令&#xff0c; pip install requests #如果这个BeautifulSoup这个安装不上&#xff0c;可以换成pip install BeautifulSoup4试试 pip install BeautifulSoup二、肯定就是敲代码了 import urllib.reques…

Python爬虫入门教程!手把手教会你爬取网页数据

其实在当今社会&#xff0c;网络上充斥着大量有用的数据&#xff0c;我们只需要耐心的观察&#xff0c;再加上一些技术手段&#xff0c;就可以获取到大量的有价值数据。这里的“技术手段”就是网络爬虫。今天就给大家分享一篇爬虫基础知识和入门教程&#xff1a; 什么是爬虫?…

Python爬取整个网页的数据

本案例是基于PyCharm开发的&#xff0c;也可以使用idea。 在项目内新建一个python文件Test.py Test.py # 导入urllib下的request模块 import urllib.request # 导入正则匹配包 import re# -*- encoding:utf-8 -*- """ 作者&#xff1a;小思 文件名&#xff1a;…

python数据爬取及数据可视化分析

电影网站数据分析及可视化研究 本博客是一篇集数据爬取&#xff0c;存储为excel表格&#xff0c;将数据可视化为一体的博文&#xff0c;数据爬取采用request等方法&#xff0c;数据可视化会使用图表进行展示&#xff0c;有改进的地方还请大家多多指教。 目录 电影网站数据分析…

Python 爬取网页数据的两种方法

Python 爬取网页数据的两种方法 1. 概述2. 使用pandas 爬取网页数据2.1 打开网页2.2 打开 PyCharm 编译器 3.使用urllib爬取网页数据并写入Excel表3.1 下载 urllib 库3.2 代码如下3.3 运行结果如下 结束语 1. 概述 网络抓取是从任何网站或任何其他信息源中提取数据的过程&…

使用 Python 爬取网页数据

在需要过去一些网页上的信息的时候&#xff0c;使用 Python 写爬虫来爬取十分方便。 1. 使用 urllib.request 获取网页 urllib 是 Python 內建的 HTTP 库, 使用 urllib 可以只需要很简单的步骤就能高效采集数据; 配合 Beautiful 等 HTML 解析库, 可以编写出用于采集网络数据的…

如何用Python爬数据?(一)网页抓取

你期待已久的Python网络数据爬虫教程来了。本文为你演示如何从网页里找到感兴趣的链接和说明文字&#xff0c;抓取并存储到Excel。 &#xff08;由于微信公众号外部链接的限制&#xff0c;文中的部分链接可能无法正确打开。如有需要&#xff0c;请点击文末的“阅读原文”按钮&a…

python爬虫爬取网页数据

前言 python爬取页面内容的编程教程&#xff1a; 1.首先要明确想要爬取的目标。对于网页源信息的爬取首先要获取url&#xff0c;然后定位的目标内容。具体如图所示。 2.先使用基础for循环生成的url信息。具体如图所示。 &#xff08;文末送读者福利&#xff09; 3.然后需要模…

Python爬虫经常爬不到数据,或许你可以看一下小编的这篇文章

原标题&#xff1a;解决Python爬虫爬不到数据 前言&#xff1a; 近期&#xff0c;通过做了一些小的项目&#xff0c;觉得对于Python爬虫有了一定的了解&#xff0c;于是&#xff0c;就对于Python爬虫爬取数据做了一个小小的总结&#xff0c;希望大家喜欢&#xff01; 文章目录…

Python爬虫学习-简单爬取网页数据

疫情宅家无事&#xff0c;就随便写一些随笔吧QwQ… 这是一篇介绍如何用Python实现简单爬取网页数据并导入MySQL中的数据库的文章。主要用到BeautifulSoup requests 和 pymysql。 以网页https://jbk.39.net/mxyy/jbzs/为例&#xff0c;假设我们要爬取的部分数据如下图所示&#…

Python爬取网页数据

都说python爬网页数据方便&#xff0c;我们今天就来试试&#xff0c;python爬取数据到底有多方便 简介 爬取数据&#xff0c;基本都是通过网页的URL得到这个网页的源代码&#xff0c;根据源代码筛选出需要的信息 准备 IDE&#xff1a;pyCharm 库&#xff1a;requests、lxml…