数据库基础知识——SELECT 语句(检索数据)

article/2025/10/22 13:10:58

SQL使用

SQL(发音为字母S-Q-L或sequel)是结构化查询语言(Structured Query Language)的缩写。SQL是一种专门用来与数据库通信的语言。

SQL 语言特点:

  • SQL 语言不区分大小写;
  • 在命令行窗口的 SQL 语句要以分号 ; 结束。

其中 SELECT 语句是我们最常用的。

为了下面的展示,我们创建了 crashcourse 数据库:

CREATE DATABASE crashcourse DEFAULT CHARACTER SET utf8 COLLATE utf8_general_ci;

crashcourse 是我自己设置的数据库的名称,下面的使用示例,都是使用这个数据库。

为了下面的展示,我们还需要为 crashcourse 数据库创建一些表和往表中插入一些记录, 相关的 SQL 文件有:

  • 创建表:create.sql
  • 插入数据:populate.sql
    在这里插入图片描述

一、检索数据(SELECT 语句)

1. 检索单个列

select prod_name from products;

在这里插入图片描述

2. 检索多个列

select prod_id, prod_name, prod_price from products;

在这里插入图片描述

3. 检索所有列

select * from products;

在这里插入图片描述

4. 检索不同的行

4.1 返回所有匹配的行

select vend_id from products;

在这里插入图片描述
可以看到默认会返回所有的行,其中有些行的 vend_id 的值是相同的,假设我们只想返回 vend_id 的值不同的行,可以使用:

4.2 只返回字段值不同的行

select distinct vend_id from products;

在这里插入图片描述
DISTINCT 关键字,它必须直接放在列名的前面。

不能部分使用DISTINCT,如果给出SELECT DISTINCT vend_id, prod_price,除非指定的两个列的值都相同,否则所有行都将被检索出来。也就是说,只有这两条记录的两个列的值都是相同的,才认为这两条记录是相同的,这时候 DISTINCT 关键字才会去除其中的一条记录。如下所示:
在这里插入图片描述

使用 distinct 关键字:

在这里插入图片描述

5. 限制结果

select prod_name from products limit 5;

在这里插入图片描述

LIMIT 5指示MySQL返回不多于5行。

为得出下一个5行,可指定要检索的开始行和行数,如下所示:

select prod_name from products limit 5, 5;

在这里插入图片描述

第一个数为开始位置的索引(MySQL中记录的索引从0开始),第二个数为要检索的行数。所以,上面指的是从第6行开始(包括第6行),返回5行记录。

带一个值的 LIMIT 总是从第一行开始,给出的数为返回的行数。带两个值的 LIMIT 可以指定从行号为第一个值的位置开始。

MySQL 5支持LIMIT的另一种替代语法。LIMIT 4 OFFSET 3 意为从行3开始取4行,就像LIMIT 3, 4一样。

6. 使用完全限定的表名

select products.prod_name from crashcourse.products;

在这里插入图片描述

等价于:

select prod_name from products;

但有一些情形需要完全限定列名和表名。


http://chatgpt.dhexx.cn/article/mXAKgsCa.shtml

相关文章

Python爬虫获取数据保存到数据库中(超级详细,保证一看就会)

1.简介介绍 -网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动…

python数据爬取---简单页面的爬取

1、准备Requests和User Agent python中能实现爬虫功能的库有若干个,而最简单最容易上手的,要数Requests库,它是一个常用的http请求库,首先用pip install requests 进行安装才能使用。 User Agent一般翻译为用户代理,…

Python小姿势 - # 如何使用Python爬取网页数据

如何使用Python爬取网页数据 今天我们来学习一下如何使用Python来爬取网页数据。 首先,我们需要准备一个空白的文件,在文件中输入以下代码: import requests url http://www.baidu.com r requests.get(url) print(r.text) 上面的代码中&…

Python爬取数据

爬虫基本思路<通用> Response 服务器返回响应数据 Preview 预览 Payload 请求参数 Headers 头部信息&#xff1a;请求url地址、请求方式、响应头、请求头 一、数据来源分析 -抓包分析我们想要的数据内容&#xff0c;请求的那个网页 url地址得到。 -选中xhr 找到想要的内容…

手把手教会你用Python爬虫爬取网页数据!!

其实在当今社会&#xff0c;网络上充斥着大量有用的数据&#xff0c;我们只需要耐心的观察&#xff0c;再加上一些技术手段&#xff0c;就可以获取到大量的有价值数据。这里的“技术手段”就是网络爬虫。今天就给大家分享一篇爬虫基础知识和入门教程&#xff1a; 什么是爬虫&a…

python-爬取网站数据

一、安装jar 找到python解释解释器的安装根目录&#xff0c;执行以下命令&#xff0c; pip install requests #如果这个BeautifulSoup这个安装不上&#xff0c;可以换成pip install BeautifulSoup4试试 pip install BeautifulSoup二、肯定就是敲代码了 import urllib.reques…

Python爬虫入门教程!手把手教会你爬取网页数据

其实在当今社会&#xff0c;网络上充斥着大量有用的数据&#xff0c;我们只需要耐心的观察&#xff0c;再加上一些技术手段&#xff0c;就可以获取到大量的有价值数据。这里的“技术手段”就是网络爬虫。今天就给大家分享一篇爬虫基础知识和入门教程&#xff1a; 什么是爬虫?…

Python爬取整个网页的数据

本案例是基于PyCharm开发的&#xff0c;也可以使用idea。 在项目内新建一个python文件Test.py Test.py # 导入urllib下的request模块 import urllib.request # 导入正则匹配包 import re# -*- encoding:utf-8 -*- """ 作者&#xff1a;小思 文件名&#xff1a;…

python数据爬取及数据可视化分析

电影网站数据分析及可视化研究 本博客是一篇集数据爬取&#xff0c;存储为excel表格&#xff0c;将数据可视化为一体的博文&#xff0c;数据爬取采用request等方法&#xff0c;数据可视化会使用图表进行展示&#xff0c;有改进的地方还请大家多多指教。 目录 电影网站数据分析…

Python 爬取网页数据的两种方法

Python 爬取网页数据的两种方法 1. 概述2. 使用pandas 爬取网页数据2.1 打开网页2.2 打开 PyCharm 编译器 3.使用urllib爬取网页数据并写入Excel表3.1 下载 urllib 库3.2 代码如下3.3 运行结果如下 结束语 1. 概述 网络抓取是从任何网站或任何其他信息源中提取数据的过程&…

使用 Python 爬取网页数据

在需要过去一些网页上的信息的时候&#xff0c;使用 Python 写爬虫来爬取十分方便。 1. 使用 urllib.request 获取网页 urllib 是 Python 內建的 HTTP 库, 使用 urllib 可以只需要很简单的步骤就能高效采集数据; 配合 Beautiful 等 HTML 解析库, 可以编写出用于采集网络数据的…

如何用Python爬数据?(一)网页抓取

你期待已久的Python网络数据爬虫教程来了。本文为你演示如何从网页里找到感兴趣的链接和说明文字&#xff0c;抓取并存储到Excel。 &#xff08;由于微信公众号外部链接的限制&#xff0c;文中的部分链接可能无法正确打开。如有需要&#xff0c;请点击文末的“阅读原文”按钮&a…

python爬虫爬取网页数据

前言 python爬取页面内容的编程教程&#xff1a; 1.首先要明确想要爬取的目标。对于网页源信息的爬取首先要获取url&#xff0c;然后定位的目标内容。具体如图所示。 2.先使用基础for循环生成的url信息。具体如图所示。 &#xff08;文末送读者福利&#xff09; 3.然后需要模…

Python爬虫经常爬不到数据,或许你可以看一下小编的这篇文章

原标题&#xff1a;解决Python爬虫爬不到数据 前言&#xff1a; 近期&#xff0c;通过做了一些小的项目&#xff0c;觉得对于Python爬虫有了一定的了解&#xff0c;于是&#xff0c;就对于Python爬虫爬取数据做了一个小小的总结&#xff0c;希望大家喜欢&#xff01; 文章目录…

Python爬虫学习-简单爬取网页数据

疫情宅家无事&#xff0c;就随便写一些随笔吧QwQ… 这是一篇介绍如何用Python实现简单爬取网页数据并导入MySQL中的数据库的文章。主要用到BeautifulSoup requests 和 pymysql。 以网页https://jbk.39.net/mxyy/jbzs/为例&#xff0c;假设我们要爬取的部分数据如下图所示&#…

Python爬取网页数据

都说python爬网页数据方便&#xff0c;我们今天就来试试&#xff0c;python爬取数据到底有多方便 简介 爬取数据&#xff0c;基本都是通过网页的URL得到这个网页的源代码&#xff0c;根据源代码筛选出需要的信息 准备 IDE&#xff1a;pyCharm 库&#xff1a;requests、lxml…

Python爬虫爬取数据

我是Python小白&#xff0c;我会用比较通俗易懂的方法告诉你如何去爬取数据。 一开始&#xff0c;我们需要pycharm&#xff08;也就是我们编代码的工具&#xff09;&#xff0c;其次我们需要打开我们需要爬取数据的网页&#xff0c;我以鞋子为例。 那么&#xff0c;接下来就开…

如何使用Python爬虫抓取数据?

Python爬虫应用十分广泛&#xff0c;无论是各类搜索引擎&#xff0c;还是日常数据采集&#xff0c;都需要爬虫的参与。其实爬虫的基本原理很简单&#xff0c;今天小编就教大家如何使用Python爬虫抓取数据&#xff0c;感兴趣的小伙伴赶紧看下去吧&#xff01; 工具安装 首先需要…

Python爬虫:高效采集数据的几种方法

作为互联网时代的新生力量&#xff0c;爬虫技术已经成为了各行各业不可或缺的一环。那么&#xff0c;如何高效地获取网络数据呢&#xff1f;本文将从以下十个方面逐步分析讨论。 一、基于HTTP协议的爬虫 HTTP协议是目前互联网上使用最广泛的协议&#xff0c;基于此协议的爬虫…

unity3d 收费模式_unity3d中的访客模式

unity3d 收费模式 抽象 (Abstract) Game development as a discipline is challenging on its own compared to traditional software development. The ability to solve performance-related, architectural and other challenges is often the key to success in the field.…