1. 首页 / 百科

爬虫软件是干什么的 Python爬虫入门教程

其实在当今社会,网络上充斥着大量有用的数据,我们只需要耐心的观察,再加上一些技术手段,就可以获取到大量的有价值数据。这里的“技术手段”就是网络爬虫。今天就给大家分享一篇爬虫基础知识和入门教程:

什么是爬虫软件?

爬虫软件就是自动获取网页内容的程序,例如搜索引擎,Google,Baidu 等,每天都运行着庞大的爬虫系统,从全世界的网站中爬虫数据,供用户检索时使用。

爬虫流程

其实把网络爬虫抽象开来看,它无外乎包含如下几个步骤

  • 模拟请求网页。模拟浏览器,打开目标网站。
  • 获取数据。打开网站之后,就可以自动化的获取我们所需要的网站数据。
  • 保存数据。拿到数据之后,需要持久化到本地文件或者数据库等存储设备中。

那么我们该如何使用 Python 来编写自己的爬虫程序呢,在这里我要重点介绍一个 Python 库:Requests。

Requests 使用

Requests 库是 Python 中发起 HTTP 请求的库,使用非常方便简单。

模拟发送 HTTP 请求

发送 GET 请求

当我们用浏览器打开豆瓣首页时,其实发送的最原始的请求就是 GET 请求

import requestsres = requests.get('http://www.douban.com')print(res)print(type(res))>>><Response [200]><class 'requests.models.Response'>

可以看到,我们得到的是一个 Response 对象

如果我们要获取网站返回的数据,可以使用 text 或者 content 属性来获取

text:是以字符串的形式返回数据

content:是以二进制的方式返回数据

print(type(res.text))print(res.text)>>><class 'str'> <!DOCTYPE HTML><html lang="zh-cmn-Hans" class=""><head><meta charset="UTF-8"><meta name="google-site-verification" content="ok0wCgT20tBBgo9_zat2iAcimtN4Ftf5ccsh092Xeyw" /><meta name="description" content="提供图书、电影、音乐唱片的推荐、评论和价格比较,以及城市独特的文化生活。"><meta name="keywords" content="豆瓣,广播,登陆豆瓣">.....

发送 POST 请求

对于 POST 请求,一般就是提交一个表单

r = requests.post('http://www.xxxx.com', data={"key""value"})

data 当中,就是需要传递的表单信息,是一个字典类型的数据。

header 增强

对于有些网站,会拒绝掉没有携带 header 的请求的,所以需要做一些 header 增强。比如:UA,Cookie,host 等等信息。

header = {"User-Agent""Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36",         "Cookie""your cookie"}res = requests.get('http://www.xxx.com', headers=header)

解析 HTML

现在我们已经获取到了网页返回的数据,即 HTML 代码,下面就需要解析 HTML,来提取其中有效的信息。

BeautifulSoup

BeautifulSoup 是 Python 的一个库,最主要的功能是从网页解析数据。

from bs4 import BeautifulSoup  # 导入 BeautifulSoup 的方法# 可以传入一段字符串,或者传入一个文件句柄。一般都会先用 requests 库获取网页内容,然后使用 soup 解析。soup = BeautifulSoup(html_doc,'html.parser')  # 这里一定要指定解析器,可以使用默认的 html,也可以使用 lxml。print(soup.prettify())  # 按照标准的缩进格式输出获取的 soup 内容。

BeautifulSoup 的一些简单用法

print(soup.title)  # 获取文档的 titleprint(soup.title.name)  # 获取 title 的 name 属性print(soup.title.string)  # 获取 title 的内容print(soup.p)  # 获取文档中第一个 p 节点print(soup.p['class'])  # 获取第一个 p 节点的 class 内容print(soup.find_all('a'))  # 获取文档中所有的 a 节点,返回一个 listprint(soup.find_all('span', attrs={'style'"color:#ff0000"}))  # 获取文档中所有的 span 且 style 符合规则的节点,返回一个 list

具体的用法和效果,我会在后面的实战中详细说明。

XPath 定位

XPath 是 XML 的路径语言,是通过元素和属性进行导航定位的。几种常用的表达式

表达式含义node选择 node 节点的所有子节点/从根节点选取//选取所有当前节点.当前节点..父节点@属性选取text()当前路径下的文本内容

一些简单的例子

xpath('node')  # 选取 node 节点的所有子节点xpath('/div')  # 从根节点上选取 div 元素xpath('//div')  # 选取所有 div 元素xpath('./div')  # 选取当前节点下的 div 元素xpath('//@id')  # 选取所有 id 属性的节点

当然,XPath 非常强大,但是语法也相对复杂,不过我们可以通过 Chrome 的开发者工具来快速定位到元素的 xpath,如下图

得到的 xpath 为

//*[@id="anony-nav"]/div[1]/ul/li[1]/a

在实际的使用过程中,到底使用 BeautifulSoup 还是 XPath,完全取决于个人喜好,哪个用起来更加熟练方便,就使用哪个。

爬虫实战:爬取豆瓣海报

我们可以从豆瓣影人页,进入都影人对应的影人图片页面,比如以刘涛为例子,她的影人图片页面地址为

https://movie.douban.com/celebrity/1011562/photos/

下面我们就来分析下这个网页

目标网站页面分析

注意:网络上的网站页面构成总是会变化的,所以这里你需要学会分析的方法,以此类推到其他网站。正所谓授人以鱼不如授人以渔,就是这个原因。

Chrome 开发者工具

Chrome 开发者工具(按 F12 打开),是分析网页的绝佳利器,一定要好好使用。

我们在任意一张图片上右击鼠标,选择“检查”,可以看到同样打开了“开发者工具”,而且自动定位到了该图片所在的位置

可以清晰的看到,每张图片都是保存在 li 标签中的,图片的地址保存在 li 标签中的 img 中。

知道了这些规律后,我们就可以通过 BeautifulSoup 或者 XPath 来解析 HTML 页面,从而获取其中的图片地址。

代码编写

我们只需要短短的几行代码,就能完成图片 url 的提取

import requestsfrom bs4 import BeautifulSoup url = 'https://movie.douban.com/celebrity/1011562/photos/'res = requests.get(url).textcontent = BeautifulSoup(res, "html.parser")data = content.find_all('div', attrs={'class''cover'})picture_list = []for d in data:    plist = d.find('img')['src']    picture_list.append(plist)print(picture_list)>>>['https://img1.doubanio.com/view/photo/m/public/p2564834267.webp''https://img1.doubanio.com/view/photo/m/public/p860687617.webp''https://img1.doubanio.com/view/photo/m/public/p2174001857.webp''https://img1.doubanio.com/view/photo/m/public/p1563789129.webp''https://img3.doubanio.com/view/photo/m/public/p2363429946.webp''https://img1.doubanio.com/view/photo/m/public/p2382591759.webp''https://img3.doubanio.com/view/photo/m/public/p2363269182.webp''https://img1.doubanio.com/view/photo/m/public/p1959495269.webp''https://img3.doubanio.com/view/photo/m/public/p2356638830.webp''https://img3.doubanio.com/view/photo/m/public/p1959495471.webp''https://img3.doubanio.com/view/photo/m/public/p1834379290.webp''https://img3.doubanio.com/view/photo/m/public/p2325385303.webp''https://img3.doubanio.com/view/photo/m/public/p2361707270.webp''https://img3.doubanio.com/view/photo/m/public/p2325385321.webp''https://img3.doubanio.com/view/photo/m/public/p2196488184.webp''https://img1.doubanio.com/view/photo/m/public/p2186019528.webp''https://img1.doubanio.com/view/photo/m/public/p2363270277.webp''https://img3.doubanio.com/view/photo/m/public/p2325240501.webp''https://img1.doubanio.com/view/photo/m/public/p2258657168.webp''https://img1.doubanio.com/view/photo/m/public/p2319710627.webp''https://img3.doubanio.com/view/photo/m/public/p2319710591.webp''https://img3.doubanio.com/view/photo/m/public/p2311434791.webp''https://img1.doubanio.com/view/photo/m/public/p2363270708.webp''https://img3.doubanio.com/view/photo/m/public/p2258657185.webp''https://img3.doubanio.com/view/photo/m/public/p2166193915.webp''https://img3.doubanio.com/view/photo/m/public/p2363265595.webp''https://img3.doubanio.com/view/photo/m/public/p2312085755.webp''https://img3.doubanio.com/view/photo/m/public/p2311434790.webp''https://img3.doubanio.com/view/photo/m/public/p2276569205.webp''https://img1.doubanio.com/view/photo/m/public/p2165332728.webp']

可以看到,是非常干净的列表,里面存储了海报地址。
但是这里也只是一页海报的数据,我们观察页面发现它有好多分页,如何处理分页呢。

分页处理

我们点击第二页,看看浏览器 url 的变化

https://movie.douban.com/celebrity/1011562/photos/?type=C&start=30&sortby=like&size=a&subtype=a

发现浏览器 url 增加了几个参数

再点击第三页,继续观察 url

https://movie.douban.com/celebrity/1011562/photos/?type=C&start=60&sortby=like&size=a&subtype=a

通过观察可知,这里的参数,只有 start 是变化的,即为变量,其余参数都可以按照常理来处理

同时还可以知道,这个 start 参数应该是起到了类似于 page 的作用,start = 30 是第二页,start = 60 是第三页,依次类推,最后一页是 start = 420。

于是我们处理分页的代码也呼之欲出了

首先将上面处理 HTML 页面的代码封装成函数

def get_poster_url(res):    content = BeautifulSoup(res, "html.parser")    data = content.find_all('div', attrs={'class''cover'})    picture_list = []    for d in data:        plist = d.find('img')['src']        picture_list.append(plist)    return picture_list

然后我们在另一个函数中处理分页和调用上面的函数

def fire():    page = 0    for i in range(045030):        print("开始爬取第 %s 页" % page)        url = 'https://movie.douban.com/celebrity/1011562/photos/?type=C&start={}&sortby=like&size=a&subtype=a'.format(i)        res = requests.get(url).text        data = get_poster_url(res)        page += 1

此时,我们所有的海报数据都保存在了 data 变量中,现在就需要一个下载器来保存海报了

def download_picture(pic_l):    if not os.path.exists(r'picture'):        os.mkdir(r'picture')    for i in pic_l:        pic = requests.get(i)        p_name = i.split('/')[7]        with open('picture\\' + p_name, 'wb'as f:            f.write(pic.content)

再增加下载器到 fire 函数,此时为了不是请求过于频繁而影响豆瓣网的正常访问,设置 sleep time 为1秒

def fire():    page = 0    for i in range(045030):        print("开始爬取第 %s 页" % page)        url = 'https://movie.douban.com/celebrity/1011562/photos/?type=C&start={}&sortby=like&size=a&subtype=a'.format(i)        res = requests.get(url).text        data = get_poster_url(res)        download_picture(data)        page += 1        time.sleep(1)

下面就执行 fire 函数,等待程序运行完成后,当前目录下会生成一个 picture 的文件夹,里面保存了我们下载的所有海报

核心代码讲解

下面再来看下完整的代码

import requestsfrom bs4 import BeautifulSoupimport timeimport osdef fire():    page = 0    for i in range(045030):        print("开始爬取第 %s 页" % page)        url = 'https://movie.douban.com/celebrity/1011562/photos/?type=C&start={}&sortby=like&size=a&subtype=a'.format(i)        res = requests.get(url).text        data = get_poster_url(res)        download_picture(data)        page += 1        time.sleep(1)def get_poster_url(res):    content = BeautifulSoup(res, "html.parser")    data = content.find_all('div', attrs={'class''cover'})    picture_list = []    for d in data:        plist = d.find('img')['src']        picture_list.append(plist)    return picture_listdef download_picture(pic_l):    if not os.path.exists(r'picture'):        os.mkdir(r'picture')    for i in pic_l:        pic = requests.get(i)        p_name = i.split('/')[7]        with open('picture\\' + p_name, 'wb'as f:            f.write(pic.content)if __name__ == '__main__':    fire()

fire 函数

这是一个主执行函数,使用 range 函数来处理分页。

  • range 函数可以快速的创建整数列表,在 for 循环时及其好用。函数中的0代表从0开始计数,450代表一直迭代到450,不包含450,30代表步长,即每次递增的数字间隔。range(0, 450, 30),依次会输出:0,30,60,90 …
  • format 函数,是一种字符串格式化方式
  • time.sleep(1) 即为暂停1秒钟

get_poster_url 函数

这个就是解析 HTML 的函数,使用的是 BeautifulSoup

  • 通过 find_all 方法查找所有 class 为 “cover” 的 div 元素,返回的是一个列表
  • 使用 for 循环,循环上一步拿到的列表,取出 src 的内容,append 到列表中
  • append 是列表的一个方法,可以在列表后面追加元素

download_picture 函数

简易图片下载器

  • 首先判断当前目录下是否存在 picture 文件夹,os.path.exists
  • os 库是非常常用用来操作系统相关的命令库,os.mkdir 就是创建文件夹
  • split 用于切割字符串,取出角标为7的元素,作为存储图片的名称
  • with 方法用来快速打开文件,打开的进程可以自行关闭文件句柄,而不再需要手动执行 f.close() 关闭文件

总结

本节讲解了爬虫的基本流程以及需要用到的 Python 库和方法,并通过一个实际的例子完成了从分析网页,到数据存储的全过程。其实爬虫,无外乎模拟请求,解析数据,保存数据。

当然有的时候,网站还会设置各种反爬机制,比如 cookie 校验,请求频度检查,非浏览器访问限制,JS 混淆等等,这个时候就需要用到反反爬技术了,比如抓取 cookie 放到 headers 中,使用代理 IP 访问,使用 Selenium 模拟浏览器等待方式。

由于本课程不是专门的爬虫课,这些技能就留待你自己去探索挖掘啦。

相关推荐

  • 两个表格怎么匹配相同数据 excel表格筛选相同数据公式

    两个表格怎么匹配相同数据 excel表格筛选相同数据公式

    两个表格怎么匹配相同数据 excel表格筛选相同数据公式,数据,公式,表格筛选,名称,函数,输入,点击,函数参数,首先在两个Excel表格中分列列出名称和数据列,需要将表格2中的数据根据名称匹配到表格1的数据中。 点击“fx”插入函数并选择“vlookup”函数。 在函数参数中按下图的格式输入数据,转换成公式为:=VLOOKUP(A2,$D$2:$E$8,2,0) 点击确定并下拉公式即可根据表格2中的数据对应表格1的名称输入数据。...

  • 电脑怎么格式化清除所有数据?

    电脑怎么格式化清除所有数据?

    电脑怎么格式化清除所有数据?,格式化,清除,数据,电脑怎么,点击,备份,主页,控制,电脑怎么格式化清除所有数据? 1.在电脑空白处,单击鼠标右键,出现菜单后,点击个性化 2.进入个性化页面后,点击控制面板主页 3.进入控制面板主页后,点击 备份和还原 选项,打开 4.进入备份和还原页面后,点击 恢复系统设置或计算机选项,就可以格式化清除电脑所有数据了。...

  • 多组数据怎么做一个折线图 excel多组数据折线图制作方

    多组数据怎么做一个折线图 excel多组数据折线图制作方

    多组数据怎么做一个折线图 excel多组数据折线图制作方法,数据,折线图,制作方法,系列,对话框,单击,选择,文本框,excel多组数据折线图制作方法 1、将所需绘制折线图的数据输入到excel中去。这里以两组数据为例。 2、选择“插入”菜单,单击“折线图”,在“二维折线图”中选择第一个。 3、在excel自动生成的空白折线图区域任意位置鼠标右键单击一下,在弹出下拉菜单中单击“选择数据”。 4、在弹出的对话框中单击“图例项(系列)”下的“添加”按钮。 5、在弹出的...

  • 数据分析走势图怎么做 excel数据分析走势图制作方法

    数据分析走势图怎么做 excel数据分析走势图制作方法

    数据分析走势图怎么做 excel数据分析走势图制作方法,数据分析,制作方法,怎么做,选择,趋势,图表,布局,数据,excel数据分析走势图制作方法 1、首先打开excel表格,把基础数据汇总好。 2、全选需要制作趋势图的数据,在菜单栏点击插入选择折线图。 3、选择以后在图表布局里选择一个需要的图表模板。 4、选择布局1(或者根据所要表达的内容选择)。 5、选择以后能看到的结果图如下,箭头所示的位置,分别是标题和图例 6、图表做好以后,鼠标右键点击折线图,在出现的选...

  • excel数据分析工具在哪里?怎么调出来?

    excel数据分析工具在哪里?怎么调出来?

    excel数据分析工具在哪里?怎么调出来?,分析工具,数据,开发工具,菜单栏,数据分析,选项,选择,选项卡,excel2016数据分析位于excel的开发工具选项卡的下方进行设置即可,只需要进入后,找到下方的加载项进入后选择分析工具库选项卡并确定,数据分析就会出现在菜单栏右上方了。具体查找步骤如下: 1、首先,打开Excel2016,然后找到菜单栏上方的开发工具选项; 2、接着,找到开发工具下方的加载项选项,然后点击进入; 3、点击后,会出现如图所示的界面,选择分...

  • 饥荒钢丝棉怎么获得 钢丝棉获取方法

    饥荒钢丝棉怎么获得 钢丝棉获取方法

    饥荒钢丝棉怎么获得 钢丝棉获取方法,获取,方法,饥荒,钢羊,可疑,脚趾,玩家,饥荒游戏,饥荒钢丝棉获取方法1、我们进入饥荒游戏,然后地表随机生成可疑的土堆,点土堆进行调查2、有的土堆调查后得到脚趾印,注意观察脚趾指向的方向,沿此方向前行,可看到一个新的可疑土堆,调查后继续往前走,以此类推。3、调查到最后一个脚印时,玩家会收到提示—野兽就在附近。4、调查的结果多种多样,有时候是大象,有时候是座狼王,还有时候是钢羊,看到可疑土堆就调查,总会遇到钢羊的。5、用火把烧一下...

  • excel大写金额自动生成函数公式

    excel大写金额自动生成函数公式

    excel大写金额自动生成函数公式,公式,金额,方法,生成函数,选择,数字,格式,转换成,处理报销单、财务信息等时。,我们经常需要快速将小写金额转换成大写金额。如果我们手动输入,那就太麻烦了。今天我就分享几个快速处理的小技巧。 方法1:使用自定义格式。 我们可以选择数据,然后右键单击并设置单元格格式。 然后在设置单元格格式中,选择数字,选择特殊,选择中文大写数字,转换就成功了。 方法二:我们用NUMBERSTRING公式法。 我们在B2单元格中输入公式: =NUM...

  • 原神行秋怎么获得 行秋获取方式

    原神行秋怎么获得 行秋获取方式

    原神行秋怎么获得 行秋获取方式,获取,点击,祈愿,上方,概率,换行,选择,兑换,1、进入原神游戏后点击上方的祈愿按钮。 2、进行祈愿有概率获得行秋。 3、也可以选择尘辉兑换来兑换行秋。 4、选择行秋。 5、点击兑换即可。...

  • 原神无相元素位置 图解

    原神无相元素位置 图解

    原神无相元素位置 图解,元素,位置,位置分享,之风,之雷,怪物,前往,玩家,原神无相元素位置在那里?下面给大家大家带来的是原神无相元素位置分享。 原神无相元素位置 原神无相元素就是地图中的无相之岩、无相之风、无相之水等怪物,玩家可以前往下图位置找到无相之雷。...

  • 公众号二维码在哪里看 微信公众号二维码获取方法

    公众号二维码在哪里看 微信公众号二维码获取方法

    公众号二维码在哪里看 微信公众号二维码获取方法,二维码,获取,方法,微信公众号,公众号二维码,图标,公众号,登录,微信公众号二维码获取方法 1、登录微信公众平台页面。 2、登录后鼠标移到右上角公众号图标上,点下拉菜单中的账号详情。 3、进入该页面,点公众号图标下的二维码。 4、点第一个下载链接图标即可获取二维码。...

  • mid函数的使用方法 一文详解mid函数

    mid函数的使用方法 一文详解mid函数

    mid函数的使用方法 一文详解mid函数,函数,输入,使用方法,数字,字符串,文本,空值,获取,mid函数是excel中非常好用的函数,可以帮助我们轻松获取某个单元格中的部分数据。那如何来使用它呢?下面就来详细了解一下。 1、mid函数的语法 mid函数的功能是从文本字符串中指定的起始位置返回指定长度的字符。它总共有三个参数,分别是text、start_num、num_chars。参数的详细用法 text:可以通过是直接输入的文本字符串,也可以是引用某个单元格的信...

  • 怎样用rank函数排名 Excel排位函数RANK使用方法

    怎样用rank函数排名 Excel排位函数RANK使用方法

    怎样用rank函数排名 Excel排位函数RANK使用方法,函数,排位,使用方法,输入,右下角,光标,单元,美元,怎样用rank函数排名?Excel排位函数RANK使用方法。 1、打开【Excel】,选中相关单元格,然后在单元格中输入排名函数rank函数。 2、首先输入要进行排名的单元格位置,然后再输入排名范围,注意在输入范围时一定要加上美元符号,否则排名就会失败。 3、最后输入的函数就是【=RANK(B2,$B$2:$B$8,0)】,输入完毕之后,直接点击键盘上...

  • 怎样用rank函数排名 Excel排位函数RANK的使用方法

    怎样用rank函数排名 Excel排位函数RANK的使用方法

    怎样用rank函数排名 Excel排位函数RANK的使用方法,函数,排位,使用方法,数字,公式,第三,语法,常用,RANK函数是Excel中常用的函数,它可用于返回一个数字在数字列表中的排位。语法结构是=RANK(number,ref,[order]) 下面给大家举一个例子演示一下吧,如下图是某班级成绩表,现在我们想要将学生按成绩降序排位。 在C2单元格输入公式=RANK(B2,$B$2:$B$12,0),并填充到底即可完成。 在使用时,为了方便我们也可以将公式写...

  • 我要自学网 5个优秀自学网站推荐

    我要自学网 5个优秀自学网站推荐

    我要自学网 5个优秀自学网站推荐,自学网站,学习,推荐,我要自学网,知识,技能,好用,零基础,现在很多人会通过自学的方式来提升自己的知识或技能,这是现在很流行的一种学习方式,毕竟大多数人都是只能用空闲的时间来学习的,这样的学习方法真的很方便。 今天小编整理了5个在知乎上被20多万人推荐的自学网站,它们到底有多好用?看了下,不愧是大佬推荐的,如果不知道就亏大了! 1.黑马程序员 黑马程序员,这是一个程序员的惊喜天地,在这里,无论是刚入门的程序员还是想要给自己充电的老...

  • 网购哪个网站质量好又便宜 网购平台排名前十

    网购哪个网站质量好又便宜 网购平台排名前十

    网购哪个网站质量好又便宜 网购平台排名前十,商品,用户,支持,网购,淘宝,电商平台,购物软件,平台,网上购物是现在年轻人非常喜欢的,足不出户就可以买东西,而且网上的各种商品应有尽有,还经常有促销活动。那么你知道手机购物用什么软件质量最好呢?购物软件哪个更好更便宜呢?今天就和小编一起来看看网购平台排名前十吧。 1、淘宝 淘宝是最常用的十大软件之一,也是国内出现的较早的电商平台,受到了非常多用户青睐,且淘宝经常有大型的感恩回馈活动,折扣也是比较大的,产品涵盖也非常的全...

  • spss数据分析教程 spss数据分析软件使用教程

    spss数据分析教程 spss数据分析软件使用教程

    spss数据分析教程 spss数据分析软件使用教程,数据分析,教程,软件使用教程,描述,点击,指标,选项,统计,1、打开SPSS软件,点击【打开-文件-数据】。 2、找到一份【SAV的数据】,点击打开。 3、在工具栏中点击【分析-描述统计-描述】,打开描述对话框。 4、在描述性对话框中将要进行描述统计的变量放在【变量框】中,接着点击【选项】打开选项框。 5、勾选要知道的描述性指标,例如【均值、标准值、最小值最大值】基本的指标。 6、最后点击确定即可看到统计分析的结...

  • 总分怎么算excel函数 excel函数算总分公式

    总分怎么算excel函数 excel函数算总分公式

    总分怎么算excel函数 excel函数算总分公式,函数,输入,怎么用,方法,公式,数据,步骤,运算,在excel中经常会用的一些数据的求和、求平均值的命令,比如学生成绩的总分汇总和求班级的平均分的情况。那么怎么来进行操作呢?在Excel2010用函数自动表内求和,求平均值运算的方法如下: 步骤一:首先要知道求和的函数是SUM。如图所示对下面的数据进行求和求平均值的计算。 步骤二:在总分的单元格(B12)上,输入函数“=SUM(B2:B11)”为什么要输入这个函数...

  • excel如何统计个数 count函数统计个数方法

    excel如何统计个数 count函数统计个数方法

    excel如何统计个数 count函数统计个数方法,统计,函数,方法,数字,数据类型,输入,数据,种类,统计数据类型为数值的个数,使用count函数;统计非空(数据类型为非数值的),使用counta函数;统计出符合条件的个数,使用countif函数;统计出需要符合多个条件的个数,使用countifs函数。 比如【A1:A5】中一共有四个不为空的单元格子,利用函数【COUNTA】,输入【=COUNTA(A1:A5)】敲击回车。 统计某种属性的数据的个数,用sumif...

  • 抖币充值入口官网 抖音充值官方网站

    抖币充值入口官网 抖音充值官方网站

    抖币充值入口官网 抖音充值官方网站,抖币,充值,抖音,官网,官方网站,选择,金额,抖音官网,在抖音平台中,各位抖音用户们可以充值抖币,充值成功了以后,就可以使用里面的一些功能了哦,那么抖币充值官网入口在哪呢?下面的内容中为大家进行相关的解答哦。 抖币充值官网入口在哪? 抖音充值的官方网站链接: https://www.douyin.com/falcon/webcast_openpc/pages/douyin_recharge/index.html; 抖币充值教程:...

  • 函数的奇偶性怎么快速判断 帮你一秒搞定

    函数的奇偶性怎么快速判断 帮你一秒搞定

    函数的奇偶性怎么快速判断 帮你一秒搞定,函数,快速,下边,学习,偶函数,帮你,加减乘除,奇偶性,相信小伙伴们都可以迅速什么奇函数,什么是偶函数f(x)=f(–x)偶函数f(-x)=–f(x)奇函数但是,各种奇函数偶函数进行加减乘除是不是就不会啦,记住下边这些,让你的学习事半功倍今天,你学废了嘛⊂(˃̶͈̀㉨ ˂̶͈́ ⊂ )))≡=─...