「数据分析师的网络爬虫」简单的模拟登录方法

待我称王封你为后i 2022-10-16 10:26 229阅读 0赞

文章目录

  • 内容介绍
  • 直接使用已知的cookie访问登录
  • 模拟登录后再携带得到的cookie访问
  • 模拟登录后用session保持登录状态
  • 使用无头浏览器访问

内容介绍

开发环境为 Python3.6 ,爬虫项目全部内容索引目录

看懂Python爬虫框架,所见即所得一切皆有可能

本文介绍在日常爬虫工作中的几种简单的用户模拟登录的方法。

虽说不会敲代码的 Python数据分析师 不是好的数据分析师,但你不是正儿八经的开发人员,代码敲的那么溜有什么用?学点数据爬虫基础能让繁琐的数据CV工作(Ctrl+C,Ctrl+V)成为自动化就足够了。

模拟登录是相当于制作一个脚本控制的机器人登录网站,然后进行网页数据采集的最开始的一个环节。由于是数据分析师爬虫不要求那么高的效率,因此对于那些需要登录的站点数据采集仅仅用模拟登录就可以解决大部分的问题。

直接使用已知的cookie访问登录

原理

  • 简单地说,cookie保存在发起请求的客户端中,服务器利用cookie来区分不同的客户端。因为http是一种无状态的连接,当服务器一下子收到好几个请求时,是无法判断出哪些请求是同一个客户端发起的。而“访问登录后才能看到的页面”这一行为,恰恰需要客户端向服务器证明:“我是刚才登录过的那个客户端”。于是就需要cookie来标识客户端的身份,以存储它的信息(如登录状态)。
  • 当然,这也意味着,只要得到了别的客户端的cookie,我们就可以假冒成它来和服务器对话。这给我们的程序带来了可乘之机。
  • 我们先用浏览器登录,然后使用开发者工具查看cookie。接着在程序中携带该cookie向网站发送请求,就能让你的程序假扮成刚才登录的那个浏览器,得到只有登录后才能看到的页面。

具体步骤

  • 先使用浏览器登录。再打开开发者工具,转到network选项卡。在左边的Name一栏找到当前的网址,选择右边的Headers选项卡,查看Request Headers,这里包含了该网站颁发给浏览器的cookie。对,就是后面的字符串。把它复制下来,一会儿代码里要用到。
  • 最好是在运行你的程序前再登录。如果太早登录,或是把浏览器关了,很可能复制的那个cookie就过期无效了。

以我的新浪博客举例
在这里插入图片描述

  1. import requests
  2. import sys
  3. #登录后才能访问的网页
  4. url = 'http://blog.sina.com.cn/u/2929542851'
  5. #浏览器登录后得到的cookie,也就是刚才复制的字符串,复制自己的即可
  6. cookie_str = r'xxxxxxxxxxxxxxxxx'
  7. #把cookie字符串处理成字典,以便接下来使用
  8. cookies = { }
  9. for line in cookie_str.split(';'):
  10. key, value = line.split('=', 1)
  11. cookies[key] = value
  12. cookies

模拟登录后再携带得到的cookie访问

原理

我们先在程序中向网站发出登录请求,也就是提交包含登录信息的表单(用户名、密码等)。从响应中得到cookie,今后在访问其他页面时也带上这个cookie,就能得到只有登录后才能看到的页面。

具体步骤

  • 找出表单提交到的页面还是要利用浏览器的开发者工具。转到network选项卡,并勾选Preserve Log(重要!)。在浏览器里登录网站。然后在左边的Name一栏找到表单提交到的页面。怎么找呢?看看右侧,转到Headers选项卡。首先,在General那段,Request Method应当是POST。其次最下方应该要有一段叫做Form Data的,里面可以看到你刚才输入的用户名和密码等。也可以看看左边的Name,如果含有login这个词,有可能就是提交表单的页面(不一定!)。
  • 根据实际情况在Form Data里找到自己需要的数据。

    import requests
    import sys
    import io

    sys.stdout = io.TextIOWrapper(sys.stdout.buffer,encoding=’utf8’) #改变标准输出的默认编码

    登录后才能访问的网页

    url = ‘http://ssfw.xmu.edu.cn/cmstar/index.portal‘

    浏览器登录后得到的cookie,也就是刚才复制的字符串

    cookie_str = r’JSESSIONID=xxxxxxxxxxxxxxxxxxxxxx; iPlanetDirectoryPro=xxxxxxxxxxxxxxxxxx’

    把cookie字符串处理成字典,以便接下来使用

    cookies = { }
    for line in cookie_str.split(‘;’):

    1. key, value = line.split('=', 1)
    2. cookies[key] = value

    设置请求头

    headers = { ‘User-agent’:’Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36’}

    在发送get请求时带上请求头和cookies

    resp = requests.get(url, headers = headers, cookies = cookies)

    print(resp.content.decode(‘utf-8’))

模拟登录后用session保持登录状态

原理

session是会话的意思。和cookie的相似之处在于,它也可以让服务器“认得”客户端。简单理解就是,把每一个客户端和服务器的互动当作一个“会话”。既然在同一个“会话”里,服务器自然就能知道这个客户端是否登录过。

具体步骤

  • 找出表单提交到的页面。
  • 找出要提交的数据。

    import requests
    import sys
    import io

    sys.stdout = io.TextIOWrapper(sys.stdout.buffer,encoding=’utf8’) #改变标准输出的默认编码

    登录时需要POST的数据填写你自己注册的信息

    data = { ‘Login.Token1’:’学号’,

    1. 'Login.Token2':'密码',
    2. 'goto:http':'//ssfw.xmu.edu.cn/cmstar/loginSuccess.portal',
    3. 'gotoOnFail:http':'//ssfw.xmu.edu.cn/cmstar/loginFailure.portal'}

    设置请求头

    headers = { ‘User-agent’:’Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36’}

    登录时表单提交到的地址(用开发者工具可以看到)

    login_url = ‘http://ssfw.xmu.edu.cn/cmstar/userPasswordValidate.portal‘

    构造Session

    session = requests.Session()

    在session中发送登录请求,此后这个session里就存储了cookie

    可以用print(session.cookies.get_dict())查看

    resp = session.post(login_url, data)

    登录后才能访问的网页

    url = ‘http://ssfw.xmu.edu.cn/cmstar/index.portal‘

    发送访问请求

    resp = session.get(url)

    print(resp.content.decode(‘utf-8’))

使用无头浏览器访问

原理

功能强大,几乎可以对付任何网页,但会导致代码效率低。如果能在程序里调用一个浏览器来访问网站,那么像登录这样的操作就轻而易举了。在Python中可以使用Selenium库来调用浏览器,写在代码里的操作(打开网页、点击……)会变成浏览器忠实地执行。这个被控制的浏览器可以是Firefox,Chrome等,但最常用的还是PhantomJS这个无头(没有界面)浏览器。也就是说,只要把填写用户名密码、点击“登录”按钮、打开另一个网页等操作写到程序中,PhamtomJS就能确确实实地让你登录上去,并把响应返回给你。

具体步骤

  • 安装selenium库、PhantomJS浏览器。
  • 在源代码中找到登录时的输入文本框、按钮这些元素。因为要在无头浏览器中进行操作,所以就要先找到输入框,才能输入信息。找到登录按钮,才能点击它。在浏览器中打开填写用户名密码的页面,将光标移动到输入用户名的文本框,右键,选择“审查元素”,就可以在右边的网页源代码中看到文本框是哪个元素。同理,可以在源代码中找到输入密码的文本框、登录按钮。
  • 考虑如何在程序中找到上述元素,Selenium库提供了find_element(s)_by_xxx的方法来找到网页中的输入框、按钮等元素。其中xxx可以是id、name、tag_name(标签名)、class_name(class),也可以是xpath(xpath表达式)等等。当然还是要具体分析网页源代码。

在这里插入图片描述

  1. import requests
  2. import sys
  3. import io
  4. from selenium import webdriver
  5. #建立Phantomjs浏览器对象,括号里是phantomjs.exe在你的电脑上的路径
  6. browser = webdriver.PhantomJS('x:/phantomjs.exe')
  7. #登录页面
  8. url = r'http://ssfw.xmu.edu.cn/cmstar/index.portal'
  9. # 访问登录页面
  10. browser.get(url)
  11. # 等待一定时间,让js脚本加载完毕
  12. browser.implicitly_wait(3)
  13. #输入用户名
  14. username = browser.find_element_by_name('user')
  15. username.send_keys('学号')
  16. #输入密码
  17. password = browser.find_element_by_name('pwd')
  18. password.send_keys('密码')
  19. #选择“学生”单选按钮
  20. student = browser.find_element_by_xpath('//input[@value="student"]')
  21. student.click()
  22. #点击“登录”按钮
  23. login_button = browser.find_element_by_name('btn')
  24. login_button.submit()
  25. #网页截图
  26. browser.save_screenshot('picture1.png')
  27. #打印网页源代码
  28. print(browser.page_source.encode('utf-8').decode())
  29. browser.quit()

发表评论

表情:
评论列表 (有 0 条评论,229人围观)

还没有评论,来说两句吧...

相关阅读

    相关 Python 爬虫模拟登录方法汇总

    摘要: 在进行爬虫时,除了常见的不用登录就能爬取的网站,还有一类需要先登录的网站。比如豆瓣、知乎,以及上一篇文章中的桔子网。这一类网站又可以分为:只需输入帐号密码、除了帐号密码