请选择 进入手机版 | 继续访问电脑版

北南南北论坛

 找回密码
 立即注册
查看: 18|回复: 2

如何用 Python 爬取需要登录的网站?

[复制链接]

250

主题

367

帖子

1101

积分

金牌会员

Rank: 6Rank: 6

积分
1101
发表于 2017-12-31 21:40:23 | 显示全部楼层 |阅读模式
最近我必须执行一项从一个需要登录的网站上爬取一些网页的操作。它没有我想象中那么简单,因此我决定为它写一个辅助教程。

在本教程中,我们将从我们的bitbucket账户中爬取一个项目列表。

教程中的代码可以从我的 Github 中找到。

我们将会按照以下步骤进行:

  • 提取登录需要的详细信息
  •     执行站点登录
  •     爬取所需要的数据

在本教程中,我使用了以下包(可以在 requirements.txt 中找到):

  1.     requests
  2. lxml
复制代码
步骤一:研究该网站
打开登录页面

进入以下页面  “bitbucket.org/account/signin”。你会看到如下图所示的页面(执行注销,以防你已经登录)

1.jpg


仔细研究那些我们需要提取的详细信息,以供登录之用

在这一部分,我们会创建一个字典来保存执行登录的详细信息:

1. 右击 “Username or email” 字段,选择“查看元素”。我们将使用 “name” 属性为 “username” 的输入框的值。“username”将会是 key 值,我们的用户名/电子邮箱就是对应的 value 值(在其他的网站上这些 key 值可能是 “email”,“ user_name”,“ login”,等等)。


回复

使用道具 举报

250

主题

367

帖子

1101

积分

金牌会员

Rank: 6Rank: 6

积分
1101
 楼主| 发表于 2017-12-31 21:49:13 | 显示全部楼层
2.jpg
3.png
2. 右击 “Password” 字段,选择“查看元素”。在脚本中我们需要使用 “name” 属性为 “password” 的输入框的值。“password” 将是字典的 key  值,我们输入的密码将是对应的 value 值(在其他网站key值可能是 “userpassword”,“loginpassword”,“pwd”,等等)。
4.jpg

5.png


回复 支持 反对

使用道具 举报

250

主题

367

帖子

1101

积分

金牌会员

Rank: 6Rank: 6

积分
1101
 楼主| 发表于 2017-12-31 21:51:15 | 显示全部楼层
3. 在源代码页面中,查找一个名为 “csrfmiddlewaretoken” 的隐藏输入标签。“csrfmiddlewaretoken” 将是 key 值,而对应的 value 值将是这个隐藏的输入值(在其他网站上这个 value 值可能是一个名为 “csrftoken”,“ authenticationtoken” 的隐藏输入值)。列如:“Vy00PE3Ra6aISwKBrPn72SFml00IcUV8”。

1.jpg

2.png

最后我们将会得到一个类似这样的字典:


    payload = {

        "username": "<USER NAME>",

        "password": "<;PASSWORD>",

        "csrfmiddlewaretoken": "<CSRF_TOKEN>"

    }


请记住,这是这个网站的一个具体案例。虽然这个登录表单很简单,但其他网站可能需要我们检查浏览器的请求日志,并找到登录步骤中应该使用的相关的 key 值和 value 值。
步骤2:执行登录网站

对于这个脚本,我们只需要导入如下内容:

    import requests

    from lxml import html


首先,我们要创建 session 对象。这个对象会允许我们保存所有的登录会话请求。


    session_requests = requests.session()


第二,我们要从该网页上提取在登录时所使用的 csrf 标记。在这个例子中,我们使用的是 lxml 和 xpath 来提取,我们也可以使用正则表达式或者其他的一些方法来提取这些数据。


    login_url = "https://bitbucket.org/account/signin/?next=/"

    result = session_requests.get(login_url)

     

    tree = html.fromstring(result.text)

    authenticity_token = list(set(tree.xpath("//input[@name='csrfmiddlewaretoken']/@value")))[0]


**更多关于xpath 和lxml的信息可以在这里找到。

接下来,我们要执行登录阶段。在这一阶段,我们发送一个 POST 请求给登录的 url。我们使用前面步骤中创建的 payload 作为 data 。也可以为该请求使用一个标题并在该标题中给这个相同的 url 添加一个参照键。

    result = session_requests.post(

        login_url,

        data = payload,

        headers = dict(referer=login_url)

    )


步骤三:爬取内容

现在,我们已经登录成功了,我们将从 bitbucket dashboard 页面上执行真正的爬取操作。

    url = 'https://bitbucket.org/dashboard/overview'

    result = session_requests.get(

        url,

        headers = dict(referer = url)

    )


为了测试以上内容,我们从 bitbucket dashboard 页面上爬取了项目列表。我们将再次使用 xpath 来查找目标元素,清除新行中的文本和空格并打印出结果。如果一切都运行 OK,输出结果应该是你 bitbucket 账户中的 buckets / project 列表。


    tree = html.fromstring(result.content)

    bucket_elems = tree.findall(".//span[@class='repo-name']/")

    bucket_names = [bucket.text_content.replace("n", "").strip() for bucket in bucket_elems]

    print bucket_names


你也可以通过检查从每个请求返回的状态代码来验证这些请求结果。它不会总是能让你知道登录阶段是否是成功的,但是可以用来作为一个验证指标。

例如:

    result.ok # 会告诉我们最后一次请求是否成功

    result.status_code # 会返回给我们最后一次请求的状态


就是这样。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则


手机版|北南南北论坛  

GMT+8, 2018-1-24 07:47 , Processed in 0.075194 second(s), 33 queries .

© 2001-2016 VxWorks6 Inc.

快速回复 返回顶部 返回列表