温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

python淘宝爬虫的实现方法教程

发布时间:2021-11-08 10:29:56 来源:亿速云 阅读:276 作者:iii 栏目:开发技术

这篇文章主要介绍“python淘宝爬虫的实现方法教程”,在日常操作中,相信很多人在python淘宝爬虫的实现方法教程问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”python淘宝爬虫的实现方法教程”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

selenium  pip install selenium

解释我基本都写在注释了,我就偷个懒不在写了。

from selenium import webdriver import time  # 时间模块, 可以用于程序的延迟 import random  # 随机数模块 from constants import TAO_USERNAME1, TAO_PASSWORD1 import csv  # 数据保存的模块 def search_product(keyword):     """搜索商品数据, 登录用户"""     driver.find_element_by_xpath('//*[@id="q"]').send_keys(keyword)     time.sleep(random.randint(1, 3))  # 尽量避免人机检测  随机延迟     driver.f def parse_data():     """解析商品数据"""     divs = driver.find_elements_by_xpath('//div[@class="grid g-clearfx"]/div/div')  #  所有的div标签     for div in divs:         try:             info = div.find_element_by_xpath('.//div[@class="row row-2 title"]/a').text             price = div.find_element_by_xpath('.//strong').text + '元'             deal = div.find_element_by_xpath('.//div[@class="deal-cnt"]').text             name = div.find_element_by_xpath('.//div[@class="shop"]/a/span[2]').text             location = div.find_element_by_xpath('.//div[@class="location"]').te'.//div[@class="pic"]/a').get_attribute('href')             print(info, price, deal, name, location, detail_url)             # 保存             with open('某宝.csv', mode='a', encoding='utf-8', newline='') as f:                 csv_write = csv.writer(f)                 csv_write.writerow([info, price, deal, name, location, detail_url])         except:             continue word = input('请输入你要搜索商品的关键字:') # 创建一个浏览器 driver = webdriver.Chrome() # selenium操作的浏览器被识别了, 无法登录 # 修改浏览器的部分属性, 绕过检测 driver.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument",             {"source": """Object.defineProperty(navigator, 'webdriver', {get: () => false})"""}) # 执行自动化浏览器的操作 driver.get('https://www.taobao.com/') driver.implicitly_wait(10)  # 设置浏览器的等待,加载数据 driver.maximize_window()  # 最大化浏览器 # 调用商品搜索的函数 search_product(word) for page in range(100): # 012     print(f'\n==================正在抓取第{page + 1}页数据====================')     url = f'https://s.taobao.com/search?q=%E5%B7%B4%E9%BB%8E%E4%B8%96%E5%AE%B6&s={page * 44}'     # 解析商品数据     parse_data()     time.sleep(random.randint(1, 3))  # 尽量避免人机检测  随机延迟

到此,关于“python淘宝爬虫的实现方法教程”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注亿速云网站,小编会继续努力为大家带来更多实用的文章!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI