温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

如何使用pandas生成/读取csv文件

发布时间:2021-07-10 16:00:43 来源:亿速云 阅读:598 作者:小新 栏目:开发技术

这篇文章给大家分享的是有关如何使用pandas生成/读取csv文件的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

前言

csv是我接触的比较早的一种文件,比较好的是这种文件既能够以电子表格的形式查看又能够以文本的形式查看。

先引入pandas库

import pandas as pd

方法一:

1、我构造了一个cont_list,结构为列表嵌套字典,字典是每一个样本,类似于我们爬虫爬下来的数据的结构

2、利用pd.DataFrame方法先将数据转换成一个二维结构数据,如下方打印的内容所示,cloumns指定列表,列表必须是列表

3、to_csv方法可以直接保存csv文件,index=False表示csv文件不加行序号

如何使用pandas生成/读取csv文件

保存csv结果

如何使用pandas生成/读取csv文件

应用到我们的爬虫代码,传入的con_list就是[{},{},{}****]这样的额数据结构,encoding="utf_8_sig",encoding="gb18030”,我这边解决中文编码问题

如何使用pandas生成/读取csv文件

是不是很方便就,2行代码即可搞定保存,是不是比上次讲的方法简单好多,其实很多方法,还有python的优秀库,都使python这门语言在数据分析领域有极大的优势

如何使用pandas生成/读取csv文件

方法二:

流程:模拟登录→获取Html页面→正则解析所有符合条件的行→逐一将符合条件的行的所有列存入到CSVData[]临时变量中→写入到CSV文件中

核心代码:

####写入csv文件中   with open(self.CsvFileName, 'wb') as csvfile:   spamwriter = csv.writer(csvfile, dialect='excel')   #设置标题   spamwriter.writerow(["游戏账号","用户类型","游戏名称","渠道","充值类型","充值金额","返利金额","单号","日期"])   #将CsvData中的数据循环写入到CsvFileName文件中   for item in self.CsvData:   spamwriter.writerow(item)

完整代码:

# coding=utf-8   import urllib   import urllib2   import cookielib   import re   import csv   import sys     class Pyw():   #初始化数据   def __init__(self):   #登录的Url地址   self.LoginUrl="http://v.pyw.cn/login/check"   #所要获取的Url地址   self.PageUrl="http://v.pyw.cn/Data/accountdetail/%s"   # 传输的数据:用户名、密码、是否记住用户名   self.PostData = urllib.urlencode({   "username": "15880xxxxxx",   "password": "a123456",   "remember": "1"   })   #第几笔记录   self.PageIndex=0;   #循环获取共4页内容   self.PageTotal=1   #正则解析出tr   self.TrExp=re.compile("(?isu)<tr[^>]*>(.*?)</tr>")   #正则解析出td   self.TdExp = re.compile("(?isu)<td[^>]*>(.*?)</td>")   #创建cookie   self.cookie = cookielib.CookieJar()   #构建opener   self.opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(self.cookie))   #解析页面总页数   self.Total=4   #####设置csv文件   self.CsvFileName="Pyw.csv"   #####存储Csv数据   self.CsvData=[]     #解析网页中的内容   def GetPageItem(self,PageHtml):   #循环取出Table中的所有行   for row in self.TrExp.findall(PageHtml):   #取出当前行的所有列   coloumn=self.TdExp.findall(row)   #判断符合的记录   if len(coloumn) == 9:   # print "游戏账号:%s" % coloumn[0].strip()   # print "用户类型:%s" % coloumn[1].strip()   # print "游戏名称:%s" % coloumn[2].strip()   # print "渠道:%s" % coloumn[3].strip()   # print "充值类型:%s" % coloumn[4].strip()   # print "充值金额:%s" % coloumn[5].strip().replace("¥", "")   # print "返利金额:%s" % coloumn[6].strip().replace("¥", "")   # print "单号:%s" % coloumn[7].strip()   # print "日期:%s" % coloumn[8].strip()   #拼凑行数据   d=[coloumn[0].strip(),   coloumn[1].strip(),   coloumn[2].strip(),   coloumn[3].strip(),   coloumn[4].strip(),   coloumn[5].strip().replace("¥", ""),   coloumn[6].strip().replace("¥", ""),   coloumn[7].strip(),   coloumn[8].strip()]   self.CsvData.append(d)     #模拟登录并获取页面数据   def GetPageHtml(self):   try:   #模拟登录   request=urllib2.Request(url=self.LoginUrl,data=self.PostData)   ResultHtml=self.opener.open(request)   #开始执行获取页面数据   while self.PageTotal<=self.Total:   #动态拼凑所要解析的Url   m_PageUrl = self.PageUrl % self.PageTotal   #计算当期第几页   self.PageTotal = self.PageTotal + 1   #获取当前解析页面的所有内容   ResultHtml=self.opener.open(m_PageUrl)   #解析网页中的内容   self.GetPageItem(ResultHtml.read())     ####写入Csv文件中   with open(self.CsvFileName, 'wb') as csvfile:   spamwriter = csv.writer(csvfile, dialect='excel')   #设置标题   spamwriter.writerow(["游戏账号","用户类型","游戏名称","渠道","充值类型","充值金额","返利金额","单号","日期"])   #将CsvData中的数据循环写入到CsvFileName文件中   for item in self.CsvData:   spamwriter.writerow(item)     print "成功导出CSV文件!"   except Exception,e:   print "404 error!%s" % e   #实例化类   p=Pyw()   #执行方法   p.GetPageHtml()

导出结果

如何使用pandas生成/读取csv文件

读取CSV

import pandas as pd data = pd.read_table('地址', sep=",")['网址'].values print(data[1])

感谢各位的阅读!关于“如何使用pandas生成/读取csv文件”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI