注1: 本文對應的教學視頻私信我“學習”獲取!
注2: 以上代碼需在Python3環境下運行
要說在工作中最讓人頭疼的就是用 同樣的方式處理一堆文件夾中文件 ,這并不難,但就是繁。所以在遇到機械式的操作時一定要記得使用Python來合理偷懶!今天我将以處理微博熱搜數據來示例如何 使用Python批量處理文件夾 中的文件,主要将涉及:
首先來說明一下需要完成的任務,下面是我們的文件夾結構
因為微博曆史熱搜是沒有辦法去爬的,所以隻能寫一個爬蟲每天定時爬取熱搜并保存,所以在我當時分析數據時使用的就是上圖展示的數據, 每天的數據以套娃形式被保存在三級目錄下 ,并且熱搜是以markdown文件存儲的,打開是這樣:point_down:
而我要做的就是将這三個月的微博熱搜數據處理成這樣:point_down:
這困難嗎,手動的話無非是依次 點三下 進入每天的數據文件夾再打開md文件 手動複制粘貼 進Excel,不就幾萬條數據,大不了一天不吃飯也能搞定!現在我們來看看如何 用Python光速處理。
在操作之前我們來 思考一下如何使用Python實現 ,其實和手動的過程類似:先 讀取全部文件,再對每一天的數據處理、保存。所以第一步就是将我們需要的 全部文件路徑提取出來 ,首先導入相關庫
import pandas as pd
import OS
import glob
from pathlib import Path
讀取全部文件名的方法有很多比如使用 OS模塊
但是由于我們是多層文件夾,使用 OS模塊 隻能一層一層讀取,要寫多個循環從而效率不高,所以我們告别 os.path 使用 Pathlib 來操作,三行代碼就能搞定,看注釋
from pathlib import Path
p = Path("/Users/liuhuanshuo/Desktop/熱搜數據/") #初始化構造Path對象
fileList=list(p.glob("**/*.md")) #得到所有的markdown文件
來看下結果
成功讀取了熱搜數據下多層文件夾中的全部md文件!但是新的問題來了,每天有兩條熱搜彙總,一個11點一個23點,考慮到會有 重合數據 所以我們在處理之前先 進行去重 ,而這就簡單了,不管使用 正則表達式 還是按照奇偶位置提取都行,這裡我是用 lambda表達式 一行代碼搞定
filelist = list(filter(lambda x: str(x).find("23點") >= 0, FileList))
現在我們每天就隻剩下23點的熱搜數據,雖然是markdown文件,但是Python依舊能夠輕松處理,我們打開其中一個來看看
打開方式和其他文件類似使用 with語句 ,返回一個list,但是這個list并不能直接為我們所用,第一個元素包含時間,後面每天的熱搜和熱度也不是直接存儲,含有markdown語法中的一些沒用的符号和換行符,而 清洗這些數據 就是常規操作了,使用下面的代碼即可,主要就是使用正則表達式,看注釋
with open(file) as f:
lines = f.readlines()
lines = [i.strip() for i in lines] #去除空字符
data = list(filter(None, lines))
del data[0]
data = data[0:100]
date = re.findall('年(. )2',str(file))[0]
content = data[::2] #奇偶分割
rank = data[1::2]
#提取内容與排名
for i in range(len(content)):
content[i] = re.findall('、(. )',content[i])[0]
for i in range(len(rank)):
rank[i] = re.findall(' (. )',rank[i])[0]
最後隻需要 寫一個循環遍曆 每一天的文件并進行清洗,再創建一個DataFrame用于存儲每天的數據即可
可以看到,并 沒有使用太複雜的代碼 就成功實現了我們的需求!
以上就是使用Python再一次解放雙手并成功 偷懶 的案例,可能讀取Markdown文件在你的日常工作中并用不到,但是通過本案例希望你能學會 如何批量處理文件夾 ,批量讀取清洗數據。更重要的是在你的工作學習中, 遇到需要重複操作的任務時,是否能夠想起使用Python來自動化解決!拜拜,我們下個案例見~
,更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!