好的,以下是每行代码的含义解释:
```python
import requests
from bs4 import BeautifulSoup
keyword = '甲流'
page_num = 100
```
导入requests库和BeautifulSoup库,并定义关键字为“甲流”、要爬取的页数为100。
```python
for page in range(1, page_num+1):
url = f'https://s.weibo.com/weibo?q={keyword}&typeall=1&suball=1×cope=custom:2022-01-01-0:2022-12-31-23&page={page}'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.71 Safari/537.36'
}
response = requests.get(url, headers=headers)
soup = BeautifulSoup(response.text, 'html.parser')
cards = soup.find_all('div', class_='card-wrap')
```
使用for循环依次爬取每一页的微博。首先根据当前页数拼接出对应的URL,其中包括关键字、时间范围等参数。然后设置请求头,模拟浏览器访问。接着发送GET请求,获取响应内容。使用BeautifulSoup库解析HTML文档,得到所有微博的卡片(card)。其中,find_all()方法用于查找所有符合条件的元素,这里查找class属性为'card-wrap'的div元素。
```python
for card in cards:
# 获取微博内容和发布时间
content = card.find('p', class_='txt').text.strip()
time = card.find('p', class_='from').find_all('a')[-1].text.strip()
print(content, time)
```
遍历每个微博卡片,使用find()方法查找class属性为'txt'的p元素,得到微博内容。使用find()方法查找class属性为'from'的p元素,再查找其中的最后一个