网页资讯视频图片知道文库贴吧地图采购
进入贴吧全吧搜索

 
 
 
日一二三四五六
       
       
       
       
       
       

签到排名:今日本吧第个签到,

本吧因你更精彩,明天继续来努力!

本吧签到人数:0

一键签到
成为超级会员,使用一键签到
一键签到
本月漏签0次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行补签。
连续签到:天  累计签到:天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
03月11日漏签0天
python吧 关注:481,843贴子:1,986,122
  • 看贴

  • 图片

  • 吧主推荐

  • 视频

  • 游戏

  • 3回复贴,共1页
<<返回python吧
>0< 加载中...

import re import requests url = requests.get("https://guoxue

  • 只看楼主
  • 收藏

  • 回复
  • 景不正123
  • 童生
    2
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼


  • 景不正123
  • 童生
    2
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
import re
import requests
url = requests.get("https://guoxue.httpcn.com/book/sgyy/").text
# print(url)
regular = '<a target="_blank" href="(.*?)">第'
img = re.findall(regular,url)
t=1
for url in img:
s = "https:"+url
url2 = requests.get(s).text
# print(url2)
# regular2 = '<h1>(.*?)</h1>'
# regular2 = '<meta name="keyword" content="三国演义,(.*?)原文,拼音,注释,译文,赏析,罗贯中 ,国学经典,汉程国学">'
# img2 = re.findall(regular2,url2)
regular3 = "/><p>(.*?)且听下文分解。</p>"
img3 = re.findall(regular3,url2)[0].replace("</p><p>","")+"且听下文分解。"
print(img3)
# print(img2)
# url2 = requests.get(url).text
# print(url2)
# path = "C:\\Users\\Administrator\\Desktop\\tt.txt"
# with open(path, 'a') as f: # 使用 'a' 模式打开文件,以便将数据追加到文件末尾
# f.write(url + '\n') # 在每条数据后面添加换行符,以便每条数据占一行
print(t)
t+= 1


2026-03-11 05:46:49
广告
不感兴趣
开通SVIP免广告
  • 羡鱼xcw
  • 白丁
    1
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
看不懂


  • 43432gjj
  • 秀才
    3
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
你想说啥


登录百度账号

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!
  • 贴吧页面意见反馈
  • 违规贴吧举报反馈通道
  • 贴吧违规信息处理公示
  • 3回复贴,共1页
<<返回python吧
分享到:
©2026 Baidu贴吧协议|隐私政策|吧主制度|意见反馈|网络谣言警示