当前位置: 首页 > news >正文

102302147傅乐宜作业1

1.用requests和BeautifulSoup库方法爬取大学排名信息

内容
核心代码:

点击查看代码
import urllib.request
from bs4 import BeautifulSoupurl = 'http://www.shanghairanking.cn/rankings/bcur/2020'
response = urllib.request.urlopen(url)
html_content = response.read()
soup = BeautifulSoup(html_content, 'html.parser')
table = soup.find('table') #定位排行表
rows = table.find_all('tr')#获取表的每一行print(f"{'排名':<5}{'学校名称':<20}{'省市':<10}{'学校类型':<10}{'总分':<10}")
for row in rows[1:]:#第1个tr为表头,所以从1开始遍历cols = row.find_all('td')#获取列if cols:rank = cols[0].get_text(strip=True)university_name_span = cols[1].find('span', class_='name-cn')university_name = university_name_span.get_text(strip=True) if university_name_span else cols[1].get_text(strip=True)province_city = cols[2].get_text(strip=True)university_type = cols[3].get_text(strip=True)total_score = cols[4].get_text(strip=True)print(f"{rank:<5}{university_name:<20}{province_city:<10}{university_type:<10}{total_score:<10}")
网页的形式如图,table为表,tr为行,td为列

屏幕截图 2025-10-25 200625
结果截图

屏幕截图 2025-10-25 201159

心得体会
使用beautifulsoup可以很方便的找到元素,以及这种爬取方法只适用于静态页面,因此只有第一页的内容,如要翻页需要用selenium来模拟点击翻页

用requests和re库方法爬取商城书包

内容
核心代码:

点击查看代码
import requests
import redef get_dangdang_bag():url = 'https://search.dangdang.com/?key=%CA%E9%B0%FC&act=input'response = requests.get(url)response.encoding = "gbk"#注意编码html_content = response.text# 提取商品项product_items = re.findall(r'<li[^>]*ddt-pit="\d+"[^>]*class="line\d+"[^>]*>.*?</li>', html_content, re.DOTALL)# 解析并显示商品信息print("序号 价格\t商品名称")for index, item in enumerate(product_items, 1):# 提取商品名称name_match = re.search(r'title="([^"]*书包[^"]*)"', item)#确保商品有书包两字name = name_match.group(1) if name_match else "unknow"# 提取商品价格price_match = re.search(r'<span class="price_n">\s*&yen;\s*([\d.]+)\s*</span>', item)price = price_match.group(1) if price_match else "unknow"print(f"{index:>2}  ¥{price:>6} {name}")if __name__ == "__main__":get_dangdang_bag()

屏幕截图 2025-10-25 202645
网页结构如图,li元素对应每个商品,a元素对应名称,span元素对应价格
结果截图如下
屏幕截图 2025-10-25 203059

心得体会
要先选一个容易爬取,页面简洁的网页,用正则表达式匹配好麻烦,不如beautifulsoup

3.爬取一个给定网页( https://news.fzu.edu.cn/yxfd.htm)或者自选网页的所有JPEG、JPG或PNG格式图片文件

内容
核心代码:

点击查看代码
import requests 
from bs4 import BeautifulSoup
import os
import re
from urllib.parse import urljoindef download_images(url, folder):# 检查目标文件夹是否存在,如果不存在则创建if not os.path.exists(folder):os.makedirs(folder)try:response = requests.get(url)response.raise_for_status()  # 检查请求是否成功except requests.exceptions.RequestException as e:print(f"请求网页时出错:{e}")return# 使用BeautifulSoup解析网页内容soup = BeautifulSoup(response.text, 'html.parser')# 查找所有图片链接images = soup.find_all('img')# 遍历图片链接并下载图片for img in images:# 获取图片的src属性src = img.get('src')if not src:print("图片链接为空,跳过")continue# 处理相对路径src = urljoin(url, src)# 检查图片链接是否有效try:img_response = requests.head(src, allow_redirects=True)if img_response.status_code != 200:print(f"图片链接无效:{src}")continueexcept requests.exceptions.RequestException as e:print(f"检查图片链接时出错:{e}")continueimg_name = re.sub(r'[\\/*?:"<>|]', '_', src.split('/')[-1]) #替换非法字符# 检查图片是否已下载if os.path.exists(os.path.join(folder, img_name)):print(f"图片已存在,跳过下载:{img_name}")continue# 下载图片try:img_response = requests.get(src, allow_redirects=True)img_response.raise_for_status()  # 检查请求是否成功# 保存图片with open(os.path.join(folder, img_name), 'wb') as f:f.write(img_response.content)print(f"下载图片:{img_name}")except requests.exceptions.RequestException as e:print(f"下载图片时出错:{e}")def crawl_website(base_url, folder, num_pages):# 遍历所有页面for page in range(1, num_pages + 1):# 构造翻页URLif page == 1:page_url = f"{base_url}.htm"else:page_url = f"{base_url}/{7-page}.htm"print(f"正在爬取第 {page} 页:{page_url}")download_images(page_url, folder)print(f"第 {page} 页爬取完成。\n")if __name__ == "__main__":base_url = "https://news.fzu.edu.cn/yxfd"  # 基础网址folder = "downloaded_images"  # 保存图片的文件夹num_pages = 6  # 页数crawl_website(base_url, folder, num_pages)
网页结构如图,在img下给出了图片相对地址,将它与基址拼接便可将图片下载下来,页面格式为https://news.fzu.edu.cn/yxfd/{index}.htm型,便可依次爬取

屏幕截图 2025-10-25 204353

结果截图

屏幕截图 2025-10-25 211814

心得体会
这种网页翻页的同时URL也跟着变,可以全部爬取,同时了解了图片在网页中是怎么存取的

http://www.hskmm.com/?act=detail&tid=39044

相关文章:

  • 多智能体大模型在农业中的应用研究与展望
  • 嵌入式基础作业--第七周--IIC协议采集温湿度与OLED显示
  • Nature子刊 | 基于生物学信息的神经网络
  • 软件开发(10.23)
  • 2025年项目总延期?这30款项目进度管理软件一定有一款适合你!
  • Educational Codeforces Round 66 (Rated for Div. 2) A~F
  • 鲁东大学提出可解释的自适应集成机器学习全基因组选择算法用于小麦产量性状关键SNPs筛选
  • 台球厅收银台押金原路退回系统押金预授权—东方仙盟 - 详解
  • if 语句
  • 数论专题小记
  • 机械臂和相机的9点标定原理
  • 遗传改良中的核心技术:交配设计
  • 《程序员修炼之道:从小工到专家》笔记1
  • 语言是火,视觉是光:论两种智能信号的宿命与人机交互的未来 - 教程
  • 书籍推荐 | 《数量遗传学》(王建康)
  • Plant Com | 一种新的多源数据(基因组、表型和跨环境)融合的基因组预测框架-GPS
  • 科普报告:分子标记辅助选择(MAS)育种
  • 作物遗传育种中的多亲本互交群体(MAGIC)
  • 联邦大型语言模型、多智能体大型语言模型是什么? - 详解
  • 一个用于自动化基因表达分析的多智能体框架GenoMAS
  • AI巨头动态:从OpenAI收购到Meta裁员,我们看到了什么?
  • 小麦锈病抗性全景图及其在育种设计中的应用
  • CF1896F
  • Nature Methods | 大语言模型基因集分析工具GeneAgent
  • 50年的玉米育种改良,是如何应对气候变化的?
  • 刷题日记—洛谷数组题单—幻方
  • 基因组选择(GS)如何加速作物遗传增益?
  • Nature Plants | 植物转录因子结合图谱,360个转录因子的近3000个全基因组结合位点图谱
  • 深入解析:3. 从0到上线:.NET 8 + ML.NET LTR 智能类目匹配实战--从业务到方案:消费类目智能匹配的整体设计
  • xyd 2025 S 模拟赛