本文详解如何修正 `readlines()` 后仅处理最后一个 url 的常见错误,通过将请求与解析逻辑正确嵌入 for 循环,实现对文本文件中所有 url 的批量抓取与结构化提取。
在使用 file.readlines() 读取 URL 列表时,一个典型误区是将 requests.get()、BeautifulSoup 解析及文件写入等核心逻辑写在循环外部——这会导致只有最后一次迭代赋值的 url(即列表末尾的 URL)被实际处理。你提供的代码中,for link in linksList: url = link 仅更新变量,而后续的 requests.get(url) 等操作却位于循环之外,因此只执行一次,且作用于最后一个链接。
✅ 正确做法是:将整个 HTTP 请求、状态校验、HTML 解析和结果写入逻辑全部包裹在 for 循环内,确保每个 URL 独立完成完整流程。
以下是优化后的完整可运行代码(含关键改进说明):
import requests
from bs4 import BeautifulSoup
def news():
# 使用 with 语句安全打开文件,自动关闭
with open('list.txt', 'r', encoding='utf-8') as f:
links_list = [line.strip() for line in f if line.strip()] # 去除换行符和空行
# 为每个 URL 单独处理
for link in links_list:
print(f"Processing: {link}")
try:
# 发起 GET 请求(建议添加超时和 headers 防止被拒)
resp = requests.get(link, timeout=10, headers={
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"
})
if resp.status_code == 200:
soup = BeautifulSoup(resp.text, 'html.parser')
# 查找目标 div 容器(注意:若页面无此结构,find 返回 None)
container = soup.find("div", {"class": "m-exhibitor-entry__item__body__contacts__additional__website"})
if container:
# 提取所有 标签的文本内容
websites = [a.get_text(strip=True) for a in container.find_all("a")]
if websites:
# 追加写入结果文件(每 URL 结果后加空行便于区分)
with open("Websites.txt", "a", encoding='utf-8') as out_f:
out_f.write(f"# Source: {link}\n")
out_f.writelines(f"{site}\n" for site in websites)
out_f.write("\n")
print(f"✓ Extracted {len(websites)} website(s) from {link}")
else:
print(f"⚠ No tags found in target div at {link}")
else:
print(f"⚠ Target div not found at {link}")
else:

print(f"✗ HTTP {resp.status_code} for {link}")
except requests.exceptions.RequestException as e:
print(f"❌ Request failed for {link}: {e}")
except Exception as e:
print(f"❌ Unexpected error parsing {link}: {e}")
if __name__ == "__main__":
news()? 关键改进点说明:
⚠️ 注意事项:
通过以上重构,你的爬虫将真正实现「一链一解析」,稳定高效地批量提取多页面中的结构化链接数据。