我用的是魔法指令,下载指定网页的图片,我的原意是下载公众号的图片,但是这个代码只能下载其他网页的,下载不了公众号的
回答
收藏

我用的是魔法指令,下载指定网页的图片,我的原意是下载公众号的图片,但是这个代码只能下载其他网页的,下载不了公众号的

a
asd230
2024-03-11 09:49·浏览量:302
a
asd230
发布于 2024-03-11 09:49302浏览

# pip install time

import os
import urllib.request
from bs4 import BeautifulSoup
import time
from typing import *

from xbot importprint

def
download_images(url):
"""
   title: 下载网页中的所有图片
   description: 从指定的网页中提取所有图片的URL,并将其下载到桌面上的一个新建文件夹中。
   inputs:
       - url (str): 网页的URL,eg: "https://www.example.com"
   outputs:
       - image_urls (List[str]): 图片的URL列表
   """
# 发送HTTP请求获取网页内容

    response = urllib.request.urlopen(url)
# 使用BeautifulSoup解析网页内容

    soup = BeautifulSoup(response, 'html.parser')

# 创建存储图片的文件夹

    folder_path = os.path.expanduser("~/Desktop/images")

    os.makedirs(folder_path, exist_ok=True)

# 提取网页中的所有图片标签

    img_tags = soup.find_all('img')

# 遍历图片标签,下载并保存图片

    image_urls = []
for img_tag in img_tags:
# 获取图片的URL

        img_url = img_tag.get('src')
if img_url.startswith('http'):
# 下载图片

            img_name = img_url.split('/')[-1]

            img_path = os.path.join(folder_path, img_name)

            urllib.request.urlretrieve(img_url, img_path)
# 将图片的URL添加到列表中

            image_urls.append(img_url)
# 等待2秒

            time.sleep(2)

print("所有图片已下载完成!")

return image_urls

收藏
全部回答1
最新
发布回答
回答