漫画cms的图片本地化python实现
1.图片本地化脚本概述
漫画cms中无法对图片进行本地化所以这款本地化插件应运而生,可以解决各类漫画cms本地化,该本地化脚本下实现了对部分网站中 切割后的图片自动还原,图片打水印,自定义压缩,多线程下载,定时执行,可以定制处理加密的图片和切割后的图片还原,如果需要该脚本的请联系我 q544867814 支持漫城cms漫画,支持小浣熊cms漫画也可定制支持其他漫画cms或自研漫画程序
功能支持
支持漫城cms漫画,支持小浣熊cms漫画
1.图片本地化
2.自定义下载线程数
3.可配置水印图,水印数,水印位置等
4.支持图片压缩可自定义压缩等级,支持更换图片格式比如webp,jpg,jpeg,png等
5.支持使用代理ip
6.支持自定义图片域名
7.支持自定义存储路径格式和命名
8.支持下载后的图片自动跳过
9.支持每天指定时间执行程序
...功能太多不一一介绍了
2.图片本地化脚本安装
安装教程 linux安装方式
图片本地化脚本安装流程我单独增加了linux sh脚本一键式安装,安装过程分为三步
1.安装docker,如果已安装则跳过
wget -O docker-install.sh https://www.agoni.top/docker-install.sh && sh docker-install.sh
2.安装docker-compose ,如果已安装则跳过
wget -O docker-compose-install.sh https://www.agoni.top/docker-compose-install.sh && sh docker-compose-install.sh
3.自动下载所需文件并启动
cd /opt && wget https://www.agoni.top/comic_download.tar.gz && tar -zxvf comic_download.tar.gz && cd /opt/comic_download && docker-compose up -d
下载后配置文件 和 打水印logo 要自行调整默认存储位置 /opt/comic_download/download/config
主要配置文件大概配置项 默认所在位置
/opt/comic_download/docker-compose.yml
#这个一定要根据实际改 不然会出问题 xiaohuanxiong=小浣熊漫画 mccms=漫城
download_type: mccms #可选 xiaohuanxiong,mccms
#下载超时时间 15= 15秒
request_timeout: 15
#漫画索引位置从第几条开始 0的话就是从第一本开始
book_offset: 0
#执行处理多少部漫画
book_limit: 1
# comic_host 默认不填的话 存储相对路径比如 /漫画id/章节id/md5(图片链接).webp
#比如你设置了该项为 https://img.agoni.top 则存储到数据库的就变成
# https://img.agoni.top/漫画id/章节id/md5(图片链接).webp
comic_host:
#定时执行时使用 每天 1-24小时 我设置23 则每天晚上11点执行
cron_hour: 23
#压缩等级
compress_level: 60 #压缩等级0-100 越小则压缩越强 自然文件大小也就越小
compress_tag: _compress #压缩后的标志既 img_compress.jpg 如不需要则为空
compress_img_suffix: jpeg # webp jpeg jpg png 压缩最小的一般是webp
watermark_num: 1 #每张图片随机打水印几张
#mysql配置 这边请填写你漫画站的数据库连接配置
MYSQL_DATABASE: mccms #mysql数据库名
MYSQL_HOST: mysql # mysql host地址可不动它
MYSQL_PORT: 3306 # mysql 端口
MYSQL_USER: root # mysql 用户名
MYSQL_PASSWORD: jhspider_pass #mysql密码
MYSQL_TABLE_PRE: mc_ #表前缀 漫城默认是mc_ 浣熊默认tp_ 漫画安装程序时可设置
该配置文件为程序配置项一般可以不用调整只要调整上面的主要配置文件即可 所在位置
/opt/comic_download/download/config/setting.py
#这个一定要根据实际改 不然会出问题
download_type = os.environ.get('download_type', 'xiaohuanxiong') #可选 xiaohuanxiong,mccms
#下载延迟时间 1=1秒
sleep=1
#下载线程 自己测试带宽极限
pool_num=int(os.environ.get('THREAD_NUM',10))
#超时时间
request_timeout=int(os.environ.get('request_timeout',15))
# 反盗链开关
referer_debug=True
referer_domain_list={
"images.dmzj.com":"https://www.dmzj.com/",
# 比如 https://images.dmzj.com/webpic/1/181225yj.jpg 当图片链接包含 images.dmzj.com 则将来源地址 改为 "https://www.dmzj.com/" 来处理反盗链
}
#漫画索引位置从第几条开始
book_offset=int(os.environ.get('book_offset',1))
#处理多少部漫画
book_limit=int(os.environ.get('book_limit',1))
#代理ip格式 {'http': "127.0.0.1:33210", 'https': "127.0.0.1:33210"}
proxy_ip={}
#项目public目录
project_dir="/opt/download"
img_dir="/opt/download/public"
# 存放目录
#比如漫画id=1 章节id=2 存储目录/python/download/public md5地址 22CCA.webp
image_format="/<book_id>/<filename>" #漫画封面 /python/download/public/1/22CCA.webp
chapter_imgae_foramt= "/<book_id>/<chapter_id>/<filename>" #章节图片 #漫画封面 /python/download/public/1/2/22CCA.webp
#如果你希望不多存储相同文件则可以这样设置如此一来相同md5则不会再写入
# image_format="/<filename>"
# chapter_imgae_foramt="/<filename>"
compress_open = True #是否开启压缩
compress_level = int(os.environ.get('compress_level',60)) #压缩等级 越小则压缩越强 自然文件大小也就越小
compress_img_suffix = "jpeg" # 支持webp,jpg,jpeg,png, 压缩最好的肯定是webp和jpeg
compress_tag= os.environ.get('compress_tag',"_compress") #压缩后的标志 如不需要则为空
watermark_open = True
watermark_num = int(os.environ.get('watermark_num',1)) #每张图片随机打水印几张
watermark_x=0.1 #水印模版所在x轴位置 0,1 如0.1 则相对左边10%的距离
watermark_y=0.9 #水印模版所在y轴位置 0,9 如0.9 则相对顶部90%的距离
watermark_scale= 30 #则30分之一的概率会打上
# comic_host 默认不填的话 存储相对路径比如 /漫画id/章节id/md5(图片链接).webp
# 比如你设置了该项为 https://img.agoni.top 则存储到数据库的就变成
# https://img.agoni.top/漫画id/章节id/md5(图片链接).webp
comic_host = str(os.environ.get('comic_host',''))
3.漫画cms本地化图片工具 管理命令合集
### 注意点 改动logo文件或配置文件 一定要重启工具执行该命令
cd /opt/comic_download && docker-compose down && docker-compose up -d
### 第一次测试时请使用该命令
docker exec -it download sh -c 'python /opt/download/run.py'
# 爬虫启动推荐使用命令 先执行更新爬虫,再开启爬虫
docker pull jhspider/spider:download && cd /opt/comic_download && docker-compose up -d
# 爬虫重启推荐使用命令 先执行更新爬虫,再停止爬虫,最后再开启爬虫
docker pull jhspider/spider:download && cd /opt/comic_download && docker-compose down && docker-compose up -d
以下命令需要先指向到脚本目录,请先执行
cd /opt/comic_download
# 更新爬虫
docker pull jhspider/spider:download
# 启动爬虫
docker-compose up -d
# 关闭爬虫
docker-compose down
# 重启爬虫
docker-compose restart
# 查看爬虫日志,刚开始时常用该命令去看配置情况
docker logs download --tail 1000
结尾
漫画cms图片本地化工具,有能力的可以自己安装部署,没能力的可以联系我 如果出现问题也可以联系我 联系方式可以查看我博客www.agoni.top,博客里有qq邮箱,你也可以加我好友咨询 q 544867814
找我技术协助的需要小额收费 不用慌顶多小几百解决包售后
上点相关图好了
切割图前后对比
还原前
还原后