大家好,我是淘小白,前面百度知道聚合文章采集软件说明,给大家写的非常简单,因为时间比较紧,又加上有其他的软件脚本要写,只给大家做了简单的介绍,下面给大家详细的介绍一下!
1、软件语言:Python
2、根据关键词批量采集百度知道的文章,可大量出数据,保守测试,一天10w+数据,适合站群使用。
3、整理好的关键词放到keywords.txt中,一行一个,编码UTF8
4、我们整理好的关键词需要清洗一下,把视频 图片这些关键词清洗掉,我的QQ群文件中免费的清洗软件,可以下载使用。欣 TXB2196
编辑
清洗完关键词之后直接双击main.py
5、执行效果截图
编辑
6、生成的文章保存在data文件夹下面,已经自动聚合配图完成,效果如下:
编辑
配图使用的是搜狗图库的链接,可放心用,所有调用的图片都检查过是否能正常打开,远程链接不影响收录。
7、双标题= 关键词+百度知道标题
关键词建议使用5118的 或者 别人网站的词库,都可以。
8、软件没有对接网站发布,只能把数据保存到本地txt,后面单独进行发布,可用火车头,可用水淼,也可用其他软件/脚本/插件。
9、所有购买过的朋友,请尽快使用,不要拖沓,尽快存储数据。
10、有使用过的客户说闪退,原因:文件编码出问题了。
keywords.txt config.ini 尽量使用notepad++编辑,不要使用记事本编辑,记事本编辑可能会造成编码出问题。
解决方案:
①、使用notepad++ 打开 keywords.txt config.ini 编码转成utf8
②、删掉keywords.txt config.ini 重新解压一份出来
11、该软件和之前一样,需要绑定电脑
12、客户反馈: