当前位置:论坛首页 > Linux面板 > 求助

【已解答】ssl 服务器配置有误

发表在 Linux面板2022-3-20 16:50 [复制链接] 5 3446

诸位大佬,我有个新站点上线,带www域名在百度站长工具里抓取诊断失败报错信息:抓取异常信息:        DNS无法解析IP,
检测robots文件则报错:
您的服务器配置有误

百度暂时无法连接您的服务器,请检查服务器的设置,确保您网站的服务器能被正常访问。错误码:500


但是不带www的顶级域名百度抓取诊断成功,robots检测也正常。

带www域名和不带www的域名唯一区别是:我www域名申请了 宝塔ssl(Let's Encrypt免费证书),后来又删除ssl证书,
在宝塔把整个站点删除后重新添加站点还是抱着错误。

不知道上面百度报错是否和ssl有关,同服务器上其他站点抓取诊断和robots均正常。

请诸位给予指教!

微信图片_20220320164529.png
使用道具 举报 只看该作者 回复
发表于 2022-3-20 16:53:59 | 显示全部楼层
您好,网站报500错误。
排查站点日志分析具体问题原因。
站点日志默认在/www/wwwlogs目录下。
使用道具 举报 回复 支持 反对
发表于 2022-3-20 17:40:23 | 显示全部楼层
本帖最后由 shirui 于 2022-3-21 16:02 编辑

带www的主域名用百度抓取诊断失败和robots检测报500错误这两个操作,感觉就是服务器把百度蜘蛛封禁了,
我查了日志文件,日志文件里面没有没有任何蜘蛛数据记录,
不带www的顶级域名百度抓取诊断和robots检测都正常成功,且日志文件里有蜘蛛爬行记录。
1.png
使用道具 举报 回复 支持 反对
发表于 2022-3-21 10:11:39 | 显示全部楼层
运维阿宏 发表于 2022-3-20 16:53
您好,网站报500错误。
排查站点日志分析具体问题原因。
站点日志默认在/www/wwwlogs目录下。 ...

带www的主域名用百度抓取诊断失败和robots检测报500错误这两个操作,感觉就是服务器把百度蜘蛛封禁了,
我查了日志文件,日志文件里面没有没有任何蜘蛛数据记录,
不带www的顶级域名百度抓取诊断和robots检测都正常成功,且日志文件里有蜘蛛爬行记录。
使用道具 举报 回复 支持 反对
发表于 2022-3-21 15:56:02 | 显示全部楼层
检测robots文件的时候日志文件如下图:

但是抓取诊断的时候日志文件没有任何蜘蛛记录。
微信图片_20220321155456.png
使用道具 举报 回复 支持 反对
发表于 2022-3-25 22:05:26 | 显示全部楼层
shirui 发表于 2022-3-20 17:40
带www的主域名用百度抓取诊断失败和robots检测报500错误这两个操作,感觉就是服务器把百度蜘蛛封禁了,
我 ...

您好,这个文件是网站申请SSL证书的验证文件,这个文件不影响您网站设置的蜘蛛爬虫访问,您有做什么安全配置吗?
使用道具 举报 回复 支持 反对
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

企业版年付运维跟进群

普通问题处理

论坛响应时间:72小时

问题处理方式:排队(仅解答)

工作时间:白班:9:00 - 18:00

紧急问题处理

论坛响应时间:10分钟

问题处理方式:1对1处理(优先)

工作时间:白班:9:00 - 18:00

工作时间:晚班:18:00 - 24:00

立即付费处理
快速回复 返回顶部 返回列表