服务器日志分析,网站日志分析都可以得到什么数据

网站日志该分析哪些数据呢?从基础信息快速备案网站快速备案、目录抓取、时间段抓取、IP抓取、状态码这几点来分析服务器日志分析:服务器日志分析,网站日志分析都可以得到什么数据  第一、基础信息  下载一个网站日志文件工具获取基础信息:总抓取量、停留时间(h)及访问次数;通过这三个基础信息可以算出:平均每次抓取页数、单页抓取停留时间,然后再用MSSQL提取蜘蛛唯一抓取量,根据以上的数据算出爬虫重复抓取率:  平均每次抓取页数=总抓取量/访问次数  单页抓取停留时间=停留时间*3600/总抓取量  爬虫重复抓取率=100%—唯一抓取量/总抓取量  统计出一段时间的数据,可以看出整体趋势是什么样的,这样就可以发现问题,才能够调整网站的整体策略。下面用一个站长的日志基础信息为例:日志基础信息  从日志的基本信息,我们需要看它的整体趋势来调整,哪些地方需要加强。网站日志文件该分析哪些数据总抓取量  从这个整体走势来看出,爬虫的抓取总量整体是在下降的,这个就需要我们进行一些相应的调整。网站日志文件该分析哪些数据蜘蛛重复抓取率  整体来看,网站重复抓取率是有点上升的,这个就需要一些细节,多一些为抓取的入口和使用一些robots及nofollow技巧。单面停留时间  爬虫单面的停留时间,曾经有看到过一篇软文,网页加载速度是如何影响SEO流量的;提高网页加载速度,减少爬虫单面停留时间,可以为爬虫的总抓取做出贡献,进而增加网站收录,从而提高网站整体流量。在16号至20号左右服务器出现一些问题,之后进行调整后,速度明显变快,单页停留时间也相应的下来了。  而对此进行相应调整如下:  从本月整理来看,爬虫的抓取量是下降的,重复抓取率是上升的。综合分析,需要从站内链接和站外的链接进行调整。站内的链接尽量的带锚文本,如果不能带的话,可以推荐其他页面的超链接,让蜘蛛尽可能的深层次的抓取。站外链接的话,需要多方面的发布。目前平台太少了,如果深圳新闻网、商国互联等站点出现一丝差错的话,我们站点将受到严重影响。站外平台要广,发布的链接要多样话,不能直发首页的,栏目及文章页面需要加大力度。目前,来讲站外平台太少,将近10w的外部链接,集中在几个平台上。  第二、目录抓取  用MSSQL提取出爬虫抓取的目录,分析每日目录抓取量。可以很清晰的看到每个目录的抓取情况,另外可以对比之前的优化策略,优化是否合理,重点的栏目优化是不是预期的效果。爬虫抓取的目录  绿色:主做栏目 黄色:抓取较差 粉色:抓取很差 深蓝色:需要禁止栏目网站日志文件该分析哪些数据目录整体趋势  可以看到整体的趋势并没有太大变化,只有两个栏目的抓取是有较大变动的。  整体抓取较少。主做栏目中,抓取较少的为:xxx、xxx、xxx。对于总体来说,需要加大整个网站的导入口,需要外链配合,站内需要加强内部链接的构建。对于,爬取较弱栏目进行加强处理。同时,深蓝色的栏目写入robots中,将其屏蔽,并将网站中导入到这些栏目是URL进行nofollow避免权重只进不出。  第三、时间段抓取  通过excel中的数组函数,提取每日的时间段的爬虫抓取量,重在分析每日的抓取情况,找到相应的抓取量较为密集的时间段,可以针对性的进行更新内容。同时,还可以看出,抓取不正常情况。网站日志文件该分析哪些数据时间段抓取  某日哪个时间点出问题了,而且同样是总抓取是下降的趋势。网站日志文件该分析哪些数据时间段趋势  通过时间段抓取,我们进行相应的调整:  通过图中的表色,可以看出服务器并不是特别的稳定,我们需要加强服务器的稳定性。另外,17、18、19三天,连续被人攻击、挂链等,但是爬虫抓取正常,这说明这些对网站已经造成了一定影响!  第四,IP段的抓取  通过MSSQL提取日志中的爬虫的IP,通过excel进行统计,每日每个IP的抓取量,同样我们需要看整体,如果IP段没有明显的变化的话,网站升降权是没有多大问题的。因为在网站升权或者降权的时候,爬虫的IP段会更换的。网站日志文件该分析哪些数据IP段抓取  第五,状态码的统计  在这个之前你需要了解下,}状态码统计  如果一个网站被搜索引擎抓取的次数以及频率越多那么他是越有利于排名的,但是如果你的网站出现太多的304,那么一定会降低搜索引擎的抓取频率以及次数,从而让自己的网站排名比别人落一步。调整:服务器可以清除下缓存。状态码统计  百度爬虫的数据图,密密麻麻的数据,以上所有的数据都是从这里调用出来的

本文出自快速备案,转载时请注明出处及相应链接。

本文永久链接: https://www.175ku.com/14979.html