百度蜘蛛如何更好的抓取和识别网站


互联网信息爆发式增长,如何有效的获取并利用这些信息是百度搜索引擎工作中的首要环节。数据抓取系统作为整个搜索系统中的上游,是百度搜索的重点,也是网站优化的重要突破口。Spider从一些重要的种子 URL开始,通过页面上的超链接关系,不断的发现新URL并抓取,尽最大可能抓取到更多的有价值网页。

所以我们在进行网站优化与运营时,首先就要规划设计好网站的内容结构与链接结构,能够让百度搜索引擎很快找到最多网页,判断其重要性并能有效提取内容建库,这是一个网站的根基工作,底子打得越好,后期工作也越流畅。

如何让百度更好的抓取和识别你的网站

我们在做网站结构相关SEO工作时,都应该考虑以下几个问题:

1、Baiduspider能不能找到所有网页

2、Baiduspider是否知道哪个网页是重要的

3、Baiduspider能否顺利提取网页内容

4、Baiduspider能否在网页中提炼有用信息

一、友好的网站结构

1 扁平or树型

一说到网站结构,大家都会提到扁平结构和树型结构,,这些指的是物理结构,即基于内容聚合的目录及文件位置决定的结构。其实对于百度搜索引擎来说,只要结构合理、有逻辑性、内容有规律可循都可以,都是友好的。

2 链接结构

相对于物理结构,就要说到逻辑结构:即通过内部链接形成的链接结构,逻辑结构才是搜索引擎最关注的。对于一个网站来说,网页仅仅可以通过首页——目录1——目录2,一层一层链接是远远不够的,一个优秀的链接结构应该是网状的。

1)首页链接应该链向重要的频道页,频道页再链向下面的节点页或普通页面。同时,频道页、节点页和普通页面都应该可以链回到首页。

2)无论哪些页面之间互相链接,都需要一个描述恰当的锚文本。

3)链接不要放在JS、FLASH等搜索引擎不可见的位置,百度搜索引擎目前仅支持对部分JS和FLASH进行解析,绝大多数放在JS和FLASH里的链接都是获取不到的。另外,使用图片做链接入口应该完善alt标签。

4)为重要页面留更多入口。百度搜索引擎认为,获得更多内部投票的网页相对来说更加重要。

5) “离首页越近”的网页,越容易受到百度重视。这个“近”指的是页面离首页的点击距离。即使URL所在目录层级较深,只要在首页有入口,百度也认为这是一个非常重要的页面。

6)不要产生可怕的孤岛页面。虽然百度在提交入口、社会化挖掘方面做了许多工作,但链接抓取依然是百度获得新页面的最重要渠道。

二、通过导航让百度更好地认识站点

1 导航内容搜索引擎可见

对于用户,导航要解决的问题是:我在网站的什么位置,我想看上一级、甚至上上一级更多内容的入口在哪里。对于spider,导航要解决的问题是:这个页面属于哪个领域,要表达的主题是什么。所以说,清晰的导航系统不仅有助于提高用户体验,对SEO的意义也是重大的,所有SEO做得出色的网站基本都拥有清晰明确的导航。

有网站的导航对用户来说美观友好,对百度来说却是不可见的。目前百度还不能搞定所有的JS和FLASH,保险起见,还是使用HTML的好。图片虽然美丽,作为导航也是对搜索引擎不友好的行为。

2 导航稳定

导航内容应该是相对固定的,不要让导航成为“滚动条”。

3 重要网页尽可能地在导航到

百度认为主导航中出现的链接,其重要性仅次于网站首页,所以应该尽量将站内重要页面在主导航中安排个位置。当然,主导航上也不可能放过多的内容,哪些链接可以上主导航还需要SEO人员进行平衡。

4 巧用面包屑导航

上面说到,导航对于用户来说,解决了“想看上一级、甚至上上一级更多内容”的问题,这个导航指的就是面包屑导航。面包屑导航可以使结构复杂庞大的大中型网站变得清晰轻盈,在spider进行页面解析时会着重查看面包屑导航内容,强烈建议使用。

三、合理的domain结构

除了在网站建设的时候站长会思考到底使用二级域名还是子目录,在网站运营的过程中,也会考虑是否要把子目录的内容拆分成二级域名。因为很多SEO人员认为二级域名相对独立,其首页会得到百度的重视,能获得更好的排位——其实这是一个片面的错误观点,百度会通过很多指标对同domain下的二级域名和子目录进行重要程度判断,并没有武断地认为谁天生就会比谁强一些。

当SEO认为站内结构已经阻碍了网站高速发展就会考虑改版,最常见的改版便是将子目录移出主站点、单独形成二级域名。但大家都知道,改版肯定会对站点的收录排名和流量造成影响,一定要谨慎。那么在什么情况下才真的需要将子目录换成二级域名呢?其实只有一点:即子目录的内容足够丰富,且与主域的主题关联性不强!                四、URL结构很重要

1、url结构规律化:同一个网页有不同url,会造成多个url同时被用户推荐导致权值分散,同时百度最终选择展现的那个url不一定符合你的预期。站点应该尽量不把sessionid和统计代码等不必要的内容放在url,如果一定要这样做可以通过robots禁止百度抓取这些非规范URL。

2、最好能让用户从url即可判断出网页内容,便于蜘蛛解析的同时也便于用户间传播。

3、url尽量短

http://tieba.baidu.com.com/f?kw=百度

4、不要添加蜘蛛难以解析的字符,如

http://mp3.XXX.com/albumlist/234254;;;;;;;�&CE�WF%.html

http://news.xxx.com/1233,242,111,0.shtml

5、动态参数不要太多太复杂,目前百度对动态url已经有了很好的处理,但是参数过多过复杂的url有可能被蜘蛛认为不重要而抛弃。

五、Baiduspider抓取异常的原因

有一些网页,内容优质,用户也可以正常访问,但是Baiduspider却无法正常访问并抓取,造成搜索结果覆盖率缺失,对百度搜索引擎对站点都是一种损失,百度把这种情况叫“抓取异常”。对于大量内容无法正常抓取的网站,百度搜索引擎会认为网站存在用户体验上的缺陷,并降低对网站的评价,在抓取、索引、排序上都会受到一定程度的负面影响,最终影响到网站从百度获取的流量。

下图为spider抓取系统的基本框架图,其中包括链接存储系统、链接选取系统、dns解析服务系统、抓取调度系统、网页分析系统、链接提取系统、链接分析系统、网页存储系统。Baiduspider即是通过这种系统的通力合作完成对互联网页面的抓取工作。

根据此图,以下是一些常见的抓取异常原因,Baiduspider能否顺利提取你网页的内容?

1服务器连接异常

服务器连接异常会有两种情况:一种是站点不稳定,Baiduspider尝试连接您网站的服务器时出现暂时无法连接的情况;一种是Baiduspider一直无法连接上您网站的服务器。

造成服务器连接异常的原因通常是您的网站服务器过大,超负荷运转。也有可能是您的网站运行不正常,请检查网站的web服务器(如apache、iis)是否安装且正常运行,并使用浏览器检查主要页面能否正常访问。您的网站和主机还可能阻止了Baiduspider的访问,您需要检查网站和主机的防火墙。

2 网络运营商异常

网络运营商分电信和联通两种,Baiduspider通过电信或网通无法访问你的网站。如果出现这种情况,你需要与网络服务运营商进行联系,或者购买拥有双线服务的空间或者购买cdn服务。

3 DNS异常

当Baiduspider无法解析你网站的IP时,会出现DNS异常。可能是您的网站IP地址错误,或者域名服务商把Baiduspider封禁。请使用WHOIS或者host查询自己网站IP地址是否正确且可解析,如果不正确或无法解析,请与域名注册商联系,更新您的IP地址。

4 IP封禁

IP封禁为:限制网络的出口IP地址,禁止该IP段的使用者进行内容访问,在这里特指封禁了Baiduspider IP。当网站不希望Baiduspider访问时,才需要该设置,如果希望Baiduspider访问你的网站,请检查相关设置中是否误添加了Baiduspider IP。也有可能是你网站所在的空间服务商把百度IP进行了封禁,这时你需要联系服务商更改设置。

5  UA封禁

UA即为用户代理(User-Agent),服务器通过UA识别访问者的身份。当网站针对指定UA的访问,返回异常页面(如403,500)或跳转到其他页面的情况,即为UA封禁。当你的网站不希望Baiduspider访问时,才需要该设置,如果你希望Baiduspider访问你的网站,useragent相关的设置中是否有Baiduspider UA,并及时修改。

6 死链

页面已经无效,无法对用户提供任何有价值信息的页面就是死链接,包括协议死链和内容死链两种形式:

协议死链:页面的TCP协议状态/HTTP协议状态明确表示的死链,常见的如404、403、503状态等。

内容死链:服务器返回状态是正常的,但内容已经变更为不存在、已删除或需要权限等与原内容无关的信息页面。

对于死链,我们建议站点使用协议死链,并通过百度站长平台--死链工具向百度提交,以便百度更快地发现死链,减少死链对用户以及搜索引擎造成的负面影响。

7 异常跳转

将网络请求重新指向其他位置即为跳转。异常跳转指的是以下几种情况:

1)当前该页面为无效页面(内容已删除、死链等),直接跳转到前一目录或者首页,百度建议站长将该无效页面的入口超链接删除掉

2)跳转到出错或者无效页面,对于长时间跳转到其他域名的情况,如网站更换域名,百度建议使用301跳转协议进行设置。

8 其他异常:

1)针对百度refer的异常:网页针对来自百度的refer返回不同于正常内容的行为。

2)针对百度ua的异常:网页对百度UA返回不同于页面原内容的行为。

3)JS跳转异常:网页加载了百度无法识别的JS跳转代码,使得用户通过搜索结果进入页面后发生了跳转的情况。

4)压力过大引起的偶然封禁:百度会根据站点的规模、访问量等信息,自动设定一个合理的抓取压力。但是在异常情况下,如压力控制失常时,服务器会根据自身负荷进行保护性的偶然封禁。这种情况下,请在返回码中返回503(其含义是Service Unavailable),这样Baiduspider会过段时间再来尝试抓取这个链接,如果网站已空闲,则会被成功抓取。


(0)

相关推荐

  • 大连网站建设如何处理网站流量突然异常下降

    流量异常下降有个很简单的定义:来自搜索引擎流量跌幅50%以上,且连续五天持续下滑.所以这里你网站偶尔出现小的波动不算是流量异常下降,不必要大惊小怪的,多观察几天了解清楚是否为异常下降.那么网站出现流量 ...

  • 网站robots.txt文件的安全设置

    robots.txt文件可以有效的屏蔽搜索引擎抓取我们不需要被抓取的页面和网站源文件,其中的好处是限制搜索引擎过多的抓取不必要的内容,减少搜索引擎蜘蛛进行不必要的网站爬寻分散,也是为了让我们的网站不必 ...

  • SEO优化是如何与产品设计合理的运用?

    我原来一直做网站的SEO优化,但随着公司发展的需要逐渐开始接触产品设计方面的工作,在实际工作中发现,如果具备SEO思维,对互联网产品设计来说大有裨益. 对于SEO来说,页面URL.页面代码结构.关键词 ...

  • 百度近期算法调整,“未能抓取成功”不收录怎么办?

    毫无疑问,自熊掌号上线以来,百度算法我们几乎认为每天都在调整,从"号"变"ID"虽然,战略层面的因素更多,但相关的搜索权益也在悄然变更. 从目前来看,对于网站运 ...

  • 更学教育:拼多多店铺如何利用千人千面更快的抓取用户?

    说到千人千面,在拼多多开店的每一个卖家应该都听说过的,但是,不是每一个卖家都能很准确具体的把它解释出来.尤其是刚刚入驻拼多多不久的卖家们,可能还不是太清楚在拼多多上面,影响商品个性化展示的因素究竟有哪 ...

  • 利用IDM站点抓取批量下载网站图片

    我们都知道Internet Download Manager(IDM)是一款功能丰富的下载软件,除了下载视频,音乐,文档这种传统文件以外,你知道它的[站点抓取]这一功能也十分强大吗? 这一功能方便我们 ...

  • 爬虫实战: 抓取唧唧堂网站公开的用户信息

    大家学习可以,请慎用爬虫.爬的太猛容易瘫痪人家的服务器,记得time.sleep数值大一些,慢一些.珍爱待爬网站,切记切记!! 很久没写爬虫了,今天写个学术性网站的爬虫教程.通过抓取这个网站用户的 学 ...

  • SEO如何做会更受蜘蛛喜爱抓取,达到事半功倍的效果?

    只有让搜索引擎给网站更高的排名,才可以更多的将网站显示在用户面前,提升用户点击率,提升网站的知名度以及更有效的促进用户转化率,所以,想要做好SEO优化,就需要对搜索引擎规则了解透彻,只做取悦搜索引擎的 ...

  • 网站内容SEO如何做才能让百度蜘蛛快速抓取收录呢?

    我们做SEO的都知道,网站关键词要想有好的排名,收录是前提基础,如果一个网站的页面都没收录几个,更别谈百度会给予它什么好的排名.大家做新站的时候,前期都非常关注网站内容被收录的问题,如何做才能让百度蜘 ...

  • 百度蜘蛛抓取频次一直很低什么原因?提高抓取频次几个有效方法

    很多站长或网站开发者在做网站优化的时候,网站存在不收录或者收录少的原因,尤其是新站,这种情况很常见,那么我们从百度蜘蛛抓取这个层面来分析一下. 我们都知道搜索引擎对于网站收录的前提条件是百度蜘蛛的抓取 ...

  • SEO排名,提升百度蜘蛛抓取频次,有利于排名吗?

    这一段时间,关于百度收录的问题,总是在SEO你问我答群里产生热议,很长一段时间,大量的站长都在反馈相关问题,其中这难免涉及到一些基础性的问题,比如:页面抓取频次. 大量的SEO从业者都认为页面抓取频次 ...

  • 百度蜘蛛,抓取诊断失败的原因有哪些?

    对于SEO人员,经常会使用百度官方工具,审查站点,查看网站各项指标是否符合预期,其中"抓取诊断"是站长经常使用的一款工具,很多站长表示,在使用网站"抓取诊断"的 ...