新网站如何快速收录?

2021-03-15 08:55发布

9条回答
樱田妮妮NiNi
2楼 · 2021-03-15 10:01
  1. 第一步:新站建站时一定要注意网站结构。

    首先要知道网站整体结构要达到的目的:用户体验、收录、权重的分配、锚文字

    一个好的网站必须要达到以上目的。


    第二步:考虑网站的物理结构。

    一般分:

    1.扁平式:所有网页文件都存在网站根目录下(适合小型网站)

    2.树形结构:在分类下添加文章或产品

    好的网站将两者完美的组合。


  2. 第三步:尽量做到URL静态化

    便于搜索引擎的抓取和索引,新建的网站一定要注意到的问题。


  3. 第四步:避免蜘蛛进入陷阱

    新的网站蜘蛛来抓取的次数、页面是有限的。所以网站要尽量避免进入下列几个陷阱:

    1.flash:一小部分可以,不能整个页面就是一个大的flash。目前没有搜索引擎能自主识别flash。

    2.session id

    3.各种跳转,除301跳转外,其他如302跳转,Javascript跳转、flash跳转、meta refresh 跳转都不利于搜索引擎优化

    4.框架结构

    5.要求登录

    6.强制使用cookies


  4. 第五步:吸引蜘蛛进入网站

    1.页面有规律的更新(要快)

    2.导入链接(提示:链接并不是越多越好,要考虑链接的质量)

    3.产品或文章与首页的点击次数(最好是在3次最佳)

    4.URL结构

    提醒:(权重能影响蜘蛛的爬行深度)


  5. 第六步:自动提交网站,提醒蜘蛛来抓取。

    1.在百度链接提交入口提交网站地图

    2.站长通过搜索引擎网页提交表格提交进行

    3.站长通过xm网站地图、站长平台提交网站

    收录=抓取+索引

    预处理——索引——抓取


  6. 收录查询方法

    site:+域名.来查询收录

    更多高级搜索指令请检索关键词:搜索引擎高级搜索指令


ban_gank
3楼 · 2021-03-15 10:13

robot.txt文件

大部分的网站收录问题都是因为被robot.txt文件拦截导致的。

robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。

当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。


格式:

1.User-agent:

用于指定搜索引擎的名称,如谷歌为User-agent: Googlebot,*代表所有搜索引擎

2.Disallow:

表示禁止蜘蛛访问的文件

User-agent: *

Disallow:

表明:允许所有搜索引擎访问网站下的所有内容。

User-agent: *

Disallow: /

表明:禁止所有搜索引擎对网站下所有网页的访问。

User-agent: *

Disallow: /cgi-bin/

表明:禁止所有搜索引擎进入网站的cgi-bin目录及其下所有子目录。需要注意的是对每一个目录必须分开声明。

User-agent: Roverdog

Disallow: /

表明:禁止Roverdog访问网站上的任何文件。

User-agent: Googlebot

Disallow: cheese.htm

表明:禁止Google的Googlebot访问其网站下的cheese.htm文件。

3.注释

以”#”开头的行,均被视为注解内容,注释需要单独成一行

Disallow: bob #comment是错误的

4.Allow行

Allow行还未普遍使用,对于网站地图,直接写为Sitemap: xxx.com/sitemap.xml


编辑模式:

在UNIX模式下编辑你的robots.txt文件并以ASCII码格式上传。显然并非所有的FTP客户端软件都能够天衣无缝地将文件格式转换为UNIX命令行终端,所以在编辑robots.txt文件时,一定要确保你的文本编辑器是在UNIX模式下。

或者使用工具如爱站工具生成robots,直接粘贴复制到网站后台。


检测robots是否生效:

百度站长后台检测robots

二 robots和nofollow的区别是什么

robots只用于站内链接。禁止蜘蛛抓取进行收录;

nofollow的链接蜘蛛依然可以收录,但是不会传递权重,一般用于站外链接或者是公司电话,地址的页面有助于网址权重的集中。

三 网站误封robots后的处理

1.解封robots,然后到百度站长后台检测并更新Robots。

2.在百度站长后台抓取检测,此时显示抓取失败,通常更改完robots不会立即生效,需要等待几天,可以多点击抓取几次,触发蜘蛛抓取站点。

3.在百度站长后台抓取频次,申请抓取频次上调。

4.百度反馈中心,反馈是因为误操作导致了这种情况的发生。

5.百度站长后台链接提交处,设置数据主动推送(实时)。

6.更新sitemap网站地图,重新提交百度,每天手工提交一次。

四.新站robots的设置

对于已经上线但是还没有设置好的新站在robots中用

User-agent:*

Disallow:/

来禁止蜘蛛进行访问


meta标签

meta robots 标签是页面head部分meta标签的一种,用于指令搜索引擎禁止索引(收录)本页内容。

meta robots 标签的写法:

标签的意义:禁止所有搜索引擎索引本页面,禁止跟踪本页面上的链接。

Noindex:搜索引擎不索引此网页(可以抓取,但不出现在搜索结果中)。

Nofollow: 搜索引擎不继续通过此网页的链接索引搜索其它的网页。

=”robots”content=”noindex” >

标签的意义:禁止索引本页面,但允许蜘蛛跟踪页面上的链接,也可以传递权重。

使用了noindex meta robots标签的页面会被抓取,但不会被索引,也就是说页面URL不会出现在搜索结果中,这一点与robots文件不同。

meta robots 标签的作用:

1、不想让网站被收录使用meta robots 标签,禁止搜索引擎索引本页,同时禁止跟踪页面上的链接。

2、禁止索引本页面,但是允许蜘蛛跟踪页面链接,也可以传递权重。

meta robots标签很多搜索引擎是不支持的,只有少数搜索引擎能够识别并按给定的值抓取。因此还是推荐用robots.txt文件来限制抓取.


有违规记录的域名

有些站长会选择购买有一定注册年份的域名,但是需要注意这些域名是否曾经被搜索引擎惩罚过,如果这样,网站也是非常难收录的。

建议对于这种情况,站长可以查看一下网站日志,如果蜘蛛未爬取,只需要去站长后天提交即可。如果蜘蛛有爬取记录,但是没有收录,就可能是域名的问题。当然也不排除网站自身存在一定的问题。例如镜像网站等。


梵梵
4楼 · 2021-03-15 10:46
  1. 新网站上线前准备好企业相关内容

    我们都知道一个页面要被搜索引擎进行索引的话,那么其一定是要拥有对于用户来说价值的内容信息,如果新站没有上传任何有价值的内容,搜索引擎来蜘蛛多次来到我们的网站没有抓到任何的内容,那么对于搜索引擎来说是非常的不友好的,那么后期想要搜索引擎再次来爬取你网站的信息就更难了。

  2. 定期更新网站内容

    除了网站上线前期需要上传网站内容,后期也要坚持更新,如果不坚持更新的话对搜索引擎是不友好的,当百度搜索引擎长期的来爬取你的网站,没有发现你的网站有任何的文章更新,那么长久这样后期百度蜘蛛也会减少对网站的爬取。所以后期每天计划更新几篇文章是很关键的。最好更新大量的原创或伪原创文章,尽量不要直接转载,丰富的内容不仅可以提升网站的收录量,还可以吸引用户。

  3. 做好高质量外链建设

  4. 外链对于一个网站来说是非常重要的,外链不仅可以提升网站的权重、提升网站关键词的排名,而且外链也能够吸引蜘蛛来爬取网站,所以对于新站来说还是非常的有利,能够促进百度搜索引擎通过外链爬取网站的内容。可以在博客、论坛、B2B平台、分类信息等平台进行过外链发布。


思禹小姐姐y
5楼 · 2021-03-15 11:15

第一步:新站建站时一定要注意网站结构。

首先要知道网站整体结构要达到的目的:用户体验、收录、权重的分配、锚文字

一个好的网站必须要达到以上目的。

第二步:考虑网站的物理结构。

一般分:

1.扁平式:所有网页文件都存在网站根目录下(适合小型网站)

2.树形结构:在分类下添加文章或产品

好的网站将两者完美的组合。

第三步:尽量做到URL静态化

便于搜索引擎的抓取和索引,新建的网站一定要注意到的问题。

第四步:避免蜘蛛进入陷阱

新的网站蜘蛛来抓取的次数、页面是有限的。所以网站要尽量避免进入下列几个陷阱:

1.flash:一小部分可以,不能整个页面就是一个大的flash。目前没有搜索引擎能自主识别flash。

2.session id

3.各种跳转,除301跳转外,其他如302跳转,Javascript跳转、flash跳转、meta refresh 跳转都不利于搜索引擎优化

4.框架结构

5.要求登录

6.强制使用cookies

第五步:吸引蜘蛛进入网站

1.页面有规律的更新(要快)

2.导入链接(提示:链接并不是越多越好,要考虑链接的质量)

3.产品或文章与首页的点击次数(最好是在3次最佳)

4.URL结构

提醒:(权重能影响蜘蛛的爬行深度)

第六步:自动提交网站,提醒蜘蛛来抓取。

1.在百度链接提交入口提交网站地图

2.站长通过搜索引擎网页提交表格提交进行

3.站长通过xm网站地图、站长平台提交网站

收录=抓取+索引

预处理——索引——抓

收录查询方法

site:+域名.来查询收录

更多高级搜索指令请检索关键词:搜索引擎高级搜索指令


三岁奶猫
6楼 · 2021-03-15 13:51

1.上线前,准备好大量的伪原创或是转载内容。很多人可能会说,这些内容的质量不高啊,在新网站上更新这些内容不会提高收录吧,搞不好还会被搜索引擎惩罚吧。实际上一个新网站,最怕的是没有丰富的内容来吸引用户。如果这些内容对用户来说是有用的,那么哪怕这些内容是被大量转载过的,也会有很多人被这些内容吸引。有了内容,用户以及搜索引擎才能在你的网站上得到想要的。丰富的内容不仅可以提升网站的收录量,还可以吸引用户。

2.上线后,要更新一些高质量的内容。要知道这是提高收录量的必杀技。网站内容被收录,是因为搜索引擎对网站内容进行爬行抓取,然后将网站的内容与搜索引擎自己的数据库进行对比,如果没有,就会收录。如果与数据库中的内容高度重复,那么新网站的权重就会被下降。网站刚上线的时候,转载一些内容,在收录上是比较少的,不过随着网站更新高质量的内容,网站的收录也会逐渐增多。

3.增加高质量的外链。为新网站添加一些高质量的外链,可以提升网站的权重,同时也对网站进行了宣传。不过外链的建设,要慢慢进行,不可操之过急。

虽然说了这么多。但以上三大方法的基础,是你的网站结构框架要合理,站内优化首先要做好。这里就涉及到网站链接层数、锚文本布局、URL静态化、robots.txt的编写等等技术问题了。而这些东西则主要取决于你使用的建站系统的好坏。由于众多PHP开发框架的出现,很多公司都推出了免费建站系统,但是这些免费系统往往良莠不齐,一般人又难以鉴别好坏,导致很多用这种系统制作出来的企业网站问题重重,这样的网站即使花了很大力气用心运营,最后也是越做越难做。


燕儿妃子 - To be is to mov
7楼 · 2021-03-15 15:04
  1. 1、新网站上线前准备好企业相关内容

    我们都知道一个页面要被搜索引擎进行索引的话,那么其一定是要拥有对于用户来说价值的内容信息,如果新站没有上传任何有价值的内容,搜索引擎来蜘蛛多次来到我们的网站没有抓到任何的内容,那么对于搜索引擎来说是非常的不友好的,那么后期想要搜索引擎再次来爬取你网站的信息就更难了。

  2. 2、

    定期更新网站内容

    除了网站上线前期需要上传网站内容,后期也要坚持更新,如果不坚持更新的话对搜索引擎是不友好的,当百度搜索引擎长期的来爬取你的网站,没有发现你的网站有任何的文章更新,那么长久这样后期百度蜘蛛也会减少对网站的爬取。所以后期每天计划更新几篇文章是很关键的。最好更新大量的原创或伪原创文章,尽量不要直接转载,丰富的内容不仅可以提升网站的收录量,还可以吸引用户。

  3. 3、

    做好高质量外链建设

    外链对于一个网站来说是非常重要的,外链不仅可以提升网站的权重、提升网站关键词的排名,而且外链也能够吸引蜘蛛来爬取网站,所以对于新站来说还是非常的有利,能够促进百度搜索引擎通过外链爬取网站的内容。可以在博客、论坛、B2B平台、分类信息等平台进行过外链发布。


收获很多
8楼 · 2021-03-16 09:16
  1. 第一步:新站建站时一定要注意网站结构。

    首先要知道网站整体结构要达到的目的:用户体验、收录、权重的分配、锚文字

    一个好的网站必须要达到以上目的。


    第二步:考虑网站的物理结构。

    一般分:

    1.扁平式:所有网页文件都存在网站根目录下(适合小型网站)

    2.树形结构:在分类下添加文章或产品

    好的网站将两者完美的组合。


  2. 第三步:尽量做到URL静态化

    便于搜索引擎的抓取和索引,新建的网站一定要注意到的问题。


  3. 第四步:避免蜘蛛进入陷阱

    新的网站蜘蛛来抓取的次数、页面是有限的。所以网站要尽量避免进入下列几个陷阱:

    1.flash:一小部分可以,不能整个页面就是一个大的flash。目前没有搜索引擎能自主识别flash。

    2.session id

    3.各种跳转,除301跳转外,其他如302跳转,Javascript跳转、flash跳转、meta refresh 跳转都不利于搜索引擎优化

    4.框架结构

    5.要求登录

    6.强制使用cookies


  4. 第五步:吸引蜘蛛进入网站

    1.页面有规律的更新(要快)

    2.导入链接(提示:链接并不是越多越好,要考虑链接的质量)

    3.产品或文章与首页的点击次数(最好是在3次最佳)

    4.URL结构

    提醒:(权重能影响蜘蛛的爬行深度)


  5. 第六步:自动提交网站,提醒蜘蛛来抓取。

    1.在百度链接提交入口提交网站地图

    2.站长通过搜索引擎网页提交表格提交进行

    3.站长通过xm网站地图、站长平台提交网站

    收录=抓取+索引

    预处理——索引——抓取


  6. 收录查询方法

    site:+域名.来查询收录

    更多高级搜索指令请检索关键词:搜索引擎高级搜索指令


不吃鱼的猫
9楼 · 2021-03-17 10:18

1、新站建站时一定要注意网站结构。

2、考虑网站的物理结构。

3、尽量做到URL静态化

4、避免蜘蛛进入陷阱

5、吸引蜘蛛进入网站

6、自动提交网站,提醒蜘蛛来抓取。


相关问题推荐

  • 回答 15

    1、指数,指数越高的,你头条号账号权重就越高,一般指数在400以上的,都算是正常的;2、单价,如果你发现你的账号单价下降,那就说明你的账号权重有问题即可能权重有所下降,反之账号单价上升,即可能是账号权重上升;3、推荐量,如果你账号发的文章整体推荐...

  • 回答 21
    已采纳

    1、抓取原理,搜索引擎会派搜索引擎蜘蛛们在互联网上通过url进行爬行,当然如果你觉得它们只是单纯的爬行那就不对了,它们会将这些爬到的内容收集记录起来。注意当搜索引擎蜘蛛找到你的网站之后,会随着你网站上的结构一层一层的爬行,而如果遇到了爬不出去的...

  • 回答 17

    首先,提高权重,我们都知道当网站的权重越高,搜索引擎就越喜欢过来抓取网站,像那些大型的门户网站,收录都是几百万几千万的,权重越高页面承载量就越大,蜘蛛爬的就,网站有权重那么则是表示搜索引擎对网站有一定的认可。然后,网站更新和更新频率,相信很...

  • 回答 8

    基木鱼致力于解决广告投放全生命周期的营销痛点,提供全面的免费建站能力。帮助广告主快速实现多类型线索收集,支持全链路数据监控,以满足广告主多场景的解决方案需求。  它的主要作用有以下几个方面:  全面的建站能力,落地页呈现更丰富。  更强大的...

  • 回答 5

    seo未来的出路主要包括这几方面:1、对于广告主来说,塑造品牌成为一个共识。国民消费结构的演变带动了我国产业结构的转型升级,品牌、口碑和商品品质已成为影响消费者购买决策的重要因素。此外,企业若想获得高额利润,品牌的溢价能力更是不容忽视,它可以让...

  • 回答 15

    网站的外链是能提高百度蜘蛛来访的主要原因之一。那外链中效果最好的友链,能换到高质量的友链那再好不过了;文章外链,这里要注意自身网站发布文章立马到收录快的平台去发布...

  • 回答 16

    看你是做网站美工还是后台编程,网站美工最基本要精通PS和flash,因为大部分的静态网站靠美工的搭配。但是要做动态网站就需要专业的代码知识,不过现在好多功能代码网上都能找到,这些都是在工作中逐渐丰富的...

  • 回答 13

    移动端兼容性移动端网站最大的缺点是客户浏览的时候使用的设备屏幕比较小,限制了网站的特效和一些功能的发挥。还有就是图片加载速度,这个也是移动端的痛点,有的图片过大,造成错版而且对移动端网站加载的速度很慢,影响客户体验。解决方案是移动端图片建议...

  • 回答 15

    其实万变不离其宗,底层原理都是一致的,只不过搜狗和百度的渠道不一样而已

  • 回答 6

    主要是一些常用指标数据的同比和环比,比如访客、页面浏览量、跳出率、访问深度、注册转化等,

  • 回答 6

    搜索引擎优化的技术手段主要有黑帽(black hat)、白帽(white hat)两大类。通过作弊手法欺骗搜索引擎和访问者,最终将遭到搜索引擎惩罚的手段被称为黑帽,比如隐藏关键字、制造大量的meta字、alt标签等。而通过正规技术和方式,且被搜索引擎所接受的SEO技术,称...

  • 回答 8

    1寻找要交换的友情链接,可在友情链接交换网站和链接交换群寻找合适链接进行交换。2百度搜索友情链接交换,进入交换友链网站,查找与自己相关进行联系交换。3在群搜索要交换行业的友链群,进行交换。4找到要交换的链接,先查看链接情况如收录,排名,反链,权...

  • 回答 2

    1)空间的大小;空间的大小影响网站文件资料的存放。2)主机空间的配置:包括如主机空间、流量、静态化、htaccess、IIS并发连接等,特别要注意支持的程序语言和数据库。3)云主机的数据安全:这部分主要考虑病毒、关于数据备份及恢复能力4)空间宽带:这部分...

  • 回答 1

    百度权重与以下几方面因素有关:  1、域名年龄:时间越长,相对获得的信任度越高,时间短,则权重要低;  2、内容的原创性:所有的搜索引擎都表示喜欢远程性的东西,所有好的原创文章和内容一定会获得高的权重; 3、内容的更新时间:几天一更新和天天更新一...

  • 回答 4

    第一,网站内容没有填充好或者网站结构有问题,只有网站首页可以被搜索引擎识别到,所以只收录了首页。解决办法:针对内页的内容等进行合理解决。第二,网站是新站,在新站审核期,所以只收录了首页,而内页收录以后没有释放。解决办法:耐心等待。第三,查询...

没有解决我的问题,去提问