​SEO基础教学八:搜索引擎工具及其服务
做好SEO,我们还需要借助有用的工具。

2017-11-17

第八章 搜索引擎工具及其服务

SEOs倾向于使用很多工具。搜索引擎本身提供了一些最有用的功能。搜索引擎希望网站管理员能够以可访问的方式创建站点和内容,因此他们提供了各种工具、分析和指导。这些免费资源为与引擎交换信息提供了数据点和独特的机会。

下面我们将解释每个主要搜索引擎支持的常见元素,并找出它们为什么有用的原因。

通用搜索引擎协议

1506480071802.jpg

1 .工作站点地图

sitemap看作是一个文件列表,它给搜索引擎提供了关于如何抓取你的网站的提示。Sitemaps帮助搜索引擎在你的网站上发现并分类内容,而这些内容可能是引擎本身没有发现的。Sitemaps也有多种不同的格式,可以突出显示许多不同类型的内容,包括视频、图像、新闻和移动。

你可以在Sitemaps.org上阅读协议的完整细节。此外,您可以在XML - sitemaps.com建立自己的站点。Sitemaps有三种类型:

①XML  可扩展标记语言(推荐格式)

这是最广为接受的网站格式。易于搜索引擎的解析以及由大量的sitemap生成器生成。此外,它还允许对页面参数进行最细粒度的控制。

相对大的文件大小。由于XML需要在每个元素周围有一个开放标签和一个闭合标签,所以文件大小可以变得非常大。

②RSS  真正简单的联合或丰富的站点摘要

易于维护:当添加新内容时,RSS站点地图易于编码变成自动更新。

难以管理:虽然RSS是一种XML方言,但由于它的更新属性,它实际上很难管理。

③Txt 文本文件

非常容易:文本sitemap格式是每行多达5万行的一个URL

不提供将元数据添加到页面的能力。

2robots.txt

robots.txt文件是机器人排除协议的产物,是存储在网站根目录下的文件。(如www.google.com/robots.txt)  robots . txt文件向访问你站点的自动化web爬虫提供指令,包括搜索爬虫。

通过使用robots.txt,网站管理员可以向搜索引擎显示他们禁止机器人爬行的区域,也可以指示sitemap文件和爬行延迟参数的位置。你可以在robots.txt知识中心页面上阅读更多的细节。

以下命令可用:

不允许

阻止服从的机器人访问特定的页面或文件夹。

网站地图

指示网站站点地图的位置

爬延迟

指示机器人爬行的速度(以毫秒计)

robots.txt的一个例子:

#Robots.txt www.example.com/robots.txt

User-agent: *

Disallow:

# Don’t allow spambot to crawl any pages

User-agent: spambot

disallow: /

sitemap:www.example.com/sitemap.xml

警告:并不是所有的网络机器人都跟随robots.txt。意图不良的人,如电子邮件地址刮刮器,构建不遵循该协议的机器人;在极端情况下,他们可以用它来识别私人信息的位置。出于这个原因,建议在robots.txt文件中不应包括公共访问网站的管理部分和其他私人部分的位置。相反,这些页面可以使用元机器人标记(接下来讨论的),以使主要的搜索引擎无法索引其高风险内容。

3、元机器人

元机器人标记为搜索引擎机器人创建页面级指令。

元机器人标记应该包含在HTML文档的头部部分。

元机器人的一个例子:

8-1.png

在上面的例子中,“NOINDEX, NOFOLLOW”告诉机器人不要在索引中包含给定的页面,也不要跟踪页面上的任何链接。

4Rel =“Nofollow”

还记得链接是如何投票的吗?rel = nofollow属性允许你链接到一个资源,同时为了搜索引擎的目的删除你的投票。从字面上看,尽管有些引擎仍然跟随他们去发现新的页面,“nofollow”告诉搜索引擎不要跟踪链接。这些链接的价值比他们的同行更少,但是在你链接到不可信来源的不同情况下是有用的。

Nofollow的一个例子:

8-2.png

在上面的例子中,链接的值不会被传递到example.com,因为rel = nofollow的属性已经被添加。

5Rel = " canonical "

通常,在不同的URL中,两个或更多的相同内容的副本出现在你的网站上。例如,以下URL都可以引用一个单一的主页:

http://www.example.com/

http://www.example.com/default.asp

http://example.com/

http://example.com/default.asp

http://Example.com/Default.asp

对于搜索引擎,这些页面看起来是五个独立的页面。由于内容在每个页面上都是相同的,因此可以导致搜索引擎对内容和潜在的排名进行贬值。

canonical标签通过告诉搜索机器人哪个页面是单一的、权威的、应该在web结果中计数的版本来解决这个问题。

Rel = " canonical "的一个例子:

http://example.com/default.asp

8-3.png

在上面的示例中,rel = canonical告诉机器人这个页面是http://www.example.com的副本,并且应该将后一个URL作为规范和权威的URL

搜索引擎工具

——谷歌搜索控制台

1506480566803.jpg

1、关键特性

地理目标——如果给定的网站目标用户在一个特定的位置,网站管理员可以提供谷歌信息,以帮助确定该网站如何出现在特定国家的搜索结果中,并且还可以改进谷歌搜索结果的地理查询。

首选域——网站管理员喜欢用之来索引站点页面。如果网站管理者指定了一个首选域如http://www.example.com,并且谷歌找到了一个指向该网站的链接,其格式为http://example.com,那么谷歌将把该链接视为指向http://www.example.com

③URL参数——你可以向谷歌说明站点上每个参数的信息,例如“sort = price”“sessionid = 2”,这帮助谷歌更有效地抓取站点。

爬行速度——爬行速度影响了在爬行过程中Googlebot的请求的速度(而不是频率)

恶意软件——如果发觉有任何恶意软件在您的网站上,谷歌会告知你。恶意软件创建用户体验很差,并影响排名。

抓取错误——如果 Googlebot 在抓取网站遇到重大错误时,如 404,它会做出报告。

⑦HTML 的建议——谷歌寻找不支持搜索引擎的 HTML 元素,如元描述和标题标签的问题。

2、你的网站

搜索引擎工具提供的统计数据为SEOs提供了独特的视角,比如关键字的印象、点击率、搜索结果的顶部页面以及链接统计信息。

3、网站配置

这个部分很重要,当你将你的网站从一个域移动到另一个域时,它允许你提交sitemaps,测试robots.txt文件,调整sitelinks,并提交更改地址的请求。该区域还包含前一列中讨论的设置和URL参数部分。

4+ 1度量

当用户用+ 1按钮在谷歌+上共享内容时,该活动经常在搜索结果中被注释。观看谷歌+上这个有启发性的视频,你就会了解为什么这很重要。在本节中,谷歌搜索控制台报告了+ 1共享对站点在搜索结果中的性能的影响。

5、实验室

搜索控制台的实验室部分包含了谷歌在实验阶段仍在考虑的报告,但这对站长来说是有用的。这些报告中最重要的一个是站点性能,它指示了站点加载访问者的速度。

二、必应网站管理员工具

1506477862801.jpg

1、关键特性

网站概述——这个界面为你提供了所有网站在Bing的搜索结果的概述。每个站点的搜索指标包括点击、印象、页面索引和页面数量。

抓取数据——在这里你可以查看Bing爬过多少页你的站点,并发现任何遇到的错误。和谷歌搜索控制台一样,你也可以提交sitemaps来帮助Bing发现并优先考虑你的内容。

索引——这个部分允许站长查看和帮助控制Bing索引他们的网页的方式。同样,类似于谷歌搜索控制台的设置,在这里您可以探索如何在Bing中组织内容,提交URL,从搜索结果中删除URL,探索入站链接,并调整参数设置。

流量——Bing网站的流量总结报告通过结合BingYahoo搜索结果的数据来报告印象和数据点击量。如果你购买的广告针对每个关键字,这里的报告显示了平均的位置和成本估计。

2、Moz打开站点管理器

Moz的开放站点管理器为您的网站和链接提供了有价值的见解。

3、特征

识别功能强大的链接——开放站点资源管理器通过它们的度量方式对所有入站链接进行排序,从而帮助你确定哪些链接是最重要的。

找到最强的链接域——这个工具向你展示了连接到你的域的最强大的域。

分析链接锚文本分发——开放站点资源管理器为你显示了人们链接到你时使用的文本的分布。

④Head to Head比对视图——这个功能允许你比较两个网站,看看为什么一个优先排序于另一个。

社交分享指标——衡量Facebook的股票,点赞,推文,和+ 1的任何URL

搜索引擎最近才开始提供更好的工具来帮助站长改善搜索结果,这是SEO和网站管理员/搜索引擎关系的一大进步,也就是说,引擎只能帮助站长,这在今天是真实的,在未来可能也是真实的,SEO的最终责任在于营销人员和网站管理员。 正是因为这个原因,学习SEO是如此重要。

个人觉得很赞
回到顶部图片