SEO基础教学八:搜索引擎工具及其服务
做好SEO,我们还需要借助有用的工具。
2017-11-17
第八章 搜索引擎工具及其服务
SEOs倾向于使用很多工具。搜索引擎本身提供了一些最有用的功能。搜索引擎希望网站管理员能够以可访问的方式创建站点和内容,因此他们提供了各种工具、分析和指导。这些免费资源为与引擎交换信息提供了数据点和独特的机会。
下面我们将解释每个主要搜索引擎支持的常见元素,并找出它们为什么有用的原因。
通用搜索引擎协议
1 .工作站点地图
把sitemap看作是一个文件列表,它给搜索引擎提供了关于如何抓取你的网站的提示。Sitemaps帮助搜索引擎在你的网站上发现并分类内容,而这些内容可能是引擎本身没有发现的。Sitemaps也有多种不同的格式,可以突出显示许多不同类型的内容,包括视频、图像、新闻和移动。
你可以在Sitemaps.org上阅读协议的完整细节。此外,您可以在XML - sitemaps.com建立自己的站点。Sitemaps有三种类型:
①XML 可扩展标记语言(推荐格式)
这是最广为接受的网站格式。易于搜索引擎的解析以及由大量的sitemap生成器生成。此外,它还允许对页面参数进行最细粒度的控制。
相对大的文件大小。由于XML需要在每个元素周围有一个开放标签和一个闭合标签,所以文件大小可以变得非常大。
②RSS 真正简单的联合或丰富的站点摘要
易于维护:当添加新内容时,RSS站点地图易于编码变成自动更新。
难以管理:虽然RSS是一种XML方言,但由于它的更新属性,它实际上很难管理。
③Txt 文本文件
非常容易:文本sitemap格式是每行多达5万行的一个URL。
不提供将元数据添加到页面的能力。
2、robots.txt
robots.txt文件是机器人排除协议的产物,是存储在网站根目录下的文件。(如www.google.com/robots.txt) robots . txt文件向访问你站点的自动化web爬虫提供指令,包括搜索爬虫。
通过使用robots.txt,网站管理员可以向搜索引擎显示他们禁止机器人爬行的区域,也可以指示sitemap文件和爬行延迟参数的位置。你可以在robots.txt知识中心页面上阅读更多的细节。
以下命令可用:
①不允许
阻止服从的机器人访问特定的页面或文件夹。
②网站地图
指示网站站点地图的位置。
③爬延迟
指示机器人爬行的速度(以毫秒计)。
robots.txt的一个例子:
#Robots.txt www.example.com/robots.txt
User-agent: *
Disallow:
# Don’t allow spambot to crawl any pages
User-agent: spambot
disallow: /
sitemap:www.example.com/sitemap.xml
警告:并不是所有的网络机器人都跟随robots.txt。意图不良的人,如电子邮件地址刮刮器,构建不遵循该协议的机器人;在极端情况下,他们可以用它来识别私人信息的位置。出于这个原因,建议在robots.txt文件中不应包括公共访问网站的管理部分和其他私人部分的位置。相反,这些页面可以使用元机器人标记(接下来讨论的),以使主要的搜索引擎无法索引其高风险内容。
3、元机器人
元机器人标记为搜索引擎机器人创建页面级指令。
元机器人标记应该包含在HTML文档的头部部分。
元机器人的一个例子:
在上面的例子中,“NOINDEX, NOFOLLOW”告诉机器人不要在索引中包含给定的页面,也不要跟踪页面上的任何链接。
4、Rel =“Nofollow”
还记得链接是如何投票的吗?rel = nofollow属性允许你链接到一个资源,同时为了搜索引擎的目的删除你的“投票”。从字面上看,尽管有些引擎仍然跟随他们去发现新的页面,“nofollow”告诉搜索引擎不要跟踪链接。这些链接的价值比他们的同行更少,但是在你链接到不可信来源的不同情况下是有用的。
Nofollow的一个例子:
在上面的例子中,链接的值不会被传递到example.com,因为rel = nofollow的属性已经被添加。
5、Rel = " canonical "
通常,在不同的URL中,两个或更多的相同内容的副本出现在你的网站上。例如,以下URL都可以引用一个单一的主页:
http://www.example.com/
http://www.example.com/default.asp
http://example.com/
http://example.com/default.asp
http://Example.com/Default.asp
对于搜索引擎,这些页面看起来是五个独立的页面。由于内容在每个页面上都是相同的,因此可以导致搜索引擎对内容和潜在的排名进行贬值。
canonical标签通过告诉搜索机器人哪个页面是单一的、权威的、应该在web结果中计数的版本来解决这个问题。
Rel = " canonical "的一个例子:
http://example.com/default.asp
在上面的示例中,rel = canonical告诉机器人这个页面是http://www.example.com的副本,并且应该将后一个URL作为规范和权威的URL。
搜索引擎工具
——谷歌搜索控制台
1、关键特性
①地理目标——如果给定的网站目标用户在一个特定的位置,网站管理员可以提供谷歌信息,以帮助确定该网站如何出现在特定国家的搜索结果中,并且还可以改进谷歌搜索结果的地理查询。
②首选域——网站管理员喜欢用之来索引站点页面。如果网站管理者指定了一个首选域如http://www.example.com,并且谷歌找到了一个指向该网站的链接,其格式为http://example.com,那么谷歌将把该链接视为指向http://www.example.com。
③URL参数——你可以向谷歌说明站点上每个参数的信息,例如“sort = price”和“sessionid = 2”,这帮助谷歌更有效地抓取站点。
④爬行速度——爬行速度影响了在爬行过程中Googlebot的请求的速度(而不是频率)。
⑤恶意软件——如果发觉有任何恶意软件在您的网站上,谷歌会告知你。恶意软件创建用户体验很差,并影响排名。
⑥抓取错误——如果 Googlebot 在抓取网站遇到重大错误时,如 404,它会做出报告。
⑦HTML 的建议——谷歌寻找不支持搜索引擎的 HTML 元素,如元描述和标题标签的问题。
2、你的网站
搜索引擎工具提供的统计数据为SEOs提供了独特的视角,比如关键字的印象、点击率、搜索结果的顶部页面以及链接统计信息。
3、网站配置
这个部分很重要,当你将你的网站从一个域移动到另一个域时,它允许你提交sitemaps,测试robots.txt文件,调整sitelinks,并提交更改地址的请求。该区域还包含前一列中讨论的设置和URL参数部分。
4、+ 1度量
当用户用+ 1按钮在谷歌+上共享内容时,该活动经常在搜索结果中被注释。观看谷歌+上这个有启发性的视频,你就会了解为什么这很重要。在本节中,谷歌搜索控制台报告了+ 1共享对站点在搜索结果中的性能的影响。
5、实验室
搜索控制台的实验室部分包含了谷歌在实验阶段仍在考虑的报告,但这对站长来说是有用的。这些报告中最重要的一个是站点性能,它指示了站点加载访问者的速度。
二、必应网站管理员工具
1、关键特性
网站概述——这个界面为你提供了所有网站在Bing的搜索结果的概述。每个站点的搜索指标包括点击、印象、页面索引和页面数量。
抓取数据——在这里你可以查看Bing爬过多少页你的站点,并发现任何遇到的错误。和谷歌搜索控制台一样,你也可以提交sitemaps来帮助Bing发现并优先考虑你的内容。
索引——这个部分允许站长查看和帮助控制Bing索引他们的网页的方式。同样,类似于谷歌搜索控制台的设置,在这里您可以探索如何在Bing中组织内容,提交URL,从搜索结果中删除URL,探索入站链接,并调整参数设置。
流量——Bing网站的流量总结报告通过结合Bing和Yahoo搜索结果的数据来报告印象和数据点击量。如果你购买的广告针对每个关键字,这里的报告显示了平均的位置和成本估计。
2、Moz打开站点管理器
Moz的开放站点管理器为您的网站和链接提供了有价值的见解。
3、特征
①识别功能强大的链接——开放站点资源管理器通过它们的度量方式对所有入站链接进行排序,从而帮助你确定哪些链接是最重要的。
②找到最强的链接域——这个工具向你展示了连接到你的域的最强大的域。
③分析链接锚文本分发——开放站点资源管理器为你显示了人们链接到你时使用的文本的分布。
④Head to Head比对视图——这个功能允许你比较两个网站,看看为什么一个优先排序于另一个。
⑤社交分享指标——衡量Facebook的股票,点赞,推文,和+ 1的任何URL。
搜索引擎最近才开始提供更好的工具来帮助站长改善搜索结果,这是SEO和网站管理员/搜索引擎关系的一大进步,也就是说,引擎只能帮助站长,这在今天是真实的,在未来可能也是真实的,SEO的最终责任在于营销人员和网站管理员。 正是因为这个原因,学习SEO是如此重要。