如果您的网页未被 Google 编入索引,则可能是以下情况之一:
您需要在 Google Search Console 中找出确切原因并相应地解决问题。
1) 检查robots.txt
Robots.txt 的作用是控制爬虫对网站内特定内容、网页、子文件夹和目录的访问。
robots.txt 示例
上面的示例是 Ascent Korea 站点当前还需要检查未被搜索引擎索引的页面的源代码。如果“<META NAME=”ROBOTS” CONTENT=”NOINDEX, NOFOLLOW”>”以这种方式在源代码中的meta标签中设置,则必须关闭noindex设置。
6) 是否设置了安全搜索功能或个人信息
SafeSearch 功能是 Google 搜索和 Google 图片的功能之一,可以自动过滤色情内容以及可能令人反感和不当的内容。
如果是 WordPress 站点,您可能需要考虑是否设置隐私设置。隐私设置是一项功能,可让您通过信息保护设置改善浏览体验。如果设置了这些设置,索引有时可能不起作用,所以您可以取消设置并重新检查。
7) 如果谷歌拒绝索引
谷歌拒绝索引是一种罕见但可能发生的情况。
当一个域或同一域的其他页面因违反 Google 设定的规则而受到 Google 处罚或有被拒绝索引的历史时,就会发生这种情况。如果,事实上,确认是这样的话,就必须付出更多的努力,才能回到判罚之前。
4.结论:检查是否被索引-找出原因-3步解决问题
这样可以查看是否被收录,如果没有被收录,可以通过Google Search Console查找原因,
解决问题后可以直接从Google Search Console请求重新抓取。
如果前面的问题已解决并且 Googlebot 认为没有问题,则该页面将排队等待索引。您通常会在一周或更短的时间内看到它被索引到搜索结果中。
如果你学好这个过程,就可以避免你精心制作的页面不出现在 拉脱维亚 WhatsApp 号码列表 搜索结果中的不幸。检查索引的 3 个步骤 - 找出原因 - 和解决我们今天谈到的问题已经接近基础知识。
谷歌开发者(Google Developer)详细解释了所有这些过程,因此请通过下面的链接进行参考。文件。
这通常可以通过将 robots.txt 放在域后面来验证。
“禁止”设置允许外部访问内容,但阻止它出现在搜索结果中。(但是,搜索引擎抓取机器人不一定100%遵循robots.txt的内容。)
通常这个设置用于需要隐私保护的安全页面,比如登录页面,但是
不需要这个设置的页面,即就是,搜索引擎必须如果应该被索引的页面有这个“Disallow”设置,它必须被禁用(修改)。
了解有关 的更多信息
2) 检查站点地图.XML
示例
首先,我需要确保我的站点有一个 文件,如果有,则更新新页面的 URL。
定义了不能通过菜单直接访问的网页内容,用于使爬虫机器人可以直接访问URL。网站管理员可以创建包含站点所有 URL 的站点地图,并使用 Google 的 Search Console 等工具将其注册到搜索引擎。如果此站点地图已经注册,您可以通过添加新页面的 URL 来更新当前站点地图,然后在 Google Search Console 中重新上传站点地图。
了解有关 的更多信息
3)如果有重叠内容
如果出于某种原因,一个站点中的不同页面具有相同或相似的内容,Google 可能会认为它是重复的内容并且不再对其进行索引。在这种情况下,需要
设置一个页面作为原始页面,将页面的URL设置为标准URL,并将页面的URL设置为301重定向,将其余页面视为重复内容。您还需要设置适当的规范 URL 。
这时canonical URL将自己的URL设置为canonical URL,其他人将canonical URL设置为canonical URL。