如何请求谷歌重新抓取我的网站?

有人知道如何请求谷歌重新抓取一个网站吗?如果可能的话,这应该不会持续几个月。我的网站在谷歌的搜索结果中显示了一个旧标题。我如何用正确的标题和描述来显示它?

449905 次浏览

通常的方法是在你的谷歌网站管理员工具中重新提交你的网站,或者在这里提交:http://www.google.com/addurl/

谷歌表示它是无法控制何时重新爬取站点。无论如何,你也可以在“迫使rewcrawls”上查看这篇文章,我自己还没有尝试过,但如果你绝望了,值得一试。

另一方面,我可能会补充说,你要确保你有一个sitemap.xml,因为这也将有助于SEO。

有两种选择。第一个(也是更好的)是使用迈克·弗林评论的Webmaster Tools中的Fetch作为谷歌选项。以下是详细说明:

  1. 进入:https://www.google.com/webmasters/tools/并登录
  2. 如果您还没有添加站点,请使用“添加站点”按钮添加并验证该站点
  3. 单击要管理的站点名称
  4. 点击抓取->取为谷歌
  5. 可选:如果你只想做一个特定的页面,输入URL
  6. 点击获取
  7. 点击提交索引
  8. 选择“网址”或“网址及其直接连结”
  9. 单击OK,就完成了。

使用上面的选项,只要可以从初始页面上的某个链接或它所链接到的页面上到达每个页面,谷歌就应该重新抓取整个页面。如果你想显式地告诉它要在域上抓取的页面列表,你可以按照提交网站地图的指示。

第二个(通常更慢)选项是,正如seanbreeden指出的,在这里提交:http://www.google.com/addurl/

2019年更新:

  1. 登录到- 谷歌搜索控制台
  2. 添加一个站点并使用可用的方法进行验证。
  3. 在控制台进行验证后,单击URL Inspection。
  4. 在顶部的搜索栏中,输入您的网站URL或自定义URL进行检查并输入。
  5. 在检查之后,它会显示一个请求索引的选项
  6. 点击它,GoogleBot将把你的网站添加到队列中进行爬行。

据我所知,如果你重新提交一个站点地图,它将触发和爬虫你的网站。

如今,对一个网站的重新访问在很大程度上取决于它的受欢迎程度、权威性和内容变化的频率。有一个包含所有url的sitemap.xml总是更好的。你也可以设置每个URL条目的lastmod标记。如果你不滥用它,爬虫会考虑它。