因此,如果我们只是想从索引中删除页面,那么这个解决方案就很有意义了. 以减少索引中的重复内容数量此外، 这些网页正在获得链接权益،这是一种浪费(因为它不会给为它不会给任何索引縦. 例如:美元以下的黑色连衣裙”纳入索引,则在后者中添加 noindex标签即可将其排除。
但是,机器人仍会访问该页面(这会浪费抓取预算)، 并且该页面 肯尼亚 WhatsApp 数据 仍会获得链接权益(这会造成浪费)۔ 规范化 许多网站通过使用规范标签来解决这个问题。使用规范标签,您可以让 Google知道在一组类似的页面中,您有一个应该获得信用的首选版本。
由于规范标签旨在解决重复内容问题因此这似乎是一个合理的解决方案。此外,链接权益将合并到规范页面(您认为最重要的页面)۔ 然而، Google仍然会在网页上浪费抓取预算۔ مثال کے طور پر: /black-dresses? under-100/ 会将规范 URL Google 通过 robots.txt 禁止 禁止网站的部分内容(例如某些参数)可能是一个很好的解决方案。
它快速、简单且可自定义。但是,它确实有一些缺点也就是说,链接权益将被困住,无法移动到您网站上的任何地方(即使它来自外部来源)。另一个缺点是,即使您告诉گوگل 不要访问您网站上的某个页面(或部分)،Google 仍然可以将其编入索引. 例如:我们可以将*?添加到我们的robots.txt文件中。