使用301重定向:如果您打算从站点删除任何重复的内容,这是一个有用的方法。由于有些页面可能已经收到链接,所以最好将这些页面永久重定向到正确的URL。这将告诉用户,在这种情况下,搜索机器人更重要的是找到正确的内容。
使用机器人。txt阻止:通常推荐的另一个选项是使用您的机器人。txt文件,以防止复制页被抓取。但是,百度并不推荐这种方法,它说如果搜索引擎不能用重复的内容抓取页面,它们就不能自动检测指向相同内容的url,因此它实际上被视为一个独立的、唯一的页面。
使用rel="canonical":如果您想保留重复的内容,那么使用rel="canonical"链接元素是一个不错的选择。
尽管重复的内容是一个问题,但它可能会损害您的SERP,这并不像很多人那样可怕。除非你恶意操纵SERP,百度和其他搜索引擎通常不会给你带来任何惩罚。