google对非原创文章会降权,可以用robots文件屏蔽google爬去这些文章吗?

兔纸,Own it
我做外贸网站,有些文章价值高,实用性强,放网站上很有用,但是不是原创。想知道如果用robots单独屏蔽这些文章,不给google看,只给用户看,这个方法可行不
2014-11-11 221阅读
问题/讨论
回复(3)
我要向AI提问
AI回答:
使用Robots.txt文件来屏蔽非原创文章对于避免谷歌降权是可行的,但这并不是一个完美的解决方案。

如果您将Robots.txt文件用于屏蔽大量非原创文章,这可能会影响到您网站的搜索引擎排名,从而对您的流量和业务有负面影响。谷歌可能会认为您的网站没有足够的有用原创内容,因此可能会对您的排名进行惩罚。

如果您没有足够的时间和资源来创建原创文章,您可以考虑与他人合作,例如向其他博客或作者授权使用他们的内容。或者,您可以考虑您自己修改这些非原创文章,添加自己的观点和独特的内容,从而使这些文章更具价值和原创性。

总之,Robots.txt文件可以用来屏蔽非原创文章,但是您应该慎重考虑,以便避免可能的负面影响。
2023-06-09
追问:
  • sophiazhu.2008
    不清楚如何抓取文章,只清楚SEO一些基本内容,学习了..
    2014-11-12
  • 腾uu
    好高端啊!
    2014-11-11
  • 邦美眉
    刚好我最近在研究seo,你说到的情况也不是不可以,但是一个网站只要掌控好原创和摘抄的比列也是没有任何问题的,在适当的修改下摘抄的内容更好;如果你真的要屏蔽摘抄的文章,也没有问题。
    2014-11-11
最新回答
相关问答