9月13日百度搜索资源平台公布飓风算法2.0即将上线,还原搜索引擎健康生态圈,重点打击采集行为,赋予更多原创者站点扶持,流量倾斜。那百度为什么要升级飓风算法2.0呢?飓风算法1.0又存在什么问题让百度愿意斥资升级飓风算法和在短时间内要上线呢?
归根结底飓风算法有四类恶劣采集行为:
1.采集痕迹明显
站点存在大量从其他站点或公众号采集、搬运而来的内容,信息未经整合,排版混乱,部分功能缺失或文章可读性差,有明显采集痕迹,用户阅读感受很差。
2.内容拼接
采集多篇不同文章进行拼接,整体内容未形成完整逻辑,存在阅读不通顺、文章不连贯等问题,无法满足用户需求。
3.站点存在大量采集内容
网站内容下多数内容均为采集,网站自身无内容生产力或内容生产能力较差,网站内容质量较低。
4.跨领域采集
站点依靠采集大量与本站领域不一致的内容来获取流量的行为。
这四大弊端都会降低客户的阅读感,也会使整篇文章逻辑不通顺等,降低了客户对“质”的要求,无法满足客户的需求量。所以,飓风算法2.0的上线可以改良这些不好的现象,提高客户的体验感。