网站想要在搜索引擎获得靠前的排名是一项系统工程,虽然不复杂,但是有很多需要注意的地方,做好这些方面的自查工作,网站排名就会稳定提升,虽然白帽
SEO赚钱的方法在提升排名方面速度要比黑帽SEO慢的多,但是最重要的是不怕被惩罚,可以安心的经营。下面分享几个方法提升网站SEO排名:
1、有规律的更新网站内容
前面说到第一个方法就是更新高质量的内容,有高质量的内容还是不够,要持续的输出高质量文章内容才能获得搜索引擎的信任。对一般的企业站点,2天更新一篇是比较合理的时间间隔,而且更新的时间点最好一直,文章内容都是固定晚上8点,每两天更新一篇,一篇文章大概500-1000字左右,文章不是很长,但是每天文章都有要说的内容和知识点。对于流量站每天可以更新5-10篇,可以固定是晚上8-10点,也可以是上午9-11点。
2、用好网站TDK
做SEO优化的对TDK应该不陌生,但是SEO小课堂现在只使用了TD,已经不再使用Keyword的这个标签在网站头部,因为谷歌已经明确不使用Keyword作为网站排名因素,因为这个标签已经被各位站长给用烂了,所以已经不再具备什么参考价值,这里我们需要注意T和D标签,T标签就是Title,D标签是Description,这里最重要的就是T标签,每个网页都需要有它独立的标题,要区别网站上所有其他网页,这里推荐一个工具,SEO小课堂经常用Chrome上的一款SEO插件Checkbot来审查网站的TD标签是否符合要求。
3、挖掘关键词
主词放首页或栏目页。不要把所以关键词都放首页去堆放。可以选出1-3个主关键词。关键词主要是填写在网站TITLE和描述里。就是给搜索引擎看的一部分。不宜过长,过长搜索引擎收录后会自动省略一些内容。所以关键词多了也放不了,经验上说不超过100个字符。其实上是32字符以内最佳。描述部分是对标题的补充说明,以简为宜!80字符左右。
自动生成网站地图
想要提升网站排名,sitemap网站地图是不能缺少的,而且需要自动生成,把需要排名的网站链接都要放进去,sitemap的生成有特定格式,如果是WordPress搭建的网站,安装下插件就好,如果是自己开发或者使用第三方服务商搭建的网站,一定要有自动生成sitemap的功能,各大搜索引擎管理后台都有sitemap提交入口,所以sitemap对于网站收录排名很重要。
4、用好robots.txt文件
搜索引擎访问网站的第一件事就是访问网站目录下的robots.txt文件,各大搜索引擎都会根据robots.txt文件规则,去抓取网站内容,当然robots文件是君子协定,不适合其他种类的爬虫,很多不重要的内容,就可以屏蔽搜索引擎蜘蛛抓取,因为爬虫每次来抓取都是有资源限制的,每次抓取的时间都不会太久,在短时间内如何让爬虫效率最大化,让爬虫不需要抓取不重要的内容,这就是robots.txt文件需要规定的事,当然在写规则的时候要注意,如果规则写错了,有网站收录下降的风险,当然这个很容易观察出来,及时调整就好。