个人博客SEO优化技巧 - Sanarous的博客

个人博客SEO优化技巧

自从域名备案成功以来折腾了好久,终于在今天拿到了百度录取通知书!!!

虽然只是首页被收录了哈,但是这是博客seo的起点,也以此纪念一下,其实这里也要吐槽一下百度,谷歌在我提交站点的第二天就完全收录了…而百度这边我就等了很久很久…

下面介绍一下在这个过程中我是如何优化博客内容以方便SEO的爬虫收录到我的个人博客的。

首先判断是否被百度或者谷歌搜索平台收录的方法:

即使用site:域名的方式,如上图,如果没有就是没有被收录(一般默认是不收录的,需要自己去手动提交),那么我们就需要点击下面的提交链接进入到百度站长或者谷歌站长工具。

百度

首先进入百度资源搜索平台(貌似以前叫百度站长平台,现在换了名字并且换了子域名),然后点击下面的链接提交,如下图

我们首先可以去链接提交处提交链接,然后需要先进行站长认证,站长认证有多种方式,由于我这里已经认证过了所以就不再赘述,网上也有很多教程大家可以自己去搜索。

谷歌

进入谷歌首先需要科学上网,这个一般都会吧。。。(可以在Chrome浏览器中使用谷歌访问助手),然后在Google中搜索谷歌站长工具即可,然后进去认证站长,提交链接,跟百度基本一样。

上面第一步提交到百度和谷歌的具体方法,可以参考CSDN上的一篇博客:https://blog.csdn.net/sunshine940326/article/details/70936988 ,讲解的很详细。

优化博客内容,加快爬虫速度

在上面第一步完成之后,我们需要做的就是将博客具体内容进行优化,以便爬虫能更快的爬到我们的文章。

1、压缩博客的html、css、js等文件

如果没有压缩过这些文件的,在我们博客首页点击右键查看源代码,会发现里面有大量的空白,这些空白是由于Node.js渲染博客文件为html时所遗留下来的,如果不做处理的话,每次博客刷新请求的时候会造成很多无意义的渲染内容请求,这样请求速度就会变慢,我们可以使用gulp工具或者hexo-neat工具进行压缩。

注意,两个工具只使用一个即可,一般现在使用gulp工具的较多,据说hexo-neat工具有一点坑,不过我个人使用的还是hexo-neat,感觉也挺好用。

(1)gulp工具

gulp工具也是一款比较好用的压缩工具,并且也很方便。首先我们需要安装gulp插件,使用

1
npm install gulp --save

进行安装。然后继续安装gulp的其它功能模块:

1
2
3
4
gulp-htmlclean // 清理html
gulp-htmlmin // 压缩html
gulp-minify-css // 压缩css
gulp-uglify // 混淆js

可以使用如下命令进行安装:

1
npm install gulp-htmlclean gulp-htmlmin gulp-minify-css gulp-uglify --save

进行安装,然后可以查看博客根目录下的package.json文件,可以看到如下:

就是安装成功啦,但是这还不够,我们还需要在博客站点根目录下(next主题可以在hexo目录下面的source文件夹中创建)创建一个gulpfile.js文件,文件内容如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
var gulp = require('gulp');

//Plugins模块获取
var minifycss = require('gulp-minify-css');
var uglify = require('gulp-uglify');
var htmlmin = require('gulp-htmlmin');
var htmlclean = require('gulp-htmlclean');
//压缩css
gulp.task('minify-css', function () {
return gulp.src('./public/**/*.css')
.pipe(minifycss())
.pipe(gulp.dest('./public'));
});
//压缩html
gulp.task('minify-html', function () {
return gulp.src('./public/**/*.html')
.pipe(htmlclean())
.pipe(htmlmin({
removeComments: true,
minifyJS: true,
minifyCSS: true,
minifyURLs: true,
}))

.pipe(gulp.dest('./public'))
});
//压缩js 不压缩min.js
gulp.task('minify-js', function () {
return gulp.src(['./public/**/*.js', '!./public/**/*.min.js'])
.pipe(uglify())
.pipe(gulp.dest('./public'));
});

//4.0以前的写法
//gulp.task('default', [
// 'minify-html', 'minify-css', 'minify-js'
//]);
//4.0以后的写法
// 执行 gulp 命令时执行的任务
gulp.task('default', gulp.parallel('minify-html', 'minify-css', 'minify-js', function() {
// Do something after a, b, and c are finished.
}));

然后素质三连+一条压缩指令:hexo clean && hexo g && gulp && hexo s就可以啦,可以看到日志输出上有压缩记录。

(2)使用hexo-neat工具

首先安装插件

1
npm install hexo-neat --save

然后我们在hexo站点的根目录下的_config.xml下末尾添加:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
# hexo-neat
# 博文压缩
neat_enable: true
# 压缩html
neat_html:
enable: true
exclude:
# 压缩css
neat_css:
enable: true
exclude:
- '**/*.min.css'
# 压缩js
neat_js:
enable: true
mangle: true
output:
compress:
exclude:
- '**/*.min.js' # 代表已经压缩的js文件
- '**/jquery.fancybox.pack.js' # 代表不想被压缩的js文件
- '**/index.js'

据说如果按照hexo-neat的官方插件文档配置。。会发现完全不起作用,不过我也没试过,但是使用这个的时候里面也有一些坑,首先如果博客图片是放在跟文章同文件名的文件夹下面,那么这种图片会完全失效,这个最好是使用一个第三方图床来放置我们的博客图片,这样会加载的快一些。然后的话,配置的各种自定义组件的js文件会失效,比如鼠标点击小心心js文件,这里可以将love.js文件给放到上面压缩的exclude下面,即:

1
2
3
4
5
6
7
8
9
10
11
# 压缩js
neat_js:
enable: true
mangle: true
output:
compress:
exclude:
- '**/*.min.js' # 代表已经压缩的js文件
- '**/jquery.fancybox.pack.js' # 代表不想被压缩的js文件
- '**/love.js' # 表示排除压缩鼠标点击出现小心心的文件
- '**/index.js'

同理,如果其它js文件消失,只要添加到上面的exclude下面即可。

另外,压缩html的时候不要跳过.md文件,压缩html的时候也不要跳过.swig文件,否则压缩文件基本处于失效状态。

2、优化文章链接

我们知道,hexo博客默认的文章链接格式是permalink: :year/:month/:day/:title/的,即使后面自己更改为permalink: :title/,其实还是不利于SEO优化,为什么呢?

因为SEO爬虫认为的最佳路径,并且比较容易爬到的路径,是从首页开始连续点击小于三次的路径,比如本文链接:https://bestzuo.cn/posts/3078353561.html, 这种小于三层路径的url是比较容易被爬虫爬到的,即使自己改成了permalink: :title/形式,但是由于我们自己的博客标题是中文的,经过URL编码后一长串字符也是不利于爬虫收录的,因为中文链接在百度和Google的权重很低。

因此,我们为了让爬虫更好的收录我们的博文,需要使用一些工具来便捷的生成一个较短且不会引起URL转码的永久链接。这里就可以使用到hexo-abbrlink插件。

这个插件实现的基本思路是对标题+时间进行MD5,然后再转成BASE64,保存在front-matter中。这样可以使文章链接唯一化和永久化,并且如果有些标题想要改成对应的英文标题,也可以在博客的markdown文件中将元数据abbrlink生成的链接改成对应的英文即可,使用起来相当的方便!

安装插件:

1
npm install hexo-abbrlink --save

然后在hexo站点配置文件_config.xml中修改permalink为如下:

1
2
3
4
permalink: :posts/abbrlink  # 此处可以自己设置,也可以直接使用 :/abbrlink
abbrlink:
alg: crc32 #算法: crc16(default) and crc32
rep: hex #进制: dec(default) and hex

该插件的Github地址如下:
hexo-abbrlink的Github地址

其它设置

在上面这些基本配置完成后,我们需要做的就是保持更新个人博客内容,尤其最好是多更新原创性内容,爬虫最喜欢原创内容是因为百度爬虫会使用各种算法来判断内容的可用性,原创性越高的越容易被收录,所以最好保持三天一篇原创博客吧~,然后尽量多更新博客内容,因为你更新的越多,实际上越容易吸引爬虫反复访问,这样收录的就更快。

如果这篇文章对您很有帮助,不妨
-------------    本文结束  感谢您的阅读    -------------
0%