博客园如何在每篇文章后面添加个性签名?

<div class="div_masklayer" id="div_masklayer"></div>
<div class="div_popup" id="Div_popup">
  <p class="mid">欢迎关注个人微信公众号,一起进步!扫描下方二维码即可</p>
  <img class="img_zfb" id="img_zfb" src="https://img2018.cnblogs.com/blog/1202222/201904/1202222-20190410231448273-1768150453.png">

</div>

效果图如下:

原文地址:https://www.cnblogs.com/yangcx666/p/10687053.html

时间: 2024-10-05 11:41:10

博客园如何在每篇文章后面添加个性签名?的相关文章

吉特仓库管理系统- 可恶行径我该怎么维权--51aspx.com 侵权,希望博客园不要删除此文章

工作已经累了一天了,下班之后还在想着整理吉特仓储管理系统中所遇到的打印问题,这些天写了两篇关于吉特仓储管理系统打印相关的文章,都是自己开发实施过程中遇到的实际问题想和各位分享一下.吉特仓储管理系统是本人经过多年积累开发起来的,到目前有几十家企业客户在使用中.在前不久剥离了固化的业务部分,整理出来了一个开源版本托管在了github上:https://github.com/hechenqingyuan/gitwms 供大家学习和参考. 刚准备躺下睡觉,有网友在博客中留言说自己开源的吉特仓储管理系统被

简易nodejs爬虫抓取博客园指定用户的文章及浏览量

需要安装nodejs和cheerio模块 实现了自定义用户,自定义页数,抓取完毕自动停止无重复 可以按需修改文章类和评论的类名 用法: 首先 npm install cheerio 执行 node cnblog [username] 文件结果保存在res/cnblog.txt //cnblog.jsvar http = require('http') var fs = require('fs') var path = require('path') var cheerio = require('

博客园的 “随笔、文章、新闻、日记”有啥区别

随笔: 是一些比较杂乱的技术类东西且有待修改和讨论的文章,假如是原创则只是作者随时提笔写下的内容,而并没有经过太多的推敲,甚至措辞也没有得到很合理的运用. 文章: 直接获得的有正规性质的文章,或当随笔中的原创经过了讨论.分析和修改后,就可以作为正式的文章被发表,此为正式内容,里面的措辞等都应该得到很好的修正,让他人读起来就如同正式文档或书中的某一章节,行云流水般易读懂.理解. 新闻: 当你得到了一些新闻消息时,可以在此发表.然而似乎此中的文章并不能被显示到个人博客首页中,因此很多人就是有新闻消息

博客园的“随笔、文章、新闻、日记”有什么区别?

随笔:是一些比较杂乱的技术类东西且有待修改和讨论的文章,假如是原创则只是作者随时提笔写下的内容,而并没有经过太多的推敲,甚至措辞也没有得到很合理的运用. 文章:直接获得的有正规性质的文章,或当随笔中的原创经过了讨论.分析和修改后,就可以作为正式的文章被发表,此为正式内容,里面的措辞等都应该得到很好的修正,让他人读起来就如同正式文档或书中的某一章节,行云流水般易读懂.理解. 新闻:当你得到了一些新闻消息时,可以在此发表.然而似乎此中的文章并不能被显示到个人博客首页中,因此很多人就是有新闻消息也不再

博客园使用攻略之如何添加自己的js文件

在博客园里写blog可以添加自己的js文件,这样就可以按照自己的要求在blog里实现一些自己想要的功能. 今天下午,度娘了很久,又看了一些大神的博客,debug了一下他们的代码,终于知道怎么添加js了,现在整理出来,帮助那些像我一样,想在博客上自己整整的朋友. 好废话不多说了直接上图. 进入自己的博客首页,点击[管理] 点击管理进入如下界面,点击[文件],如下图 做好这些准备工作以后,开始打开写随笔界面,添加js文件引用,如下图

如何为自己的博客文章自动添加移动版本(目前仅支持博客园)

前言 从2005年开始撰写第一篇技术博客,我也算是国内最早的一批技术博客作者之一了.其中中断过一段时间,但2008年重新启用之后,这个习惯一直保留到现在,目前已经累积的文章数量已经达到1226篇.这些文章绝大部分都是原创的,转载的有特别注明,文章内容大多是自己实际工作中遇到的问题和解决方案,或者我为企业做顾问服务.培训服务时解决的问题,我尤其喜欢在解决问题后做一点总结,并整理成一篇博客文章分享出来,一来是对思路的重新梳理,同时也希望也许日后能对其他人也有所帮助. 这些年随着移动互联网逐渐占据主流

网络爬虫+HtmlAgilityPack+windows服务从博客园爬取20万博文

网络爬虫+HtmlAgilityPack+windows服务从博客园爬取20万博文 1.前言 最新在公司做一个项目,需要一些文章类的数据,当时就想到了用网络爬虫去一些技术性的网站爬一些,当然我经常去的就是博客园,于是就有下面的这篇文章. 2.准备工作 我需要把我从博客园爬取的数据,保存起来,最好的方式当然是保存到数据库中去了,好了我们先建一个数据库,在来一张表,保存我们的数据,其实都很简单的了啊,如下图所示 BlogArticleId博文自增ID,BlogTitle博文标题,BlogUrl博文地

Python爬虫爬取博客园并保存

Python爬虫爬取博客园并保存        爬取博客园指定用户的文章修饰后全部保存到本地 首先定义爬取的模块文件: crawlers_main.py 执行入口 url_manager.py url管理器 download_manager.py 下载模块 parser_manager.py html解析器(解析html需要利用的内容) output_manager.py 输出html网页全部内容文件(包括css,png,js等) crawlers_main.py 执行入口 1 # coding

博客园备份提取

目录 简述 程序代码 简述 在博客园记录了一些文章,想把它备份到github上,还好大部分博文都是markdown格式的,博客园也支持备份导出,但是到处的是单个的XML文件. 为了把每一篇博文单独提取出来,所以写了一个小程序来提取. github中需要如下图所示的格式,方能正确的分类 文件名需要日期开头,文件内容中最前面一段是文章的一些描述信息 程序代码 程序是用Golang编写的,代码如下: // cnblogs2githubpages project main.go package main