博客园文章添加版权信息的方法

管理——操作——博客签名,进入到制作签名的页面。在“内容”的文本框输入如下信息并替换相应的文字: 

<div>作者:<a href="http://www.cnblogs.com/lamp01/" target="_blank">郁冬</a></div><div>出处:<a href="http://www.cnblogs.com/lamp01/" target="_blank">http://www.cnblogs.com/lamp01/</a></div>
<div>本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须在文章页面给出原文连接,否则保留追究法律责任的权利。 </div>

在管理——设置——页面定制CSS代码中加上CSS代码

#MySignature{  
 border:solid 1px #E5E5E5;
 padding:10px;
 background:#E5EEF7 url(http://images.cnblogs.com/cnblogs_com/grenet/226272/o_o_o_info.png) no-repeat scroll 15px 50%;
 padding-left:80px;}
#MySignature div{
  line-height: 20px;
}

便能在每篇文章后面看到如下版权信息了:

时间: 2024-08-24 15:42:21

博客园文章添加版权信息的方法的相关文章

【博客写作】写博客的好处,附博客园文章添加阅读目录的方法总结

工程师为什么要写Blog 好处一:产生学习动机,有方向性地筛选资讯 人的脑袋跟时间有限,过多庞杂的资讯就等于无用的资讯,跟白噪音一样会被你的脑袋自然过滤掉. 好处二: 检视自己既有知识,将 input 的新资讯与既有的知识建立连结 持续检视自我,才能发现不足之处,进行改善.才能发现自我成长的亮点,保持持之以恒的动能.所以,你需要给自己创造持续检视自我的机会.你的定期写文规划与行动,就是最好的事件点. 好处三: 透过写文,刻意强化刺激知识转化,进行内化知识过程 因此这个步骤很重要,把「别人提供的资

简单爬虫-抓取博客园文章列表

原文:简单爬虫-抓取博客园文章列表 如果使用对方网站数据,而又没有响应的接口,或者使用接口不够灵活的情况下,使用爬虫在合适不过了.爬虫有几种,对方网站展示形式有几种都是用分析,每个网站展示有相似的地方,有不同的地方. 大部分使用httpRequst就能完成,不管是否添加了口令.随即码.请求参数.提交方式get或者post.地址来源.多次响应等等.但是有些网站使用ajax如果是返回json或固定格式的也好处理,如果是很复杂的,可以使用webbrower控件进行抓取,最后正则解析,获取所需要的数据即

Python抓拍博客园文章,并存入数据库

在学习python后,想做个爬虫,抓取博客园文章. 爬虫思路很简单,模拟浏览器访问网页,得到网页的html代码,再根据页面结构,从html中提取自己需要的内容. 本文代码主要分为3个部分: 1.读取博客园首页文章链接. https://www.cnblogs.com/是博客园的首页,列出了文章,分析页面内容,读取文章的链接. 这需要看页面的结构,可以使用浏览器,再浏览页面代码,选择元素,看界面上选中哪一部分,根据自己的需要,可以看到对应模块的代码. 2.对于每个页面,分析页面内容. 这需要看页面

利用GitHook实现博客园文章的备份和自动发布

在使用vscode中的writecnblog插件时有所启发,链接: 用vscode写博客和发布,大家可以看看. 我们在本地可以利用git轻松实现博客园文章的历史记录管理,利用博客园的MetaWeblog API 别人的介绍编写小程序来自动化上传文章(参考插件). 更进一步,将这个程序放到githook里,每次commit时自动执行,就实现了现博客园文章的备份和自动发布. 这样,你每次发布文章的步骤就简化为: 编写本地一个Git仓库内的xx.md文件 commit更改 程序会自动获取diff,然后

利用GitHook实现博客园文章的备份和自动发布.md

在使用vscode中的writecnblog插件时有所启发,链接: [用vscode写博客和发布](https://www.cnblogs.com/caipeiyu/p/5475761.html),大家可以看看. 我们在本地可以利用git轻松实现博客园文章的历史记录管理,利用博客园的MetaWeblog API [别人的介绍](https://www.cnblogs.com/caipeiyu/p/5354341.html)编写小程序来自动化上传文章(参考插件). 更进一步,将这个程序放到gith

实用scrapy批量下载自己的博客园文章

首先,在items.py中定义几个字段用来保存网页数据(网址,标题,网页源码) 如下所示: import scrapy class MycnblogsItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() page_title = scrapy.Field() page_url = scrapy.Field() page_html = scrapy.Field() 最重要的是我

博客园文章转PDF之非多线程方式

问题: 现在博客园写的文章想要在自己本地存一份,一个一个复制有点麻烦,希望能够程序化解决这个问题 思路: 博客园园第二页会出现页码,可以通过请求第二页,获得页面信息,然后把总页码获取到 每个页面的地址一样除了页码的地方不一样,因此,循环总页码,就可以得到每一个文章列表页的内容 得到了文章列表页的内容,可以把每个文章列表的文章链接获取到,且放在list中 循环文章链接,访问文章页面,获取文章标题和内容,并加上head,得到文章HTML且排除了左边栏及上下底部 把生成的HTML且排除了非文章内容的文

博客园 功能添加 统计访问量

方式1: #使用amazingcounters 步骤1:注册账号 http://www.amazingcounters.com/sign-up.php 步骤2: 选择counter的风格. 步骤3: 填写网页的info.(关键是Site URL ) 步骤4: 把Counter的代码拷贝到博客园的 "管理" -> "设置" 选项,在公告编辑栏中添加你的HtmlCode,比如我的是: <div align="center"><

对博客园文章审核规则的质疑

几次发文章都被移出首页,让我很是郁闷. http://www.cnblogs.com/zhupengfei/p/8983666.html http://www.cnblogs.com/zhupengfei/p/8934072.html 移出的原因都是因为图片太多,文字太少. 我就很郁闷了,实例讲解,不用图片用什么?文字能有图片描述的清楚吗? 同样的文章在CSDN就没有任何问题,几分钟后就可以审核通过. 目前还有一个问题就是我在博客园发的文章无法被百度收录到,而在CSDN的却可以. 是否考虑转到C