html_1

一、软件结构:

1. C/S(Client Server)客户端和服务端结构的软件结构的软件。(QQ,极品飞车等)

  • 优点:减轻服务端的压力,而且可以大量保存数据在客户端。
  • 缺点:更新是需要用户下载更新包然后安装,程序员需要开发客户端和服务端。

2. B/S(Browser Server)浏览器服务器结构的软件。(webQQ、web迅雷、微博等)

  • 优点:软件版本升级的时候不需要用户下载更新包,直接更新服务器的程序即可,程序员只需要开发服务端而已。
  • 缺点:增加了服务端的压力;BS结构的软件不能保存大量的数据在用户机上。

二、网站的类别

1. 静态网站:

  • 静态网页中的数据都是写死的,如果选哟修改网页的内容是需要直接修改网页的代码,是没有数据库提供给它的。

2. 动态网站:

  • 同台网站的数据是用来自于数据库的,背后是一个后台程序管理页面中的数据的。

三、html(超文本标记语言)

**标记:该门语言是有标签来构成的。学习html不用怎么去理解,只需要记住标签的作用即可。

1. html语言是开发网页的基础语言。

2. html语言的特点?

  • html语言与平台无关,任何平台只要安装了浏览器都可以运行。
  • html不区分大小写。

3. html结构

  <html>  html语言的根标签

    <head></head>  网页的头部分

作用:1.网页标题,若不设置,用的是文件名

  2.通知浏览器使用指定的编码格式解释html页面(utf-8,GBK等)。

  <body></body>  网页的体部分

时间: 2024-08-25 07:01:55

html_1的相关文章

html_1基础

1.HTML的宏观结构树 <!DOCTYPE html> <html> <head> </head> <body></body> </html> 2.HTML内的head里面的内容 示例example: <!DOCTYPE html> <html> <head> <meta http-equiv="content-type" content="text

百度贴吧图片抓取工具

本着周末逛贴吧看图片,发现电脑运行内存太小,网页加载太慢,一怒之下写个爬虫把图片都下载到本地慢慢看 得到结果如下: 千张内涵图随意浏览 程序第一个选项: 对应的贴吧是: 第二个选项: 对应的贴吧是 抓取的对象为楼主所发的图片: 好的,开搞: 下面是基于python3写的 通过观察,得到爬虫思路为: 思路1.搜索什么贴吧kw2.贴吧内的什么贴qw3.进入贴吧href="/p/4.图片<img src="5.页数pn= 第一步思路是构造网址,观察看到贴吧网址为: 代码为 # 输入的文

fieldset——一个不常用的HTML标签

fieldset 标签 -- 对表单进行分组 在form表单中,我们可以对form中的信息进行分组归类,如注册表单的form,我们可以将注册信息分组成 基本信息(一般为必填) 详细信息(一般为可选) 那我们如何更好的来实现呢?我们可考虑在表单form中加入下面两个标签: fieldset:对表单进行分组,一个表单可以有多个fieldset. legend:说明每组的内容描述. 格式: <fieldset> <legend>health information</legend&

HAProxy+Keepalived实现负载均衡高可用

一.环境 5台虚拟机,分别是: 1台测试机(192.168.2.83); 2台haproxy/keepalived(192.168.2.230/192.168.2.231); 2台Web Servers(192.168.2.232/192.168.2.233); 注:VIP设置为 192.168.2.228: 二.安装配置Web Server 由于Web Server的安装与配置非常简单,根据自己喜好,安装一个即可:比如:apache.nginx.tomcat等等.在此就不再详述: 三.安装配置

python网页爬虫小项目开发

这是我最近接的一个小项目,花了是整整四天多时间,最终老师也很好,给了两千块的报酬. 任务是将http://www.examcoo.com/index/detail/mid/7网站下所有的试卷里的试题全部提取出来,首先按照题型进行分类,接着分析出题目的类型 类别 来源 出题时间等等信息,最终将这些信息转化到excel表格中,excel中的数据有着统一的格式.其中有些信息有关医学,故而需要自行了解. 由于仅仅是是为了完成最终的任务,故而没有使用什么爬虫框架之类的,也没有使用什么数据库来保存数据,尽量

解决数据库插入之后的乱码问题 【转】

从网站上获取的信息要保存在本地数据库中,但是保存的过程中数据库的信息都变成了乱码,怎么解决呢?客官听我娓娓道来. 首先,保证以下四项的编码都是utf-8: 1. 代码 2. 数据库连接 3. 表的字符集格式 4. 插入的数据格式 每步的操作如下: 1. 保证代码的格式是utf-8,在代码最前面加上这句话 # -*- coding:utf8 -*- #首先用于确定编码,加上这句 2. 保证数据库连接格式是utf-8,这么写 conn=MySQLdb.connect(host='localhost'

使用ajax与iframe嵌套实现页面局部刷新

使用ajax与iframe嵌套实现页面局部刷新.该javascript代码仅供参考,需按自己需要修改.?1. [代码]javascript代码 function cj_start(depname,groupid){    var urls = "<%=path%>/userGather.action";    var status = "";    var html_1 = "<iframe frameborder=\"0\&q

爬取动态图片—以百度图片为例

一:何谓动态加载图片 所谓动态加载图片即指html刚加载时,图片时没有的,然后通过json发生有关图片的数据,在插入到html里面去,以到底快速打开网页的目的,那么问题来了?我们如何找到加载文件的json文件呢?而这个问题正是我们实现爬取百度图片的第一步,让小可爱告诉你怎么做吧. 我们以表情包这个关键字为例,如下图 小可爱在百度图片搜索表情包来到上图页面,然后按F12来到开发者页面, 我们点击二个json文件 如: ①https://image.baidu.com/search/acjson?t

爬取4k图片网图片

注意更改路径 1 import os 2 import requests 3 from lxml import etree 4 from urllib.request import urlopen, Request 5 import time 6 7 class BiAnImage(): 8 def __init__(self): 9 self.base_url = "http://pic.netbian.com" 10 self.header = {"User-Agent&