妹子图太多怎么看才好,Swing来支招

最近事少,翻开很久以前写的小程序,创意倒是尚可,代码写的却比较基础,很多东西没有实现,略改了改形成了现在的模样,现在大家都忙着大数据,中间件,web开发,偶尔看看Java Swing的作品,或许能有另一番感觉。

源码:https://github.com/zhishan332/mana

直接下载可运行(jdk1.6以上):CSDN下载 回头放个云盘的下载链接

如题所说我们是来看妹子的,下面我们就开始:

1.流式浏览,区别与流行看图软件,加快了浏览速度,和网页看图感觉很像

2.设置页面,比较好用的可能是滚动速度和浏览模式

3.选择需要管理的图片文件夹

4.右键菜单

5.树形菜单右键

6.分页

7.再见..

妹子图太多怎么看才好,Swing来支招,布布扣,bubuko.com

时间: 2024-11-07 01:31:26

妹子图太多怎么看才好,Swing来支招的相关文章

Python爬虫入门教程 2-100 妹子图网站爬取

前言 从今天开始就要撸起袖子,直接写Python爬虫了,学习语言最好的办法就是有目的的进行,所以,接下来我将用10+篇的博客,写爬图片这一件事情.希望可以做好. 为了写好爬虫,我们需要准备一个火狐浏览器,还需要准备抓包工具,抓包工具,我使用的是CentOS自带的tcpdump,加上wireshark ,这两款软件的安装和使用,建议你还是学习一下,后面我们应该会用到. 网络请求模块requests Python中的大量开源的模块使得编码变的特别简单,我们写爬虫第一个要了解的模块就是requests

Python爬虫入门【2】:妹子图网站爬取

妹子图网站爬取---前言 从今天开始就要撸起袖子,直接写Python爬虫了,学习语言最好的办法就是有目的的进行,所以,接下来我将用10+篇的博客,写爬图片这一件事情.希望可以做好. 为了写好爬虫,我们需要准备一个火狐浏览器,还需要准备抓包工具,抓包工具,我使用的是CentOS自带的tcpdump,加上wireshark ,这两款软件的安装和使用,建议你还是学习一下,后面我们应该会用到. 妹子图网站爬取---网络请求模块requests 妹子图网站爬取---安装requests 打开终端:使用命令

Android图表库MPAndroidChart(二)——线形图的方方面面,看完你会回来感谢我的

Android图表库MPAndroidChart(二)--线形图的方方面面,看完你会回来感谢我的 我们继续来就学习,我是强烈建议看本篇之前先看我的上一篇 Android图表库MPAndroidChart(一)--了解他的本质,方能得心应手 我们这里来实现它的折线图,也就是我们的第一个图形,我们先来看下运行后的结果: 我们一步一步来分析他是怎么实现的,首先,我们要分析他组成的元素一共是多少有多少,我们抛开基本控件Button之外,我们算了算 x轴(最大/最小值 颜色 高宽等) Y轴(最大/最小值

使用Python下载妹子图网站图片

最近在学习Python的爬虫部分.看到有网友在分享使用爬虫爬取各种网站的图片的代码,也想自己写个玩玩.今天花时间分析了一下妹子图网站的结构和HTML代码,使用urllib2和BeautifulSoup写出了一个自动下载妹子图网站图片的脚本. 妹子图网址:http://www.mzitu.com 运行效果如下: 源代码如下,请各位大神指教: # -*- coding:utf8 -*- # Python:         2.7.8 # Platform:       Windows # Autho

妹子图爬取__正则实现

妹子图爬取 页面链接 正则实现代码: import re import requests import os hehehe = os.getcwd() headers = { 'User-Agent': "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1", 'Referer': 'http://i.meizitu.net'}

爬虫之煎蛋网妹子图 大爬哦

今天为了测试一下urllib2模块中的headers部分,也就是模拟客户端登陆的那个东东,就对煎蛋网妹子图练了一下手,感觉还可以吧.分享一下! 代码如下 # coding:UTF-8 import urllib2,urllib,re,random def getHtml(url) : request = urllib2.Request(url,headers=headers) response = urllib2.urlopen(request) page = response.read() r

妹子图数网页爬取

任务:将妹子图首页展示的200多页数据全部爬取下来 在爬取的过程中,需要用到requests库来获取网页 使用bs库来解析网页 随后将图片以图集的形式保存到文件汇总 首先是获取所有图集url的函数 import requests from bs4 import BeautifulSoup as bs import threading import time import os def get_base_url(): """ 获取妹子图的所有图集url,并返回url组成的列表

小白爬虫第一弹之抓取妹子图【更新版】

最近对爬虫感兴趣,参考了  http://cuiqingcai.com/3179.html   这篇文章,琢磨的小试身手,但是按照原文发现图片下载下来全是打不开的图片,这不是我想要的啊,尝试直接把图片的链接在浏览器中打开,发现已经看过的没有问题,新打开的就不行了,一直怀疑是在cookie方面做了文章,在request里也确实发现了有两个cookie的身影,但就是怎么找也找不到这两个cookie怎么来的,一度想放弃,爬个别的站算了,对妹子们的不舍还是又坚持研究了半天,在浏览器里的抓包工具里一直查看

努力学习IT编程用成就赢得梦寐以求的妹子[图]

今天心情不错,因为前段时间老是熬夜学习编程知识,因此生物钟已经乱套了,因此昨天就一天没睡,为了调整自己的生物钟也是拼了,但白天实在是太难熬了,一点精神都没有,但凭借着自己的毅力算是熬了一整天,到了晚上10点半的时候,瞌睡终于来了,周公要见我,太好了,满心欢喜的洗澡睡觉了.不过令我郁闷的时候,洗完澡居然又清醒了不少,这可是个×××烦,于是又看了会儿漫画,我比较喜欢的<头罗大陆>,已经看到200回了,看了1个多小时吧,终于困了,于是就休息了,睡到4点半的时候居然又醒了,而且之后一直没法睡着,就看了