网站超链接点击情况保存到mongodb

想看看有人点击我主页的新闻链接吗 就自己写了这个 看看,结果n天了 都是我自己点的 

前端主要代码(django模板)
<!-- HTML5 最新咨询-->
                <div class="djangonew" style="overflow:auto;float:right;aborder:1px solid red;height:10%;width:49%;">
                <h4 style="color:#A52A2A2;background:#00CED1; text-align:center;">Html5最新动态</h4>
                    {% for title,curl,date in h5news %}
                    <p style="font-size:14px;color:black;border-bottom:1px solid #DCDCDC;margin:17px;"><a onclick="save_url(this)" href="{{curl}}" target="_blank">{{title}}</a>
                    <span style="color:#A9A9A9;font-size:7px"> {{date}}</span>
                    {% endfor %}
                </div>
                
    <script type="text/javascript">
    $.ajaxSetup({
        data: {csrfmiddlewaretoken: ‘{{ csrf_token }}‘ },
    });
    function save_url(t) {
        var data = {
                        IP:"{{IP}}",
                        url: t.href,
                };
        $.post(‘/api/click_url‘, data);
    }
    </script>

后端代码(django)
#访问状态
@login_required(login_url="/")
def Visit(request):
    r10=Redis(host=‘localhost‘,port=6379,db=10,password=‘**‘)
    r12=Redis(host=‘localhost‘,port=6379,db=12,password=‘**‘)
    #mongo Click_url
    today_sec = time.mktime(time.strptime(time.strftime("%Y%m%d"),"%Y%m%d"))
    curl_data = db.curl.find({‘date‘:{‘$gte‘:today_sec}},{‘_id‘:0})
    curl_data = list(curl_data)
    if len(curl_data):
        for i in curl_data:
            i[‘date‘] = time.strftime("%Y%m%d %T",time.localtime(i[‘date‘]))
    #在线
    online_ipall=[]
    for i in r10.keys(‘IP*‘):
        online_ipall.append((i,r10.get(i)))
    #今天
    today_ipallwx=[]
    for i in r12.keys(‘IP*‘):
        today_ipallwx.append((i,r12.lrange(i,start=0,end=-1)))
    today_ipall=sorted(today_ipallwx,key=lambda x:x[1][1],reverse=True)
    return render_to_response(‘plug/visit_state.html‘,{"curl_data":curl_data,"online_ipall":online_ipall,"today_ipall":today_ipall},RequestContext(request))

#点击超链接统计
def Click_url(request):
    if request.method == ‘POST‘:
        url = request.POST.get(‘url‘)
        IP = request.POST.get(‘IP‘)
        db.curl.insert({‘ip‘:IP, ‘url‘:url, ‘date‘:time.time()})
    return HttpResponse("ok")

查看效果图:

时间: 2024-10-07 01:00:10

网站超链接点击情况保存到mongodb的相关文章

Python获取个人网站的所有课程下载链接和密码,并保存到Mongodb中

1.获取网站课程的分类地址: ''' 爬取屌丝首页,获取每个分类名称和链接 ''' import requests from lxml import etree headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.81 Safari/537.36', } def get_class_data(): list_dat

python实现将文件中的每一行文本记录,保存到MongoDB数据库,并防止重复插入

文本如下: #日期 流水号 被浏览页面URL 第×页 访问者IP 访问时间 是否入口 操作系统 浏览器 语言 时区 屏幕分辨率 屏幕色彩位数 省份 城市 接入商 上网场所 是否安装ALEXA 2014-7-17 11452775496 http://www.imaibo.net/space/178120 1 59.41.23.101 2014-7-17 13:38:14 0 Windows XP Chrome 21.0.82014-7-17 11452775466 http://www.imai

实现多线程爬取数据并保存到mongodb

多线程爬取二手房网页并将数据保存到mongodb的代码: import pymongo import threading import time from lxml import etree import requests from queue import Queue index_url='https://m.lianjia.com/gz/ershoufang/pg{}/' detail_url='https://m.lianjia.com{}' # 设置爬取主页的页数 INDEX_PAGE_

多线程爬取都挺好链接并保存到mongodb

一个比较简单,python3多线程使用requests库爬取都挺好,并使用正则提取下载链接,保存到mongodb #!/usr/bin/env python # -*- coding:utf-8 -*- """ @author:Aiker Zhao @file:doutinghao.py @time:下午8:18 """ import requests import re import pymongo from multiprocessing i

Scrapy 爬虫实例 抓取豆瓣小组信息并保存到mongodb中

这个框架关注了很久,但是直到最近空了才仔细的看了下 这里我用的是scrapy0.24版本 先来个成品好感受这个框架带来的便捷性,等这段时间慢慢整理下思绪再把最近学到的关于此框架的知识一一更新到博客来. 先说明下这个玩具爬虫的目的 能够将种子URL页面当中的小组进行爬取 并分析出有关联的小组连接 以及小组的组员人数 和组名等信息 出来的数据大概是这样的 {    'RelativeGroups': [u'http://www.douban.com/group/10127/',           

vue+vux 仿飞猪app火车票部分(五)---城市列表保存到MongoDB数据库并且启用node.js服务

把车站列表保存到数据库,并且从本地创建服务 node.js创建httpserver 1.搭建基于express的运行环境 全局安装express-gengerator cnpm install -g express-gengerator 2.创建express项目,创建了本地服务 express server 生成server目录,目录下的bin是可执行文件,运行bin下的www文件启动服务 node server/bin/www 启动成功打开浏览器localhost:3000 server下的

使用lxml的css选择器用法爬取奇书网并保存到mongoDB中

import requests from lxml import etree from fake_useragent import UserAgent import pymongo class QiShuSpider(object): def __init__(self): self.base_url="https://www.qisuu.la/soft/sort01/" self.headers={ "User-Agent":UserAgent().random,

在scrapy中将数据保存到mongodb中

利用item pipeline可以实现将数据存入数据库的操作,可以创建一个关于数据库的item pipeline 需要在类属性中定义两个常量 DB_URL:数据库的URL地址 DB_NAME:数据库的名字 在Spider爬取的整个过程中,数据库的连接和关闭操作只需要进行一次就可以,应该在开始处理之前就要连接数据库,并在处理完所有数据之后就关闭数据库.所以需要在open_spider和close_spider中定义数据库的连接和关闭操作 在process_item中实现MongoDB的写入操作,使

Vue 添加评论,node作后台保存到MongoDB数据库中

成品图 1.在 textarea 中 v-model 双向绑定要添加的数据,并且 button 中绑定方法 2.将from表单绑定的数据挂载到data上 3. methods 中实现方法,将评论内容以参数形式传进 4.node中调用数据库的create方法添加进数据库 原文地址:https://www.cnblogs.com/zhaohui-116/p/12271161.html