解析JSON插入数据库

<?php
header("Content-Type:text/html;charset=utf-8");
include_once(‘./mysql.php‘);
$filename = "F:/heyu.txt";
$handle = fopen($filename, "r");//读取二进制文件时,需要将第二个参数设置成‘rb‘

//通过filesize获得文件大小,将整个文件一下子读到一个字符串中
$contents = fread($handle, filesize ($filename));
$arr = json_decode($contents,true);
$arr=$arr[‘weibosearchcontent‘];

$str_target=‘‘;
$str_data=‘‘;

$conndb=new ConnDB();

foreach($arr as $i=>$msg){
    echo $i.‘<br>‘;
    foreach($msg as $key=>$val){
            //echo $key.‘=>‘.$val.‘<br>‘;
            $str_target.=$key.‘,‘;
            if($key==‘uid‘){
                $val=str_replace(‘1001030103‘,‘‘,$val);
                }

            if($key==‘titles‘){//遍历moods数组

                    $tmp=‘‘;
                    foreach($val as $t=>$v){
                        $tmp.=$v.‘,‘;
                    }
                    $tmp=rtrim($tmp,",");

                    $str_data.=‘\‘‘.$tmp.‘\‘,‘;
            }
            else if($key==‘pics‘){//遍历moods数组

                    $tmp=‘‘;
                    foreach($val as $t=>$v){
                        $tmp.=$v.‘,‘;
                    }
                    $tmp=rtrim($tmp,",");

                    $str_data.=‘\‘‘.$tmp.‘\‘,‘;
            }
            else if($key==‘moods‘){//遍历moods数组

                    $tmp=‘‘;
                    foreach($val as $t=>$v){
                        $tmp.=$v.‘,‘;
                    }
                    $tmp=rtrim($tmp,",");

                    $str_data.=‘\‘‘.$tmp.‘\‘,‘;
            }
            else{
                $str_data.=‘\‘‘.$val.‘\‘,‘;
            }
        }
        //去掉最后的逗号
        $str_target=rtrim($str_target, ",");
        $str_data=rtrim($str_data, ",");

        echo $str_target.‘<br>‘;
        echo $str_data.‘<br>‘;

        $sql=‘insert into keyword_weibo(‘.$str_target.‘) values(‘.$str_data.‘)‘;
        $conndb->query($sql);

        $str_target=‘‘;
        $str_data=‘‘;
    }

fclose($handle);
?>
时间: 2024-10-17 13:29:27

解析JSON插入数据库的相关文章

《项目经验》--通过js获取前台数据向一般处理程序传递Json数据,并解析Json数据,将前台传来的Json数据写入数据库表中

  先看一下我要实现的功能界面:   这个界面的功能在图中已有展现,课程分配(教师教授哪门课程)在之前的页面中已做好.这个页面主要实现的是授课,即给老师教授的课程分配学生.此页面实现功能的步骤已在页面中有所体现,这里不再赘述,此篇文章主要介绍:我是如何通过js从前台获取数据,然后通过ajax技术向后台一般处理程序传递JSON,后台又是如何获取传来的JSON,并对JSON数据转换,然后将转换后的数据写入数据库的! 介绍这些步骤实现前,先说说自己的辛酸:絮叨辛酸,是因为为了实现这个功能,我真的用了很

ajax查询数据库,服务器传回json字符串,js解析json

服务器端获得要查询的东西,查询数据库,将查询的信息,以json字符串的形式返回给浏览器 public void doGet(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException { String departmentID=request.getParameter("departmentID"); DataBaseHandle dataBaseHandl

我也来学着写写WINDOWS服务-解析xml抓取数据并插入数据库

项目告一段落,快到一年时间开发了两个系统,一个客户已经在试用,一个进入客户测试阶段,中间突然被项目经理(更喜欢叫他W工)分派一个每隔两小时用windows服务去抓取客户提供的外网xml,解析该xml,然后将截取的节点字段值插入到已经建好相应结构的表中.并记录日志. xml结构概要如下: <?xml version="1.0" encoding="UTF-8"?> <list> <info> <id>93ef7c7ccc

python3.4.3 调用http接口 解析response xml后插入数据库

工作中需要调用一个http的接口,等不及java组开发,就试着用python去调用.Python版本3.4.3 完整的流程包括:从sqlServer取待调用的合同列表 -> 循环调用http接口 -> 将response写入xml文件 -> 解析xml -> 插入oracle数据库 要去公司旅游了,先把代码放着,以后再详细解释记录一下. #!/usr/bin/python3 import time import pymssql import urllib.parse import

通过js获取前台数据向一般处理程序传递Json数据,并解析Json数据,将前台传来的Json数据写入数据库表中

摘自:http://blog.csdn.net/mazhaojuan/article/details/8592015 通过js获取前台数据向一般处理程序传递Json数据,并解析Json数据,将前台传来的Json数据写入数据库表中  先看一下我要实现的功能界面:   这个界面的功能在图中已有展现,课程分配(教师教授哪门课程)在之前的页面中已做好.这个页面主要实现的是授课,即给老师教授的课程分配学生.此页面实现功能的步骤已在页面中有所体现,这里不再赘述,此篇文章主要介绍:我是如何通过js从前台获取数

毕设三 spark与phoenix集成插入数据/解析json数组

需求:将前些日子采集的评论存储到hbase中 思路: 先用fastjson解析评论,然后构造rdd,最后使用spark与phoenix交互,把数据存储到hbase中 部分数据: 1 [ 2 { 3 "referenceName": "Apple iPhone XR 64GB 黑色 移动联通电信4G全网通手机 双卡双待", 4 "creationTime": "2019-04-08 01:13:42", 5 "cont

PHP接收json,并将接收数据插入数据库

<?php require ('connect.php'); /* 本例用到的数据: post_array={"order_id":"0022015112305010013","buyer_id":"2","seller_id":"1","all_price":"100.00","json_list":[{"pr

基于java的网络爬虫框架(实现京东数据的爬取,并将插入数据库)

原文地址http://blog.csdn.net/qy20115549/article/details/52203722 本文为原创博客,仅供技术学习使用.未经允许,禁止将其复制下来上传到百度文库等平台. 目录 网络爬虫框架 网络爬虫的逻辑顺序 网络爬虫实例教学 model main util parse db 再看main方法 爬虫效果展示 网络爬虫框架 写网络爬虫,一个要有一个逻辑顺序.本文主要讲解我自己经常使用的一个顺序,并且本人经常使用这个框架来写一些简单的爬虫,复杂的爬虫,也是在这个基

利用fastjson解析json并通过js&amp;ajax实现页面的无跳转刷新

1.json是一种优秀的数据格式,在移动开发和web开发中经常用到,本例中通过一个小案例讲解如何通过alibaba的开源框架fastjson来解析jason数据格式并通过js实现无跳转刷新 2,新建一个web项目,这是我的项目:我这里直接用servlet写的 注意导包,我这里到了很多无用的包,其实主要的包是下面几个: 这个三个包是必须的,其他都是开发基本web的常用包 3.创建一个domain: package com.keson.domain; import com.thoughtworks.