[微信开发]之拉取粉丝数据

什么都要ACCESS_TOKEN

那么什么是ACCESS_TOKEN?

ACCESS_TOKEN是公众号的全局唯一票据,公众号调用各接口时都需使用access_token。开发者需要进行妥善保存。access_token的存储至少要保留512个字符空间。access_token的有效期目前为2个小时,需定时刷新,重复获取将导致上次获取的access_token失效。

获取ACCESS_TOKEN

http请求方式: GET

https://api.weixin.qq.com/cgi-bin/token?grant_type=client_credential&appid=APPID&secret=APPSECRET

结果:{"access_token":"xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx","expires_in":7200}

获取用户列表

订阅号:500/天

https://api.weixin.qq.com/cgi-bin/user/get?access_token=ACCESS_TOKEN&next_openid=NEXT_OPENID

*注:一次拉取调用最多拉取10000个关注者的OpenID,可以通过多次拉取的方式来满足需求。

获取用户基本信息

订阅号:500000/天

http请求方式: GET

https://api.weixin.qq.com/cgi-bin/user/info?access_token=ACCESS_TOKEN&openid=OPENID&lang=zh_CN

<?php
ini_set(‘max_execution_time‘,864000);
    $APPID = ‘xxxxxxxxxxxxxx‘;
    $SECRET = ‘xxxxxxxxxxxxxxxxxxxxxxxxxxx‘;
    $url = ‘https://api.weixin.qq.com/cgi-bin/token?grant_type=client_credential&appid=‘.$APPID.‘&secret=‘.$SECRET;
    $json = file_get_contents($url);
    $array = json_decode($json, true);
    $access_token = $array[‘access_token‘]; 

    $url = ‘https://api.weixin.qq.com/cgi-bin/user/get?access_token=‘.$access_token;
    $json = file_get_contents($url);
    $array = json_decode($json, true);
    $openids = $array[‘data‘][‘openid‘];
    foreach ($openids as $key => $openid) {
        echo $openid,‘<br>‘;
        $this->getmember($access_token, $openid);
    }

    public function getmember($access_token, $openid) {
        $url = "https://api.weixin.qq.com/cgi-bin/user/info?access_token={$access_token}&openid={$openid}&lang=zh_CN";
        $json = file_get_contents($url);
        $array = json_decode($json, true);
        ...........................
    }
?>
时间: 2024-10-05 13:26:09

[微信开发]之拉取粉丝数据的相关文章

拉取后台数据

---------------------------------------------------------------------------------- /** -- * Created by Administrator on 14-8-16. -- *模拟Ajax把数据从数据库中调用出来/后台执行此代码如下/ -- */ -- var http = require('http');/建立服务器的操作/ -- -- http.createServer(function(request

git如何从github拉取更新代码

我在github上fork了一份redis的代码,准备下载到本地学习一下. 我用git clone *** 从我的个人远程仓库把代码下载了下来.不过因为fork的这份代码比较早了,我想从redis的主仓上更新一把最新的代码下来.怎么做呢?我们要用到git remote命令. 首先,我们看一下我们本地的代码关联的远程仓库地址有哪些:git remote命令可以查看到远程仓库的简短名称: 如果要看具体的URL,可以用git remote -v,发现关联的远程仓库就是我自己的github仓库: 下面我

git 拉取子模块

php报错  大致意思是文件不存在  去看下目录  文件夹是空的 因为该目录是一个子模块  到网上找了下资料 你必须运行两个命令:git submodule init来初始化你的本地配置文件,git submodule update来从那个项目拉取所有数据并检出你上层项目里所列的合适的提交: 执行这两个命令

.NET 微信开发之 获取用户数据

通过微信接口获取用户信息主要分为以下几个步骤: a.获取公众号的access_token b.通过查询所有用户OPenid接口获取所有用户. string url = "https://api.weixin.qq.com/cgi-bin/user/get?access_token=" + access_token; c.通过获取用户openid,然后通过openid获取用户数据 d.把用户信息添加到数据库中. 1.参数化查询以及添加用户信息到数据库方法 public void AddT

iOS开发——网络实用技术OC篇&amp;网络爬虫-使用青花瓷抓取网络数据

网络爬虫-使用青花瓷抓取网络数据 由于最近在研究网络爬虫相关技术,刚好看到一篇的的搬了过来! 望谅解..... 写本文的契机主要是前段时间有次用青花瓷抓包有一步忘了,在网上查了半天也没找到写的完整的教程,于是待问题解决后抽时间截了图,自己写一遍封存在博客园中以便以后随时查阅. charles又名青花瓷,在iOS开发中的抓包中具有重要作用.最大的三点用处,一就是拦截别人软件的发送的请求和后端接口,练习开发.二是自己后端返回的response拦截修改后再接收以达到测试临界数据的作用.三写脚本重复拦截

UWP开发:APP之间的数据交互(以微信为例)

目录 说明 UWP应用唤醒方式 跟微信APP交互数据 APP之间交互数据的前提 说明 我们经常看到,在手机上不需要退到桌面,APP之间就可以相互切换,并且可以传递数据.比如我在使用知乎APP的时候,需要使用新浪微博账号登录,点击“微博登录”后,系统自动唤醒新浪微博APP,并将知乎请求登录的数据传给了微博APP(微博APP界面上可以看到是知乎请求登录授权),见下图:    如上所示,依次点击“微博登录”.“确定”,手机界面自动来回切换,不需要人为干预.另外,如果我们在知乎看到一篇有意思的文章,需要

Git与远程仓库交互,拉取与提交数据

一.项目维护者建立一个中心数据远程仓库,用git init 初始化一个仓库. 二.其他developer,以该数据仓库为中心,提交各自的代码供项目维护者确认. ## 建立对远程仓库的镜像:## git remote add Wiki [email protected]:/project/ ## 拉取数据到本地:## git pull 这个命令会直接将远程仓库的分支合并到当前分支,没有经过developer确认,不人性化. 2.git fetch 这个命令将远程数据拉取到本地,可经过确认后再合并,

网页滚动到底部,拉取数据

网页滚动模式 //滚到到底部自动拉取数据 //页面滚到底部异步加载下一页数据 $(window).scroll(function () { //已经滚动到上面的页面高度 var scrollTop = parseFloat($(this).scrollTop()), //页面高度 scrollHeight = $(document).height(), //浏览器窗口高度 windowHeight = parseFloat($(this).height()), totalHeight = scr

iOS开发——网络使用技术OC篇&amp;网络爬虫-使用正则表达式抓取网络数据

网络爬虫-使用正则表达式抓取网络数据 关于网络数据抓取不仅仅在iOS开发中有,其他开发中也有,也叫网络爬虫,大致分为两种方式实现 1:正则表达 2:利用其他语言的工具包:java/Python 先来看看网络爬虫的基本原理: 一个通用的网络爬虫的框架如图所示: 网络爬虫的基本工作流程如下: 1.首先选取一部分精心挑选的种子URL: 2.将这些URL放入待抓取URL队列: 3.从待抓取URL队列中取出待抓取在URL,解析DNS,并且得到主机的ip,并将URL对应的网页下载下来,存储进已下载网页库中.