ZH奶酪:自然语言处理工具LTP语言云怎么调用?

前言

LTP语言云平台

  支持分词、词性标注、命名实体识别、依存句法分析、语义角色标注;

  支持自定义分词(你提供分词后的数据,它帮你标注),但是不支持自定义词表;  支持C#、Go、Java、JavaScript、Nodejs、PHP、Python、R、Ruby等语言调用;  还有一些错误响应频率限制重要说明(这几个我至今也没用到);正文

官方网址:http://www.ltp-cloud.com/

使用文档:http://www.ltp-cloud.com/document/

在线演示:http://www.ltp-cloud.com/demo/

各种语言调用实例可以到Github上下载:https://github.com/HIT-SCIR/ltp-cloud-api-tutorial

例如Python版本的:https://github.com/HIT-SCIR/ltp-cloud-api-tutorial/tree/master/Python

Step1:注册

这个网址申请一个API key,稍后会用到;

Step2:一个简单的例子(Python版)

(1)复制代码:从Github上复制一段代码(取决于你使用的语言和所需的功能)

(2)修改代码:

  <1>把 api_key = "YourApiKey" 中的 "YourApiKey" 修改成你Step1申请的API Key;

  <2>把 text = "我爱北京天安门" 修改成你要处理的文本;

  <3>根据需求设置不同的参数(其实只需要api_key,text,pattern,format四个参数就够了,仔细看下pattern):

   

# -*- coding: utf-8 -*-
#!/usr/bin/env python

# This example shows how to use Python to access the LTP API to perform full
# stack Chinese text analysis including word segmentation, POS tagging, dep-
# endency parsing, name entity recognization and semantic role labeling and
# get the result in specified format.

import urllib2, urllib
import sys

if __name__ == ‘__main__‘:
    if len(sys.argv) < 2 or sys.argv[1] not in ["xml", "json", "conll"]:
        print >> sys.stderr, "usage: %s [xml/json/conll]" % sys.argv[0]
        sys.exit(1)

    uri_base = "http://ltpapi.voicecloud.cn/analysis/?"
    api_key  = "YourApiKey"
    text     = "我爱北京天安门"
    # Note that if your text contain special characters such as linefeed or ‘&‘,
    # you need to use urlencode to encode your data
    text     = urllib.quote(text)
    format   = sys.argv[1]
    pattern  = "all"

    url      = (uri_base
               + "api_key=" + api_key + "&"
               + "text="    + text    + "&"
               + "format="  + format  + "&"
               + "pattern=" + "all")

    try:
        response = urllib2.urlopen(url)
        content  = response.read().strip()
        print content
    except urllib2.HTTPError, e:
        print >> sys.stderr, e.reason

Step3:运行

如果要批量处理txt或者xml文件,需要自己写一段批量处理的代码,下边是我之前项目中用到的一段批量处理某一目录下txt文件代码(就是加了一层循环和设置了一个输出):

 1 # -*- coding: utf-8 -*-
 2 #!/usr/bin/env python
 3
 4 # This example shows how to use Python to access the LTP API to perform full
 5 # stack Chinese text analysis including word segmentation, POS tagging, dep-
 6 # endency parsing, name entity recognization and semantic role labeling and
 7 # get the result in specified format.
 8
 9 import urllib2, urllib
10 import sys
11
12 if __name__ == ‘__main__‘:
13     uri_base = "http://ltpapi.voicecloud.cn/analysis/?"
14     api_key  = "7132G4z1HE3S********DSxtNcmA1jScSE5XumAI"
15
16     f = open("E:\\PyProj\\Others\\rite_sentence.txt")
17     fw = open("E:\\PyProj\\Others\\rite_pos.txt",‘w‘)
18
19     line = f.readline()
20     while(line):
21         text     = line
22         # Note that if your text contain special characters such as linefeed or ‘&‘,
23         # you need to use urlencode to encode your data
24         text     = urllib.quote(text)
25         format   = "plain"
26         pattern  = "pos"
27
28         url      = (uri_base
29                    + "api_key=" + api_key + "&"
30                    + "text="    + text    + "&"
31                    + "format="  + format  + "&"
32                    + "pattern=" + pattern)
33
34         try:
35             response = urllib2.urlopen(url)
36             content  = response.read().strip()
37             print content
38             fw.write(line+content+‘\n‘)
39         except urllib2.HTTPError, e:
40             print >> sys.stderr, e.reason
41         line = f.readline()
42     fw.close()
43     f.close()
时间: 2024-11-09 00:09:10

ZH奶酪:自然语言处理工具LTP语言云怎么调用?的相关文章

Python下的自然语言处理利器-LTP语言技术平台 pyltp 学习手札

1 什么是pyltp 语言技术平台(LTP) 是由 哈工大社会计算与信息检索研究中心 11 年的持续研发而形成的一个自然语言处理工具库,其提供包括中文分词.词性标注.命名实体识别.依存句法分析.语义角色标注等丰富. 高效.精准的自然语言处理技术.LTP制定了基于XML的语言处理结果表示,并在此基础上提供了一整套自底向上的丰富而且高效的中文语言处理模块(包括词法.句法.语义等6项中文处理核心技术),以及基于动态链接库(Dynamic Link Library, DLL)的应用程序接口,可视化工具,

LTP语言云API使用文档

简介 语言云新版API是REST风格的WEB API调用服务,REST API服务有诸多优点,这使得它越来越流行.应用于语言云服务中,主要有如下特点: 免SDK安装:REST API的调用无须用户下载SDK,使得语言分析更为便捷. 结果表示格式丰富:API提供了包括PLAIN/XML/JSON/CONLL等多种格式的结果表示.且返回结果容易扩展,便于进行二次开发. 支持JavaScript调用:语言云支持JavaScript以JSON-P回调的方式调用API,使得返回结果可以嵌入到Web页面或者

Python自然语言处理工具小结

Python自然语言处理工具小结 作者:白宁超 2016年11月21日21:45:26 1 Python 的几个自然语言处理工具 NLTK:NLTK 在用 Python 处理自然语言的工具中处于领先的地位.它提供了 WordNet 这种方便处理词汇资源的借口,还有分类.分词.除茎.标注.语法分析.语义推理等类库. Pattern:Pattern 的自然语言处理工具有词性标注工具(Part-Of-Speech Tagger),N元搜索(n-gram search),情感分析(sentiment a

Python 的十个自然语言处理工具

原文 先mark,后续尝试. 1.NLTK NLTK 在用 Python 处理自然语言的工具中处于领先的地位.它提供了 WordNet 这种方便处理词汇资源的借口,还有分类.分词.除茎.标注.语法分析.语义推理等类库. 网站 http://www.nltk.org/ 安装 安装 NLTK: sudo pip install -U nltk 安装 Numpy (可选): sudo pip install -U numpy 安装测试: python then type import nltk 2.P

语言云

语言云运用例子 # -*- coding:utf8 -*- # This example shows how to use Python to access the LTP API to perform full # stack Chinese text analysis including word segmentation, POS tagging, dep- # endency parsing, name entity recognization and semantic role lab

【HanLP】HanLP中文自然语言处理工具实例演练

HanLP中文自然语言处理工具实例演练 作者:白宁超 2016年11月25日13:45:13 摘要:HanLP是hankcs个人完成一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用.HanLP具备功能完善.性能高效.架构清晰.语料时新.可自定义的特点. 在提供丰富功能的同时,HanLP内部模块坚持低耦合.模型坚持惰性加载.服务坚持静态提供.词典坚持明文发布,使用非常方便,同时自带一些语料处理工具,帮助用户训练自己的语料.笔者坚定支持开源的项目,本文初衷是使用自然语言

ZH奶酪:Ubuntu 14.04配置LAMP(Linux、Apache、MySQL、PHP)

ZH奶酪:Ubuntu 14.04安装LAMP(Linux,Apache,MySQL,PHP) 之前已经介绍过LAMP的安装,这边文章主要讲解一下LAMP的配置. 1.配置Apache (1)调整KeepAlive设置(参考[1].[2]): 在内存非常充足的服务器上,不管是否关闭 KeepAlive 功能,服务器性能不会有明显变化: 如果服务器内存较少,或者服务器有非常大量的文件系统访问时,或者主要处理动态网页服务,关闭 KeepAlive 后可以节省很多内存,而节省出来的内存用于文件系统Ca

【架构】技术-工具-平台-语言&amp;框架

技术-工具-平台-语言&框架 Techniques | Technology Radar | ThoughtWorks 原文地址:https://www.cnblogs.com/junneyang/p/8267546.html

使用Navicat或者其他数据库工具连接阿里云EDS(数据库服务器)实例过程详解

使用Navicat或者其他数据库工具连接阿里云EDS(数据库服务器)实例过程详解 背景:这几天从阿里云上面购买了云服务器,最垃圾的那种,还送oss和EDS数据库服务器,只不过EDS数据库服务器只有一个月的,就主动升级为一年的,49还是59忘了.对于配置这种EDS过程中,产生的一个念头就是:大厂就是大厂,考虑到用户使用产品的各个方面,都给你解释的清清楚楚,安排的明明白白的.所以,完全可以按照官方给的文档数据库权限用户和创建数据库和表,并使用Navicat连接到远程服务器 自己写文档不给官方文档,实