Bi-LSTM+CRF函数分解

1. to_scalar()

 1 import torch
 2 import torch.autograd as autograd
 3 import torch.nn as nn
 4 import torch.optim as optim
 5 from torch.autograd import Variable
 6
 7 torch.manual_seed(1234)
 8
 9 def to_scalar(var):
10     return var.view(-1).data.tolist()[0]
11
12 a = Variable(torch.LongTensor([[1, 3, 5], [2, 4, 5]]))
13 print(a)
14 ‘‘‘
15 Variable containing:
16  1  3  5
17  2  4  5
18 [torch.LongTensor of size 2x3]
19 ‘‘‘
20 print(a.view(-1))
21 ‘‘‘
22 Variable containing:
23  1
24  3
25  5
26  2
27  4
28  5
29 [torch.LongTensor of size 6]
30 ‘‘‘
31 print(a.view(-1).data)
32 ‘‘‘
33  1
34  3
35  5
36  2
37  4
38  5
39 [torch.LongTensor of size 6]
40 ‘‘‘
41 print(a.view(-1).data.tolist())
42 ‘‘‘
43 [1, 3, 5, 2, 4, 5]
44 ‘‘‘
45 print(a.view(-1).data.tolist()[0])      # 1
46 a = to_scalar(a)
47 print(a)                                # 1

2.

时间: 2024-10-17 19:44:52

Bi-LSTM+CRF函数分解的相关文章

MIT公开课:计算机科学及编程导论 Python 笔记4 函数分解抽象与递归

Lecture4:Decomposition and abstraction through functions:introduction to recursion 函数分解抽象与递归 Functions 函数 block up into modules 分解为模块 suppress detail 忽略细节 create "new primitives" 创建原语的思考方式 w3school Python函数 #example code for finding square roots

关于bert+lstm+crf实体识别训练数据的构建(一)

一.在实体识别中,bert+lstm+crf也是近来常用的方法.这里的bert可以充当固定的embedding层,也可以用来和其它模型一起训练fine-tune.大家知道输入到bert中的数据需要一定的格式,如在单个句子的前后需要加入"[CLS]"和“[SEP]”,需要mask等.下面构造训练集并利用albert抽取句子的embedding. 1 import torch 2 from configs.base import config 3 from model.modeling_a

根据要求求除数的数 与 互素和算法 (的品质因数和欧拉函数分解)

Description One day, Qz met an easy problem. But after a 5-hout-long contest in CSU, he became very tired and he wanted to call his girlfriend as soon as possible. As we all know, Qz is a genius in plenty of fields especially in programming. But he d

hdu2588-GCD-(欧拉函数+分解因子)

The greatest common divisor GCD(a,b) of two positive integers a and b,sometimes written (a,b),is the largest divisor common to a and b,For example,(1,2)=1,(12,18)=6. (a,b) can be easily found by the Euclidean algorithm. Now Carp is considering a litt

TensorFlow (RNN)深度学习 双向LSTM(BiLSTM)+CRF 实现 sequence labeling 序列标注问题 源码下载

http://blog.csdn.net/scotfield_msn/article/details/60339415 在TensorFlow (RNN)深度学习下 双向LSTM(BiLSTM)+CRF 实现 sequence labeling  双向LSTM+CRF跑序列标注问题 源码下载 去年底样子一直在做NLP相关task,是个关于序列标注问题.这 sequence labeling属于NLP的经典问题了,开始尝试用HMM,哦不,用CRF做baseline,by the way, 用的CR

自然语言处理系列-4条件随机场(CRF)及其tensorlofw实现

前些天与一位NLP大牛交流,请教其如何提升技术水平,其跟我讲务必要重视“NLP的最基本知识”的掌握.掌握好最基本的模型理论,不管是对日常工作和后续论文的发表都有重要的意义.小Dream听了不禁心里一颤,那些自认为放在“历史尘埃”里的机器学习算法我都只有了解了一个大概,至于NLP早期的那些大作也鲜有拜读.心下便决定要好好补一补这个空缺.所以,接下来的数篇文章会相继介绍在NLP中应用比较多的一些机器学习模型,隐马尔科夫模型(HMM),条件随机场(CRF),朴素贝叶斯,支持向量机(SVM),EM算法等

Swift # 柯里化函数

前言 此次文章,讲述的是Swift的一个新特性(柯里化函数),可能很多iOS开发人员是第一次听这个词汇,包括我自己也是,自己也用了几天时间才总结出来,希望能帮助到各位咯,个人感觉偏向有开发经验的码友,如果零基础的看懂,希望能给个赞,??! 如果喜欢我的文章,可以关注我,随着后续不断学习Swift中,陆续还会有更新ing.... 什么是柯里化函数? 柯里化(Currying),又称部分求值(Partial Evaluation),是一种函数式编程思想,就是把接受多个参数的函数转换成接收一个单一参数

重构改善既有代码设计--重构手法08:Replace Method with Method Object (以函数对象取代函数)

你有一个大型函数,其中对局部变量的使用,使你无法釆用 Extract Method. 将这个函数放进一个单独对象中,如此一来局部变量就成了对象内的值域(field) 然后你可以在同一个对象中将这个大型函数分解为数个小型函数. class Order... double price() { double primaryBasePrice; double secondaryBasePrice; double tertiaryBasePrice; // long computation; ... }

《代码整洁之道》总结——函数

函数要短.短才方便阅读.维护和设计. 函数只做一件事.依照单一职责原则(一个类只会因为一个原因改变)设计函数.一个函数要么进行流程控制或逻辑判断,要么改变某事物的状态,要么计算并返回结果,要么调用多个下一抽象级的其他函数(另一种流程控制而已).不要有多余功能. 我们可以把函数分解成多个抽象层级来设计,在调用时最好只同时调用同一层级的函数,依照倒树状图来设计函数.个人认为类似于面向过程编程的思想. 函数不应该有作为标识的参数,这意味着函数有至少两种执行方式违反了第2条原则. 函数参数最多有两个,除