『Collections』数据结构和算法_容器型value字典&顺序字典

一、collections.defaultdict:多值映射字典

defaultdict省去了初始化容器的过程,会默认value对象为指定类型的容器

指定list时可以使用.append,

from collections import defaultdict

d = defaultdict(list)

d[‘a‘].append(1)
d

defaultdict(list, {‘a‘: [1]})

指定set时可以使用.add,

d = defaultdict(set)

d[‘a‘].add(1)
d[‘a‘].add(1)
d

defaultdict(set, {‘a‘: {1}})

原字典可以使用.setdefault方法指定value为容器,但是不太推荐,如下,

d = {}
d.setdefault(‘a‘, []).append(1)
d.setdefault(‘a‘, []).append(2)
d.setdefault(‘b‘, []).append(3)
d.setdefault(‘c‘, {1,2,3}) #默认的dict对象没有add方法,非使用append也不行
# 由于默认的方法中每次添加新的元素都要创建新的空对象[],所以不推荐
d

{‘a‘: [1, 2], ‘b‘: [3], ‘c‘: {1, 2, 3}}

顺便,字典的内容是key值,

‘a‘ in d # 字典in的是key

True

二、collections.OrderedDict:含序字典

OrderedDict内部维护着一个双向链表用于记录键值插入的顺序,更新键值不会影响原有顺序,插入键值会插入在末尾,所以其内存消耗为普通字典的两倍

from collections import OrderedDict

d = OrderedDict()
d[‘a‘] = 1
d[‘c‘] = 3
d[‘b‘] = 2
print(d, d.items())

OrderedDict([(‘a‘, 1), (‘c‘, 3), (‘b‘, 2)])

odict_items([(‘a‘, 1), (‘c‘, 3), (‘b‘, 2)])

含序字典实际上常和json连用,用于输出信息,

import json
# 对字典进行编码,使用OrderdDict可以控制字段顺序

json.dumps(d)

‘{"a": 1, "c": 3, "b": 2}‘

原文地址:https://www.cnblogs.com/hellcat/p/8577101.html

时间: 2024-08-29 17:28:50

『Collections』数据结构和算法_容器型value字典&顺序字典的相关文章

『Python CoolBook』数据结构和算法_字典比较&字典和集合

一.字典元素排序 dict.keys(),dict.values(),dict.items() 结合max.min.sorted.zip进行排序是个很好的办法,另外注意不使用zip时,字典的lambda操作方法: price = { 'a':1, 'b':2, 'c':3 } # 多个键的值相同时会采取元组比较的形式,实际应用时注意 min_p = min(zip(price.values(), price.keys())) max_p = max(zip(price.values(), pri

『Pickle』数据结构持久化模块_常用方法记录

可以把数据结构保存进文件并直接读出, 不论读取或者是保存,我们都需要借助open()函数,并且是二进制方式('wb','rb') json模块可以把字典结构改写为string然后保存,并可以反向读取字典,但是即使是字典数据结构,两个包也是有差别的 json字典value不支持其他对象只支持python原有的结构,但是json由于是转换为string,所以保存的文件是可以使用文本查看器去读取的 pickle包则支持各种python的对象,但它写入的是二进制文件,并有自己独特的编码方式,所以是不可以

『TensorFlow』函数查询列表_神经网络相关

神经网络(Neural Network) 激活函数(Activation Functions) 操作 描述 tf.nn.relu(features, name=None) 整流函数:max(features, 0) tf.nn.relu6(features, name=None) 以6为阈值的整流函数:min(max(features, 0), 6) tf.nn.elu(features, name=None) elu函数,exp(features) - 1 if < 0,否则featuresE

『PyTorch』第四弹_通过LeNet初识pytorch神经网络_下

『PyTorch』第四弹_通过LeNet初识pytorch神经网络_上 # Author : Hellcat # Time : 2018/2/11 import torch as t import torch.nn as nn import torch.nn.functional as F class LeNet(nn.Module): def __init__(self): super(LeNet,self).__init__() self.conv1 = nn.Conv2d(3, 6, 5)

『PyTorch』第十弹_循环神经网络

『cs231n』作业3问题1选讲_通过代码理解RNN&图像标注训练 对于torch中的RNN相关类,有原始和原始Cell之分,其中RNN和RNNCell层的区别在于前者一次能够处理整个序列,而后者一次只处理序列中一个时间点的数据,前者封装更完备更易于使用,后者更具灵活性.实际上RNN层的一种后端实现方式就是调用RNNCell来实现的. 一.nn.RNN import torch as t from torch import nn from torch.autograd import Variab

『TensorFlow』徒手装高达_初号机_添加训练模组并整合为可用分类网络

摘要: 本次整合了前面两节的模组,并添加向前传播&反馈训练部分,使之成为一个包含训练&验证&测试的分类网络. 文件架构: 代码整合: image_info.py,图片读取部分 1 import glob 2 import os.path 3 import random 4 import numpy as np 5 import tensorflow as tf 6 7 def creat_image_lists(validation_percentage,testing_perce

『TensorFlow』徒手装高达_初号机大改_全模组升级版

全卷积网络单张不定大小图片测试代码原型(新模块): 输出原网络输出featuremap,不经任何处理(1*n*n*class) import AlexNet_FCN as Net import AlexNet_train as train import random import tensorflow as tf IMAGE_PATH = './flower_photos/daisy/5673728_71b8cb57eb.jpg' def TF_featuremap(input_size): x

『PyTorch』第三弹_自动求导

torch.autograd 包提供Tensor所有操作的自动求导方法. 数据结构介绍 autograd.Variable 这是这个包中最核心的类. 它包装了一个Tensor,并且几乎支持所有的定义在其上的操作.一旦完成了你的运算,你可以调用 .backward()来自动计算出所有的梯度,Variable有三个属性: 访问原始的tensor使用属性.data: 关于这一Variable的梯度则集中于 .grad: .creator反映了创建者,标识了是否由用户使用.Variable直接创建(No

『PyTorch』第五弹_深入理解Tensor对象_中上:索引

一.普通索引 示例 a = t.Tensor(4,5) print(a) print(a[0:1,:2]) print(a[0,:2]) # 注意和前一种索引出来的值相同,shape不同 print(a[[1,2]]) # 容器索引 3.3845e+15 0.0000e+00 3.3846e+15 0.0000e+00 3.3845e+15 0.0000e+00 3.3845e+15 0.0000e+00 3.3418e+15 0.0000e+00 3.3845e+15 0.0000e+00 3