平衡森林

T1 鬼子进村

【题目描述】

县城里有n个用地道相连的房子,第i个只与第i-1和第i+1个相连。有m个消息依次传来:

(1)消息为:D x,鬼子将x号房子摧毁了,地道被堵上;

(2)消息为:R,村民们将鬼子上一个摧毁的房子修复了;

(3)消息为:Q x,有一名士兵被围堵在x号房子中;

现在询问每一个被围堵的士兵能够到达的房子有几个。

【输入描述】

第一行2个整数n、m(n,m <= 50000);

接下来m行,有如题所述的三种信息共m条。

【输出描述】

对于每一个被围堵的士兵,输出该士兵能够到达的房子数。

【输入样例】

7 9

D 3

D 6

D 5

Q 4

Q 5

R

Q 4

R

Q 4

【输出样例】

1

0

2

4

T2 可怜的狗狗

【题目描述】

小卡家有n只狗,每一只狗都有一个不同的漂亮值。漂亮值越低越漂亮,吃饭时,狗狗们会按顺序站成一排等着主人给食物。

可小卡不肯喂这么多狗,于是他每次就只给第i只到第j只狗中第k漂亮的狗狗喂食。而且为了保证某一只狗狗不会被喂太多次,他喂的每个区间(i,j)不互相包含。

【输入描述】

第一行输入两个数n、m(n <= 300000,m <= 50000),m表示他喂了m次;

第二行n个整数,表示第i只狗的漂亮值为ai;

接下来m行,每行3个整数i、j、k表示这次喂食喂第i到第j只狗中第k漂亮的狗的漂亮值。

【输出描述】

输出m行,每行一个整数,表示每一次喂的那只狗漂亮值为多少。

【输入样例】

7 2

1 5 2 6 3 7 4

1 5 3

2 7 1

【输出样例】

3

2

T3 送花

【题目描述】

小明一开始有一个空的花束,每朵花有一个美丽值W,价格为C,他不断地向里面添加花。他有以下几种操作:

1 W C:添加一朵美丽值为W,价格为C的花;

3:删除最便宜的一朵花;

2:删除最贵的一朵花;

-1:完成添加与删除,开始包装花束;

若删除操作时没有花,则跳过删除操作。

如果加入的花朵价格已经与花束中已有花朵价格重复,则这一朵花不能加入花束。

请你帮小明写一个程序,计算出开始包装花束时,花束中所有花的美丽值的总和,以及小明需要为花束付出的总价格。

【输入描述】

输入若干行,每行一个操作,以-1结束。

【输出描述】

输出一行,两个空格隔开的正整数,表示开始包装花束时,花束中所有花的美丽值的总和,以及小明需要为花束付出的总价格。

【输入样例】

1 1 1

1 2 5

2

1 3 3

3

1 5 2

-1

【输出样例】

8 5

【数据范围及提示】

对于全部数据,操作数 <= 100000,1 <= W,C <= 1000000。

时间: 2024-11-10 01:23:03

平衡森林的相关文章

数据结构与算法系列研究五——树、二叉树、三叉树、平衡排序二叉树AVL

树.二叉树.三叉树.平衡排序二叉树AVL 一.树的定义 树是计算机算法最重要的非线性结构.树中每个数据元素至多有一个直接前驱,但可以有多个直接后继.树是一种以分支关系定义的层次结构.    a.树是n(≥0)结点组成的有限集合.{N.沃恩}     (树是n(n≥1)个结点组成的有限集合.{D.E.Knuth})      在任意一棵非空树中:        ⑴有且仅有一个没有前驱的结点----根(root).        ⑵当n>1时,其余结点有且仅有一个直接前驱.         ⑶所有结

随机森林入门攻略(内含R、Python代码)

随机森林入门攻略(内含R.Python代码) 简介 近年来,随机森林模型在界内的关注度与受欢迎程度有着显著的提升,这多半归功于它可以快速地被应用到几乎任何的数据科学问题中去,从而使人们能够高效快捷地获得第一组基准测试结果.在各种各样的问题中,随机森林一次又一次地展示出令人难以置信的强大,而与此同时它又是如此的方便实用. 需要大家注意的是,在上文中特别提到的是第一组测试结果,而非所有的结果,这是因为随机森林方法固然也有自己的局限性.在这篇文章中,我们将向你介绍运用随机森林构建预测模型时最令人感兴趣

数据结构(三):非线性逻辑结构-特殊的二叉树结构:堆、哈夫曼树、二叉搜索树、平衡二叉搜索树、红黑树、线索二叉树

在上一篇数据结构的博文<数据结构(三):非线性逻辑结构-二叉树>中已经对二叉树的概念.遍历等基本的概念和操作进行了介绍.本篇博文主要介绍几个特殊的二叉树,堆.哈夫曼树.二叉搜索树.平衡二叉搜索树.红黑树.线索二叉树,它们在解决实际问题中有着非常重要的应用.本文主要从概念和一些基本操作上进行分类和总结. 一.概念总揽 (1) 堆 堆(heap order)是一种特殊的表,如果将它看做是一颗完全二叉树的层次序列,那么它具有如下的性质:每个节点的值都不大于其孩子的值,或每个节点的值都不小于其孩子的值

随机森林(原理/样例实现/参数调优)

决策树 1.决策树与随机森林都属于机器学习中监督学习的范畴,主要用于分类问题. 决策树算法有这几种:ID3.C4.5.CART,基于决策树的算法有bagging.随机森林.GBDT等. 决策树是一种利用树形结构进行决策的算法,对于样本数据根据已知条件或叫特征进行分叉,最终建立一棵树,树的叶子结节标识最终决策.新来的数据便可以根据这棵树进行判断.随机森林是一种通过多棵决策树进行优化决策的算法. 2.案例: 图 1 是一棵结构简单的决策树,用于预测贷款用户是否具有偿还贷款的能力.贷款用户主要具备三个

机器学习——随机森林算法及原理

1. 随机森林使用背景 1.1 随机森林定义 随机森林是一种比较新的机器学习模型.经典的机器学习模型是神经网络,有半个多世纪的历史了.神经网络预测精确,但是计算量很大.上世纪八十年代Breiman等人发明分类树的算法(Breiman et al. 1984),通过反复二分数据进行分类或回归,计算量大大降低.2001年Breiman把分类树组合成随机森林(Breiman 2001a),即在变量(列)的使用和数据(行)的使用上进行随机化,生成很多分类树,再汇总分类树的结果.随机森林在运算量没有显著提

集成模型——随机森林

本文的数据集和上一篇一样,是美国个人收入信息.在上一篇末尾提到了随机森林算法,这一篇就介绍随机森林. Ensemble Models 随机森林是一种集成模型(Ensemble Models),集成模型结合了多个模型然后创建了一个精度更高的模型 下面我们创建两个决策树,他们的参数不相同,然后计算他们的预测精度: from sklearn.tree import DecisionTreeClassifier from sklearn.metrics import roc_auc_score colu

随机森林-笔录

决策树有些与生俱来的缺点: 1:分类规则复杂 决策树算法在产生规则的时候采用局部贪婪法.每次都只选择一个属性进行分析构造决策树,所以再产生的分类规则往往相当复杂. 2:收敛到非全局的局部最优解 ID3算法每次在树的某个层次进行属性选择时,它不再回溯重新考虑这个选择,所以它容易产生盲人登山中常见的风险,仅仅收敛到非全局的局部最优解. 3:过度拟合 在决策树学习中,由于分类器过于复杂,它可能会过于适应噪声,从而导致过度拟合问题. 为了克服以上的缺点,引入了另外一个预测模型-----随机森林. 一:森

机器学习第一步——用逻辑回归及随机森林实现泰坦尼克号的生存预测

1.实验背景 本次实验是Kaggle上的一个入门比赛——Titanic: Machine Learning from Disaster.比赛选择了泰坦尼克号海难作为背景,并提供了样本数据及测试数据,要求我们根据样本数据内容建立一个预测模型,对于测试数据中每个人是否获救做个预测.样本数据包括891条乘客信息及获救情况,测试数据有418条乘客信息.样本数据的样例如下: Passenger:乘客唯一识别id Survived:是否存活,0为否,1为是 Pclass:船舱等级,1.2.3等 Name:姓

HDU - 2475:Box(splay维护森林)

There are N boxes on the ground, which are labeled by numbers from 1 to N. The boxes are magical, the size of each one can be enlarged or reduced arbitrarily. Jack can perform the “MOVE x y” operation to the boxes: take out box x; if y = 0, put it on