准确率rate

准确率(rate)
【题目描述】
你是一个骁勇善战、日刷百题的OIer. 今天你已经在你OJ 上提交了y 次,其中x
次是正确的,这时,你的准确率是x/y.
然而,你最喜欢一个在[0; 1] 中的有理数p/q(是一个既约分数),所以你希望再进行若干次提交,使你的准确率变为p/q. 当然,由于你的实力很强,你可以随意决定进行多少次正确的提交和多少次错误的提交. 同时,你不希望把一天的时间都用在提交上,所以你想求出最少还要进行多少次提交(包括正确的和错误的),才能达到这一目标.
注意:本题中,0/1 和1/1 都是既约分数.
【输入格式】
从文件rate.in 中读入数据。
输入第一行包含一个正整数t (t<=5<= 10^5),表示数据组数.
接下来t 行,每行4 个整数x; y; p; q (0 <=x <= y<=10^9; 0<=p<=q <=10^9; y > 0; q > 0),
含义如题所述.
【输出格式】
输出到文件rate.out 中。
输出t 行,每行一个整数,表示使正确率达到p/q 所需最小提交次数;若无法达
到,输出-1.
【样例1 输入】
4
3 10 1 2
7 14 3 8
20 70 2 7
5 6 1 1
【样例1 输出】
4
10
0
-1

【样例1 解释】
第一组数据中,你需要进行4 次正确的提交,使准确率达到7/14,即1/2;
第二组数据中,你需要进行2 次正确的提交,8 次错误的提交,使准确率变为9/24,
即3/8;
第三组数据中,你无需进行任何提交,因为你的准确率已为20/70,即2/7;
第四组数据中,在原有的提交中已有一次错误提交,准确率不可能达到1.
【样例2】
见选手目录下的rate/rate2.in 与rate/rate2.ans。
【子任务】
对于30% 的数据,t = 1;
对于另30% 的数据,t<= 1000.
以上两部分数据中,各有50% 的数据保证x; y; p; q<= 10^4.

设nq>=y① np-x>=0② np-x<=nq-y③ ,其分别代表的意思是全部做的题数不能超过q(扩大n倍),需要做对的题数-已做对的题数不能为负,还需要做对的题数不能超过还需要做的全部题数。合乎逻辑(?。然后我们发现,②式和③式包含了①式,因此只考虑②③式即可,现在要求出n。由②式推出n>=x/p,由③式退出n >= (y-x)/(q-p),因此只要取x/p和(y-x)/(q-p)中的较大值,就得到了n。要求最小提交次数,用总次数n*q减去已提交次数y就为答案。

代码如下

 1  1 #include<cstdio>
 2  2 #include<algorithm>
 3  3 using namespace std;
 4  4 #define ll long long int
 5  5 ll x,y,p,q,ans;
 6  6 int t;
 7  7 int main()
 8  8 {
 9  9
10 10     scanf("%d",&t);
11 11     while(t--)
12 12     {
13 13         scanf("%lld%lld%lld%lld",&x,&y,&p,&q);
14 14         if(p == q)
15 15         {
16 16             if(x == y) printf("0\n");
17 17             else printf("-1\n");
18 18         }
19 19         else
20 20         {
21 21             ans = max((x-1)/p,(y-x-1)/(q-p))+1;
22 22             printf("%lld\n",(ll)ans*q-y);
23 23         }
24 24     }
25 25     return 0;
26 26 }

最后献上一首膜你抄

屏幕在深夜微微发亮

思想在那虚树路径上彷徨

平面的向量交错生长

织成 忧伤的网

剪枝剪去我们的疯狂

SPFA 告诉我前途在何方

01 背包装下了忧伤

笑颜 洋溢脸庞

键盘微凉

鼠标微凉

指尖流淌

代码千行

凸包周长

直径多长

一进考场

全都忘光

你在 OJ 上提交了千百遍

却依然不能卡进那时限

双手敲尽代码也敲尽岁月

只有我一人写的题解

凋零在 OJ 里面

Tarjan 陪伴强连通分量

生成树完成后思路才闪光

欧拉跑过的七桥古塘

让你 心驰神往

队列进出图上的方向

线段树区间修改求出总量

可持久化留下的迹象

我们 伏身欣赏

数论算法

图论算法

高斯费马

树上开花

线性规划

动态规划

时间爆炸

如何优化

我在 OI 中辗转了千百天

却不让我看 AK 最后一眼

我用空间换回超限的时间

随重新编译测完样例

才发现漏洞满篇

原来 CE 是因选错语言

其实爆零

只因忘写文件

如果标算太难请坚定信念

不如回头再看一眼题面

以那暴力模拟向正解吊唁

蒟蒻的蜕变

神犇出现

终将与 Au 擦肩

屏幕在深夜微微发亮

我心在考场

原文地址:https://www.cnblogs.com/peppa/p/9443327.html

时间: 2024-10-16 00:34:19

准确率rate的相关文章

神经网络模型及R代码实现

一.神经网络基本原理 神经元模型 图中x1~xn是从其他神经元传来的输入信号,wij表示表示从神经元j到神经元i的连接权值,θ表示一个阈值 ( threshold ),或称为偏置( bias ).则神经元i的输出与输入的关系表示为: 图中 yi表示神经元i的输出,函数f称为激活函数 ( Activation Function )或转移函数 ( Transfer Function ) ,net称为净激活(net activation).若将阈值看成是神经元i的一个输入x0的权重wi0,则上面的式子

基于K-Nearest Neighbors[K-NN]算法的鸢尾花分类问题解决方案(For Python)

看了原理,总觉得需要用具体问题实现一下机器学习算法的模型,才算学习深刻.而写此博文的目的是,网上关于K-NN解决此问题的博文很多,但大都是调用Python高级库实现,尤其不利于初级学习者本人对模型的理解和工程实践能力的提升,也不利于Python初学者实现该模型. 本博文的特点: 一 全面性地总结K-NN模型的特征.用途 二  基于Python的内置模块,不调用任何第三方库实现 博文主要分为三部分: 基本模型(便于理清概念.回顾模型) 对待解决问题的重述 模型(算法)和评价(一来,以便了解模型特点

信息检索的评价指标、准确率、召回率

信息检索(IR)的评价指标介绍 - 准确率.召回率.F1.mAP.ROC.AUC 分类: 1.自然语言处理/机器学习 2011-07-06 22:15 9817人阅读 评论(7) 收藏 举报 performance算法fp工具2010c 在信息检索.分类体系中,有一系列的指标,搞清楚这些指标对于评价检索和分类性能非常重要,因此最近根据网友的博客做了一个汇总. 准确率.召回率.F1 信息检索.分类.识别.翻译等领域两个最基本指标是召回率(Recall Rate)和准确率(Precision Rat

分类指标准确率(Precision)和正确率(Accuracy)的区别

http://www.cnblogs.com/fengfenggirl/p/classification_evaluate.html 一.引言 分类算法有很多,不同分类算法又用很多不同的变种.不同的分类算法有不同的特定,在不同的数据集上表现的效果也不同,我们需要根据特定的任务进行算法的选择,如何选择分类,如何评价一个分类算法的好坏,前面关于决策树的介绍,我们主要用的正确率(accuracy)来评价分类算法. 正确率确实是一个很好很直观的评价指标,但是有时候正确率高并不能代表一个算法就好.比如某个

准确率(Accuracy), 精确率(Precision), 召回率(Recall)和F1-Measure

yu Code 15 Comments 机器学习(ML),自然语言处理(NLP),信息检索(IR)等领域,评估(Evaluation)是一个必要的 工作,而其评价指标往往有如下几点:准确率(Accuracy),精确率(Precision),召回率(Recall)和F1-Measure.(注: 相对来说,IR 的 ground truth 很多时候是一个 Ordered List, 而不是一个 Bool 类型的 Unordered Collection,在都找到的情况下,排在第三名还是第四名损失并

重磅!MaxCompute助力阿里开源自研语音识别模型DFSMN,准确率高达96.04%

摘要: 阿里开源语音识别模型DFSMN 在近期举行的云栖大会武汉峰会上,装有DFSMN语音识别模型的"AI收银员"在与真人店员的PK中,在嘈杂环境下准确识别了用户的语音点单,在短短49秒内点了34杯咖啡.此外,装备这一语音识别技术的自动售票机也已在上海地铁"上岗". 阿里开源语音识别模型DFSMN 在近期举行的云栖大会武汉峰会上,装有DFSMN语音识别模型的"AI收银员"在与真人店员的PK中,在嘈杂环境下准确识别了用户的语音点单,在短短49秒内点

机器学习二分类模型评价指标:准确率\召回率\特异度等

混淆矩阵是一种用于性能评估的方便工具,它是一个方阵,里面的列和行存放的是样本的实际类vs预测类的数量. P =阳性,N =阴性:指的是预测结果. T=真,F=假:表示 实际结果与预测结果是否一致,一致为真,不一致为假. TP=真阳性:预测结果为P,且实际与预测一致. FP=假阳性:预测结果为P,但与实际不一致. TN=真阴性:预测结果为N,且与实际一致. FN=假阴性:预测结果为N,但与实际不一致. 分类模型的经验误差可以通过计算1-准确率得到. 然而,如何选择一个适当的预测误差度量是高度依赖于

混淆矩阵、准确率、精确率/查准率、召回率/查全率、F1值、ROC曲线的AUC值

准确率.精确率(查准率).召回率(查全率).F1值.ROC曲线的AUC值,都可以作为评价一个机器学习模型好坏的指标(evaluation metrics),而这些评价指标直接或间接都与混淆矩阵有关,前四者可以从混淆矩阵中直接计算得到,AUC值则要通过ROC曲线进行计算,而ROC曲线的横纵坐标又和混淆矩阵联系密切,所以在了解这些评价指标之前,先知道什么是混淆矩阵很有必要,也方便记忆. 1.混淆矩阵 对于一个二分类问题,我们可以得到如表 1所示的的混淆矩阵(confusion matrix): 表

准确率、精确轨、召回率等

作者:邓小乔链接:https://www.zhihu.com/question/30643044/answer/224360465 正好最近刚做了个项目是关于imbalanced data的,又深入研究了一把各种evaluation metric,在这儿分享一下. 为了方便,以下专业名词都用英文替代了.本人留学狗,脑子不好使容易蹦英文单词,不喜勿喷哈. 准确率 - accuracy 精确率 - precision 召回率 - recall F1值 - F1-score ROC曲线下面积 - RO