6.处理批次数据

程序中最常见的复杂问题之一是处理批次数据。

在本文中,我们将通过编写读取学生考试和作业成绩并计算最终成绩的程序,了解更多处理批次数据的方法。 我们将学习如何存储所有成绩,即使我们提前不知道有多少成绩。

期末成绩占40%,期中成绩占20%,课后作业成绩平均分占40%(我们不知道有多少课后作业成绩)

如何解决?

思路: 在while循环中读取课后作业成绩,并计数。当读取到EOF时,系统自动停止读取。我们通过计数知道有多少课后作业次数,并用变量储存课后作业总分。总分/计数 = 平均分。

<iomanip>头部定义了setprecision()函数,它让我们说出我们希望输出包含多少个有效数字。

#include <iostream>
#include <string>
#include <iomanip>

using namespace std;

int main()
{

    string name;
    cout << "What‘s your name: ";
    cin >> name;
    cout << "Hello, " << name << "!" << endl;

    double finalGrade, middleGrade;
    cout << "Please enter your midterm and final exam grades: ";
    cin >> middleGrade >> finalGrade;

    int count = 0;
    double sum = 0;

    cout << "Enter all your homework grades, followed by end-of-file:";
    double x;
    while(cin >> x)
    {
        count++;
        sum += x;
    }

    streamsize prec = cout.precision();
    cout << setprecision(3) << name << ", your final grade is: " << 0.4 *  finalGrade + 0.2 * middleGrade + 0.4 * sum / count
        << setprecision(prec) << endl;

    system("pause");
    return 0;
}
时间: 2024-10-21 07:24:49

6.处理批次数据的相关文章

phoenixframe自动化平台使用多批次数据做接口测试的方法

package org.phoenix.cases.webservice; import java.io.IOException; import java.util.Iterator; import java.util.LinkedHashMap; import java.util.LinkedList; import java.util.List; import java.util.Map.Entry; import org.phoenix.action.WebElementActionPro

phoenixframe自动化平台使用多批次数据进行接口测试的示例

版权声明:本文为博主原创文章,未经博主允许不得转载.

java easyreport 导入excel、 txt 数据数据格式校验(六)

在大部分情况下我们需要对导入数据的内容.格式进行合法性验证,验证不通过需要我们提示错误信息. 导入xls数据内容 姓名 年龄 科目 分数 王老五 12 语文 80 柯景腾 13 语文 78 沈佳宜 14 语文 88 王小贱 15 语文 60 黄小仙 12 语文 54 李大仁 14 语文 76 程又青 13 语文 58 陈寻 12 语文 67 方茴 12 语文 87 沈晓棠 13 语文 89 林嘉茉 14 语文 68 赵烨 14 语文 50 苏凯 12 语文 78 乔燃 13 语文 90 我们需要

java easyreport 导入excel、 txt 数据批量读取(五)

有时候我们需要读的报表数据很大,这时候一次加载所有数据有可能会出现内存溢出,所以我们需要采用批量读取来实现. 导入数据test5.xls 姓名 年龄 科目 分数 王老五 12 语文 80 柯景腾 13 语文 78 沈佳宜 14 语文 88 王小贱 15 语文 60 黄小仙 12 语文 54 李大仁 14 语文 76 程又青 13 语文 58 陈寻 12 语文 67 方茴 12 语文 87 沈晓棠 13 语文 89 林嘉茉 14 语文 68 赵烨 14 语文 50 苏凯 12 语文 78 乔燃 1

SAP物料批次管理配置及操作手册(轉載)

业务说明需要先熟悉基本的物料管理(MM).生产计划管理(PP).销售与分销管理(SD)的相关知识.在化工.制药.快消.汽车零部件等行业,为了进行质量的跟踪,往往需要使用批次管理来监控质量.概念TableNo. Table name Short Description MemoConfigure激活批次管理定义自动编号维护号码范围SPRO>后勤-常规>批次管理>批次编号的分配>已分配货物接收的内部批号分配>维护内部批号分配的编号范围OMAD选择“Number Ranges”进入

数据的管理

1. 数据文件管理随着技术和业务的发展壮大,企业中产生的数据种类越来越多,数据量也越来越大.如何对数据进行有效的组织.存储.管理.检索.维护,将会显得越来越重要.在企业内部很多时候还涉及数据的跨部门存储与调用.因此,进行数据的管理就显得特别重要,也越来越受到企业的重视.数据一般会以文件的形式存在,比如文本文件.视频文件.音频文件等.那么数据的管理就转化为对这些数据文件的管理.文件管理的真谛在于方便保存和迅速提取,所有的数据文件将通过某种属性(比如业务.时间)分类被很好地组织起来,放在最能方便找到

Spark 2.x企业级大数据项目实战(实时统计、离线分析和实时ETL)

Spark 2.x企业级大数据项目实战(实时统计.离线分析和实时ETL)全套课程下载:https://pan.baidu.com/s/1mje6bAoLLPrxUIrM-C2VMg 提取码: 9n1x 本门课程来源于一线生产项目, 所有代码都是在现网大数据集群上稳定运行, 拒绝Demo.课程涵盖了离线分析.实时分析绝大部分的场景,通过三个实际生产项目教授如何优雅地集成Hadoop.Spark.HBase.Kafka.Redis.MySQL等相关大数据技术,并实际落地 . 本门课程全程实操,不用担

python时间序列数据的对齐和数据库的分批查询

欲直接下载代码文件,关注我们的公众号哦!查看历史消息即可! 0. 前言 在机器学习里,我们对时间序列数据做预处理的时候,经常会碰到一个问题:有多个时间序列存在多个表里,每个表的的时间轴不完全相同,要如何把这些表在时间轴上进行对齐,从而合并成一个表呢?尤其是当这些表都存在数据库里,而且超级超级大的时候,怎样才能更高效地处理呢? 在上一篇文章中,已经介绍过了如何在Python中创建数据库连接以及对数据库进行增删改查.分组聚合以及批量读取和处理等操作. 今天就以上面的问题为导向,手把手教你如何用Pyt

详解Kafka: 大数据开发最火的核心技术

详解Kafka: 大数据开发最火的核心技术 架构师技术联盟 2019-06-10 09:23:51 本文共3268个字,预计阅读需要9分钟. 广告 大数据时代来临,如果你还不知道Kafka那你就真的out了(快速掌握Kafka请参考文章:如何全方位掌握Kafka核心技术)!据统计,有三分之一的世界财富500强企业正在使用Kafka,包括所有TOP10旅游公司,7家TOP10银行,8家TOP10保险公司,9家TOP10电信公司等等. LinkedIn.Microsoft和Netflix每天都用Ka