第五讲 list

STL 中的list容器

//对已string型list进行添加,删除,查找,插入操作
#include "stdafx.h"
#include <iostream>
#include <string>
#include <list>
using namespace std;

int main()
{
    list<string> oList;
    //list不能对相应的对象进行直接操作,只能通过算法或迭代器
    //oList[0] = "www.jiesoon.com";  //不行

    //list没有预留空间
    //oList.capacity();            //没有这个函数

    //给oList对象添加元素
    oList.push_back("3.jiesoon.com");
    oList.push_front("2.jiesoon.com");
    oList.push_back("4.jiesoon.com");
    oList.push_front("1.jiesoon.com");

    list<string>::iterator itList = oList.begin();
    for(; itList != oList.end(); ++itList){
        cout<< *itList << endl;
    }

    cout<< "oList存有的元素:" << oList.size() << endl;

    cout << "**********************************************" << endl;

    //list 是个双向链表    vector deque 也可以用迭代器双向访问
    itList = oList.begin();
    //itList += 2;    //不可以,list 不是一个连续的容器
    ++itList;
    ++itList;
    cout << *itList << endl;

    --itList;
    cout << *itList << endl;

    cout << "**********************************************" << endl;
    //插入数据 (不同于vector,deque 在不同位置插入数据有着一样的效率)
    itList = oList.begin();
    oList.insert(itList,"0.jiesoon.com");
    for(itList = oList.begin(); itList != oList.end(); ++itList){
        cout<< *itList << endl;
    }

    cout << "**********************************************" << endl;
    //删除数据方法①
    oList.remove("2.jiesoon.com");
    for(itList = oList.begin(); itList != oList.end(); ++itList){
        cout<< *itList << endl;
    }

    cout << "**********************************************" << endl;
    //删除数据方法②
    itList = oList.begin();
    oList.erase(itList);
    for(itList = oList.begin(); itList != oList.end(); ++itList){
        cout<< *itList << endl;
    }

    return 0;
}

第五讲 list,布布扣,bubuko.com

时间: 2025-01-05 06:26:14

第五讲 list的相关文章

机器学习基石第五讲笔记

通过前四讲可知,在假设集大小(M)有限的条件下,机器是可以学习的.第五讲的目的是解决M为无限大时,机器是否能学习的问题. 为什么在假设集大小(M)有限的条件下,机器是可以学习的? 1. 其依据是Hoeffding不等式: 这个不等式说明了,训练集的错误率Ein(g)和测试集的错误率Eout(g)的差距太大(>ε)这件事情发生的概率是有上界的,这个上界由M.ε和N(样本量大小)决定. 这个不等式的由来是在第四讲之中.如果某份资料对于假设集的全体,至少存在一个假设g使得Ein(g)和Eout(g)的

PHP100-第五讲 PHP5.4 的while / for / break / continue、PHP5.4 的系统函数和自定义函数

PHP5.4 的while / for / break / continue.PHP5.4 的系统函数和自定义函数 论坛交流:http://bbs.php100.com/read-htm-tid-150407.html PHP5.4 的while / for / break / continue 在PHP编写代码时,我们经常需要让相同的代码块运行很多次.这时候就可以在代码中使用循环语句来完成这个任务.PHP的循环结构类似C中模式,有while.do-while.for PHP5.4 的系统函数和

32位汇编第五讲,逆向实战干货,(OD)快速定位扫雷内存.

32位第五讲,逆向实战干货,快速定位扫雷内存. 首先,在逆向之前,大家先对OD有一个认识. 一丶OD的使用 标号1: 反汇编窗口 (显示代码的地址,二进制指令,汇编代码,注释) 标号2: 寄存器窗口(显示通用寄存器,段寄存器,以及浮点协处理器,32位中还有多媒体寄存器) 标号3: 信息窗口 (这个主要是显示当你运行到的程序的位置处的信息) 标号4: 数据窗口   (内存中的数据,可以在这里查看内存) 标号5:堆栈窗口 (查看栈中的内容,以及变量的内容) 标号6,标号7,标号8 ,属于工具窗口,不

OC基础第五讲--Block、数组高级、字面量

Block 1.1block与函数指针 函数: int sum(int x, int y) { retrun x + y; } 函数指针: 把上面函数原型int sum(int x, int y)中的函数名替换成(*p),即可得到一个函数指针int (*p)(int x, int y). 这个函数表示指针p指向一个函数,这个函数有两个int型参数,返回值是int类型. Block:把函数指针int (*p)(int x, int y)中的'*'换成'^'就是我们block的声明,即int (^p

机器学习中使用的神经网络第五讲笔记

Geoffery Hinton教授的Neuron Networks for Machine Learning的第五讲主要介绍物体识别问题的难点及克服这些难点的方法,重点介绍了数字识别和物体识别中使用的卷积网络. Why object recognition is difficult 我们知道识别真实场景中的物体是很困难的,这一小节我们来介绍造成这些困难的一些东西. Segmentation: 在一个图像中,我们很难将其中的一个物体与其他的物体分隔开.在现实生活中,我们人类有两只眼睛且我们身体可以

《上古天真论》第五讲文字版

上古天真论篇第五讲 主讲:徐文兵  主持:梁  冬 播出时间:2008-12-27  23:00—24:00 经文:是以嗜欲不能劳其目,淫邪不能惑其心,愚智贤不肖,不惧于物,故合于道.所以能年皆度百岁而动作不衰者,以其德全不危也. 梁冬:是的重新发现中医太美.大家好!欢迎收听今天晚上国学堂之<黄帝内经>之<上古天真论>之第二段.第三段.依然在我们对面的是我所崇敬的专门研究<黄帝内经>的,而且有趣地专门能把<黄帝内经>讲清楚的厚朴中医学堂堂主徐文兵老师,徐老师

《ArcGIS Engine+C#实例开发教程》第五讲 鹰眼的实现

原文:<ArcGIS Engine+C#实例开发教程>第五讲 鹰眼的实现 摘要:所谓的鹰眼,就是一个缩略地图,上面有一个矩形框,矩形框区域就是当前显示的地图区域,拖动矩形框可以改变当前地图显示的位置,改变矩形框的大小,可以改变当前地图的显示区域大小,从起到导航的作用.鹰眼是地图浏览中常用的功能之一.关于鹰眼的实现方式,最常用的是用一个 MapControl控件显示地图全图,并在上面画一个红色矩形框表示当前地图的显示范围,并实现鹰眼 MapControl 与主窗体的 MapControl 互动.

Stanford机器学习---第五讲. 神经网络的学习 Neural Networks learning

原文见http://blog.csdn.net/abcjennifer/article/details/7758797,加入了一些自己的理解 本栏目(Machine learning)包含单參数的线性回归.多參数的线性回归.Octave Tutorial.Logistic Regression.Regularization.神经网络.机器学习系统设计.SVM(Support Vector Machines 支持向量机).聚类.降维.异常检測.大规模机器学习等章节.全部内容均来自Standford

(笔记)斯坦福机器学习第五讲--生成学习算法

 本讲内容 1. Generative learning algorithms(生成学习算法) 2. GDA(高斯判别分析) 3. Naive Bayes(朴素贝叶斯) 4. Laplace Smoothing(拉普拉斯平滑) 1.生成学习算法与判别学习算法 判别学习算法:直接学习  或者学习一个假设  直接输出0或者1.logistic回归是判别学习算法的一个例子. 生成学习算法:对  建模,即在给定所属的类别的情况下,对特征出现的概率建模.出于技术上的考虑,也会对  建模.   根据贝叶斯公