使用DataReader读取数据

List<User> allUsers = new List<User>();

SqlConnection conn = new SqlConnection(连接字符串);

SqlCommand cmd = new SqlCommand("SELECT语句",conn);

conn.Open();

using(SqlDataReader rdr = cmd.ExecuteReader())
{
while(rdr.Read())
{
User u = new User();
user.Id = (int)rdr["Id"];
user.LoginId = (string)rdr["LoginId"];
user.LoginPwd = (string)rdr["LoginPwd"];
user.Name = (string)rdr["Name"];
user.Address = (string)rdr["Address"];
user.Phone = (string)rdr["Phone"];
user.Mail = (string)rdr["Mail"];
user.UserRoleId = (int)rdr["UserRoleId"];
user.UserStateId = (int)rdr["UserStateId"];

allUsers.Add(u);
}
}

conn.Close();

return allUsers;

======================================================

SqlConnection conn = new SqlConnection(连接字符串);

SqlDataAdapter adapter = new SqlDataAdapter("SELECT语句",conn);

DataSet ds = new DataSet();

adapter.Fill(ds,"表名");

return ds.Tables[0];

使用DataReader读取数据,布布扣,bubuko.com

时间: 2024-11-03 21:30:56

使用DataReader读取数据的相关文章

C#之读取数据:DataReader对象

上一篇涉及到Command对象的ExecuteReader()方法返回一个DataReader对象,那么我们就来详细的介绍这个DataReade对象. 下面的例子使用的数据表依然与上篇的相同为CustomerManagement数据库中的manager数据表: DataReader对象概述 DataReader对象提供了顺序的,只读的方式读取Command对象获得的数据结果集.正是因为DataReader是以顺序的方式连续地读取数据,所以DataReader会以独占的方式打开数据库连接. 由于D

datareader是以只进的形式读取数据的,一次只读一条

DataReader 常用属性 FieldCount 获取字段数目 IsClosed 取得状态True or Fals Item({name,ordinal}) 获取或设置字段内容,name为字段名,ordinal为字段序号,可选用 RecordsAffected 获取执行insert delete 或update后有多少行受到影响 DataReader 常用方法 CLose() 关闭 GetBoolean(ordinal) 取得第 ordinal+1列的内容,返回值为boolean类型,还有G

第18课-数据库开发及ado.net 连接数据库.增.删.改向表中插入数据并且返回自动编号.SQLDataReade读取数据

第18课-数据库开发及ado.net 连接数据库.增.删.改向表中插入数据并且返回自动编号.SQLDataReade读取数据 ADO.NET 为什么要学习? 我们要搭建一个平台(Web/Winform)让用户方便的操作数据库中的数据. 什么是ADO.NET 是一组库类,System.Data. Ado.net组成 Connection:用来连接数据库 Command:用来执行SQL语句 DataReader:只读.只进的结果集,一条一条读取数据(SteamReader.XmlReader) Da

一段mongodb服务器读取数据超时的故事

北京时间 2016年9月25日  22:58:30 PM 近期线上生产环境mongodb的总是发现读取数据超时的问题,今天下午坐下来细细的研究了一番,大致过程如下: 业务背景 线上有一对mongodb主从的服务器,只是简单做了mongodb的主从,master - slave. 开始以为做了主从就能确保数据不丢的问题了,确实,数据没有发生丢失的问题,但是近期发现好多用户在点击某些操作要读取mongo里面的数据内容的时候,要等待很长的时间,这样的等待是叫人无法忍受的. 最开始的时候,以为做了主从,

文件操作ofstream,open,close,ifstream,fin,按照行来读取数据, fstream,iosin iosout,fio.seekg(),文件写入和文件读写,文件拷贝和文件

 1.ofstream,open,close 写入文件 #include<iostream> #include<fstream> using namespace std; //通过ofstream的方式实现写入文件 open,close void main() { ofstream fout;  //ofstream输出文件 fout.open("E:\\1.txt");//打开文件 fout << "1234abcdef";

tensorflowxun训练自己的数据集之从tfrecords读取数据

当训练数据量较小时,采用直接读取文件的方式,当训练数据量非常大时,直接读取文件的方式太耗内存,这时应采用高效的读取方法,读取tfrecords文件,这其实是一种二进制文件.tensorflow为其内置了各种存储和读取的函数,方便调用. 不知道为啥,从tfrecords中读取数据用于训练时,收敛得更快,更平稳.上面两个图是使用tfrecords的准确率和loss值变化,下面是直接读取文件的准确率和loss值变化. 1 生成记录样本的记录文件 1 root_dir = os.getcwd() 2 3

已知s.txt文件中有一个这样的字符串 请编写程序读取数据内容,把数据排序后写入 ss.txt文件

package cn.idcast5; import java.io.BufferedReader; import java.io.BufferedWriter; import java.io.FileNotFoundException; import java.io.FileReader; import java.io.FileWriter; import java.io.IOException; import java.util.Arrays; /* * 需求:已知s.txt文件中有一个这样

FileInputStream利用缓冲数组读取数据

package cd.itcast.fileinputstream; import java.io.File; import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.IOException; public class Demo1 { public static void main(String[] args) throws IOException { //目标文件 File fil

用python从符合一定格式的txt文档中逐行读取数据并按一定规则写入excel(openpyxl支持Excel 2007 .xlsx格式)

前几天接到一个任务,从gerrit上通过ssh命令获取一些commit相关的数据到文本文档中,随后将这些数据存入Excel中.数据格式如下图所示 观察上图可知,存在文本文档中的数据符合一定的格式,通过python读取.正则表达式处理并写入Excel文档将大大减少人工处理的工作量. 1. 从gerrit获取原始信息,存入文本文档: $ssh –p 29418 <your-account>@192.168.1.16 gerrit query status:merged since:<date