poj1548Robots dfs实践

//搜索每一行

//该生产线的整点已被清除

//然后位置,然后转移到下一个步走的最后一点

//然后,所有点的下面一行清晰

//然后重复上面的操作

#include<iostream>

#include<cstdio>

#include<cstring>

using namespace std;

const int maxn=30;

int line[maxn][maxn];

int C,R;

int ans = 0;

void dfs(int x , int y)

{

int pos = y;

for(int j = y ;j <= C ;j++)

if(line[x][j])

{

line[x][j] = 0;

pos = j;

}

if(x == R)return ;

dfs(x+1 , pos);

}

int main()

{

int a,b;

//freopen("in.txt","r",stdin);

while(scanf("%d%d", &a ,&b)&&(a != -1 && b != -1))

{

memset(line, 0 ,sizeof(line));

if(!a && !b)

{

printf("0\n");

continue;

}

C = R = 0;

while(a && b)

{

C = max(C , b);

R = max(R , a);

line[a][b] = 1;

scanf("%d %d",&a ,&b);

}

ans = 0;

for(int i = 1 ;i <= R ;i++)

for(int j = 1 ;j<=C ;j++)

if(line[i][j])

{

dfs(i,j);

ans++;

}

printf("%d\n" , ans);

}

return 0;

}

版权声明:本文博客原创文章,博客,未经同意,不得转载。

时间: 2024-10-12 03:26:31

poj1548Robots dfs实践的相关文章

poj1548Robots dfs做法

//搜索每一行 //将该行的所有点都清除 //然后再一改行的最后一个点的位置向下走一步 //然后将下面一行的所有点清除 //然后再重复上述操作 #include<iostream> #include<cstdio> #include<cstring> using namespace std; const int maxn=30; int line[maxn][maxn]; int C,R; int ans = 0; void dfs(int x , int y) { i

经典DFS问题实践

八皇后问题: 1 //八皇后问题 经典的DFS问题实践 2 #include<iostream> 3 #include<cmath> 4 #include<algorithm> 5 #include<cstdio> 6 using namespace std; 7 int mat[8][8]; 8 int ans=0; 9 bool check(int row,int col)//最终检查满足要求,则return 1 10 { 11 for(int i=0;

hadoop2.6.0实践:hadoop dfs -ls /

[[email protected] data]$ hadoop dfs -ls /DEPRECATED: Use of this script to execute hdfs command is deprecated.Instead use the hdfs command for it. Found 3 itemsdrwxr-xr-x - hadoop supergroup 0 2017-01-18 15:34 /examplesdrwx------ - hadoop supergroup

经典图算法Java代码实践:BFS,DFS以及几种最短路径算法

public class City { String name; int id; static int idCounter = 0; public City(String name) { this.name=name; id = idCounter++; } } import java.util.ArrayList; public class Graph { public static void main(String[] args) { // TODO Auto-generated metho

王家林的云计算分布式大数据Hadoop企业级开发动手实践

一:课程简介: Hadoop是云计算分布式大数据的事实标准软件框架,Hadoop中的架构实现是整个云计算产业技术的基础,作为与Google三大核心技术DFS.MapReduce.BigTable相对的HDFS.MapReduce.和HBase也是整个Hadoop生态系统的核心的技术,本课程致力于帮您掌握这三大技术的同时掌握云计算的数据仓库挖掘技术Hive,助您在云计算技术时代自由翱翔. 二:课程特色 1,      深入浅出中动手实作: 2,      掌握Hadoop三大核心:HDFS.Map

图实践经典问题一览

图算是数据结构中比较难的问题,但是在实际中解决的问题也更多. 其中,在图结构中涉及的问题主要有: 图的存储: 邻接表(Adjacency list):为每个节点建立一个链表存放与之连接的点. 邻接矩阵(Adjacency matrix):n*n的矩阵,有边的是1,无边的是0. 最短路径: Dijkstra:记录起点能够到达的所有节点的最短路径,这样,我们要找的终点一定在其中啊. DIST(w) = min(DIST(w), DIST(u) + c(u, w)) 代码实现示例: package c

hadoop2.5.2学习及实践笔记(四)—— namenode启动过程源码概览

对namenode启动时的相关操作及相关类有一个大体了解,后续深入研究时,再对本文进行补充 >实现类 HDFS启动脚本为$HADOOP_HOME/sbin/start-dfs.sh,查看start-dfs.sh可以看出,namenode是通过bin/hdfs命令来启动 $ vi start-dfs.sh # namenodes NAMENODES=$($HADOOP_PREFIX/bin/hdfs getconf -namenodes) echo "Starting namenodes o

Hadoop2.0NameNode HA和Federation实践

一.背景 天云趋势在2012年下半年开始为某大型国有银行的历史交易数据备份及查询提供基于Hadoop的技术解决方案,由于行业的特殊性,客户对服务的可 用性有着非常高的要求,而HDFS长久以来都被单点故障的问题所困扰,直到Apache Hadoop在2012年5月发布了2.0的alpha版本,其中MRv2还很不成熟,可HDFS的新功能已经基本可用,尤其是其中的的High Availability(以下简称HA)和Federation.Cloudera也于7月制作了CDH4.0.1,包含了Hadoo

hadoop2.7.0实践- WordCount

环境要求 说明:本文档为wordcount的mapreduce job编写及运行文档. 操作系统:Ubuntu14 x64位 Hadoop:Hadoop 2.7.0 Hadoop官网:http://hadoop.apache.org/releases.html MapReduce参照官网步骤: http://hadoop.apache.org/docs/current/hadoop-mapreduce-client/hadoop-mapreduce-client-core/MapReduceTu