loj6171/bzoj4899 记忆的轮廊(期望dp+优化)

题目:

https://loj.ac/problem/6171

分析:

设dp[i][j]表示从第i个点出发(正确节点),还可以有j个存档点(在i点使用一个存档机会),走到终点n的期望步数

那么

a[i][k]表示i点为存档点,从i点走到k点(正确节点)的期望步数(中间没有其它存档点)

那么a[i][j]可以递推预处理出

其中g[v]表示从一个错误节点v开始走,期望走g[v]步会读档

解方程可以解出

s[j-1]就是点j-1出去的所有错误儿子的g[v]之和

那么接下来只要知道如何求g[v]就行了

这个直接dfs一遍就行了

好,那么现在我们的主dp就可以求解了

但是直接dp的复杂度是O(n^2p)的,这样会TLE

方法一:

注意到这个dp的本质是把一个序列给分成p段,那么其中某一段会不会很长呢?

我们会发现a的增长是非常快的,而最终的答案不会很大,所以也就是说当前的i的最优转移j,不会离i太远

所以通过计算可以发现这个距离step<=40

所以时间复杂度O(40n^2)

方法二:

考虑dp优化的惯用套路

容易得出此dp是决策单调的,也就是f(i)<=f(i+1)

那么就可以决策单调优化O(nplogn)

具体的就维护一个队列,队列里每个元素存着[l,r,p]表示区间l~r,当前最优决策是p

每次从队头取出最优策略,将此次新的决策从队尾开始放入并合并区间

 1         dp[1][n]=0.0;
 2         for(int now=2;now<=number;++now)
 3         {
 4             int head=1,tail=1;
 5             q[1]={1,n-1,n};
 6             for(int i=n-1;i>=1;--i)
 7             {
 8                 while(head<tail&&q[head].l>i) ++head;
 9                 dp[now][i]=cal(now-1,i,q[head].p);
10                 while(head<tail&&cal(now-1,q[tail].r,i)<cal(now-1,q[tail].r,q[tail].p)) --tail;
11                 int position=find(now,q[tail].l,q[tail].r,i,q[tail].p);
12                 if(position)
13                 {
14                     q[tail+1]={1,position,i};
15                     q[tail].l=position+1;
16                     if(q[tail].l>q[tail].r) ++head;
17                     ++tail;
18                 }
19             }
20         }

方法三:

一个很神奇的二分套路(详见王钦石《浅析一类二分方法》)

这是一个限制段数的dp,我们把它写成不限制段数的情况

然后我们去二分一个常数C,使得式子变成这样

这里的C表示每次重新开一段所需要的代价

很明显,C越大,最优情况下分的段数就越少,C越小,最优情况下分的段数就越多

所以我们可以二分C,对于每个C,进行dp

通过n->pre[n]->pre[pre[n]]->...->1,我们可以知道存了多少次档,当存档数恰好等于p的时候,此时对应的划分方案就是读档p次时候的最优解,就是将dp的最优值减去C*p

但是有个trick,王钦石论文里也提到了

就是可能当前eps下,并没有哪个C会使得我恰好读了p次档,即某个C情况下,我读了p-1次档,在C-eps情况下,我读了p+1次档,就是没有读p次档

这时候有个结论就是C-eps时,我读p+1次档这个情况下也必定有我读p次档的解,此时原本答案是dp-(p+1)*C,现在这样改成读p次档之后,答案就是dp-p*C

这样复杂度是O(n^2logA)

当然这里的dp可以优化,但不过预处理的时候O(n^2)是跑不掉的,所以再优化也不会低于O(n^2)的复杂度

 1         int minnum=m+1;
 2         while (l+eps<=r)
 3         {
 4             long double mid=(l+r)/2;
 5             int num=check(mid);
 6             long double sum=0;
 7             for(int now=n;now!=1;now=pre[now]) sum+=w[pre[now]][now];
 8             if (num<=p)
 9             {
10                 if (num==p)
11                 {
12                     ans=sum;
13                     break;
14                 };
15                 r=mid-eps;
16             }
17             else
18             {
19                 if(num<=minnum)
20                 {
21                     ans=sum+(num-p)*mid;
22                     minnum=num;
23                 }
24                 l=mid+eps;
25             }
26         }

时间: 2024-08-04 14:10:19

loj6171/bzoj4899 记忆的轮廊(期望dp+优化)的相关文章

poj 3156 hash+记忆化搜索 期望dp

#include<iostream> #include<cstdio> #include<algorithm> #include<cstring> using namespace std; int n,m; #define N 32 #define mod 10007LL #define mod2 10000007 #define inf 0x3fffffff typedef long long ll; typedef double dd; int f[N]

【CodeM初赛B轮】F 期望DP

[CodeM初赛B轮]F 题目大意:有n个景点,m条无向边,经过每条边的时间需要的时间是l,在每个景点游览花费的时间是t,游览完每个景点可以获得的满意度是h.你的总时间为k,起初你等概率的选择游览一个景点,然后每次等概率的前往一个相邻的景点游览,当你剩余时间不够游览一个相邻的景点时就结束游览.问所获得的满意度的期望值.(本题强行询问两次~) n<=100,总时间<=500 题解:显然的期望DP啊,不过本题的细节比较多,我这里只说一些细节吧~ 用f[i][j]表示游览完景点i,还剩时间j,所获得

【期望DP】

[总览] [期望dp] 求解达到某一目标的期望花费:因为最终的花费无从知晓(不可能从$\infty$推起),所以期望dp需要倒序求解. 设$f[i][j]$表示在$(i, j)$这个状态实现目标的期望值(相当于是差距是多少). 首先$f[n][m] = 0$,在目标状态期望值为0.然后$f = (\sum f' × p) + w $,$f'$为上一状态(距离目标更近的那个,倒序),$p$为从$f$转移到$f'$的概率(则从$f'$转移回$f$的概率也为$p$),w为转移的花费. 最后输出初始位置

[BZOJ 4008][HNOI2015]亚瑟王(期望Dp)

Description 小 K 不慎被 LL 邪教洗脑了,洗脑程度深到他甚至想要从亚瑟王邪教中脱坑. 他决定,在脱坑之前,最后再来打一盘亚瑟王.既然是最后一战,就一定要打得漂 亮.众所周知,亚瑟王是一个看脸的游戏,技能的发动都是看概率的.作为一个非 洲人,同时作为一个前 OIer,小 K 自然是希望最大化造成伤害的期望值.但他已 经多年没写过代码,连 Spaly都敲不对了,因此,希望你能帮帮小 K,让他感受一 下当欧洲人是怎样的体验. 本题中我们将考虑游戏的一个简化版模型. 玩家有一套卡牌,共

【BZOJ-4008】亚瑟王 概率与期望 + DP

4008: [HNOI2015]亚瑟王 Time Limit: 20 Sec  Memory Limit: 512 MBSec  Special JudgeSubmit: 832  Solved: 515[Submit][Status][Discuss] Description 小 K 不慎被 LL 邪教洗脑了,洗脑程度深到他甚至想要从亚瑟王邪教中脱坑. 他决定,在脱坑之前,最后再来打一盘亚瑟王.既然是最后一战,就一定要打得漂亮.众所周知,亚瑟王是一个看脸的游戏,技能的发动都是看概率的.作为一个

BZOJ 1076 奖励关(状压期望DP)

当前得分期望=(上一轮得分期望+这一轮得分)/m dp[i,j]:第i轮拿的物品方案为j的最优得分期望 如果我们正着去做,会出现从不合法状态(比如前i个根本无法达到j这种方案),所以从后向前推 如果当前方案j里具备了取k这个物品的条件 那么dp[i,j]+=max{dp[i+1,j],dp[i+1,j  or  1<<(k?1)]+x[k]} 否则dp[i,j]+=dp[i+1,j] #include<cstdio> #include<iostream> using n

BZOJ 4008 HNOI2015 亚瑟王 期望DP

题目大意:n个人,r轮游戏,每次从左到右轮,第i个人有pi的概率被选中,选中的话本轮结束,产生di的贡献,否则接着轮 求期望贡献和 神思路-- 直接DP基本是死也搞不出来的 我们转化一下 我们把所有的机会一起轮 令fi,j表示第i个人得到j个机会的概率 然后就简单了嘛= = fi,j=fi?1,j?(1?pi?1)j+fi?1,j+1?(1?(1?pi?1)j+1) 然后答案就是∑ni=1∑rj=1fi,j?(1?(1?pi)j)?di #include <cmath> #include &l

概率与期望dp相关

概率与期望dp 概率 某个事件A发生的可能性的大小,称之为事件A的概率,记作P(A). 假设某事的所有可能结果有n种,每种结果都是等概率,事件A涵盖其中的m种,那么P(A)=m/n. 例如投掷一枚骰子,点数小于3的概率为2/6=1/3. 如果两个事件A和B所涵盖的结果没有交集,那么P(A或B发生)=P(A)+P(B) 还是掷骰子 P(点数小于3或点数大于4)=2/6+2/6=2/3 如果A和B所涵盖的结果有交集 那么P(A或B发生)=P(A)+P(B)-P(A与B同时发生) P(点数小于3或点数

【bzoj4872】[Shoi2017]分手是祝愿 数论+期望dp

题目描述 Zeit und Raum trennen dich und mich. 时空将你我分开. B 君在玩一个游戏,这个游戏由 n 个灯和 n 个开关组成,给定这 n 个灯的初始状态,下标为从 1 到 n 的正整数.每个灯有两个状态亮和灭,我们用 1 来表示这个灯是亮的,用 0 表示这个灯是灭的,游戏的目标是使所有灯都灭掉.但是当操作第 i 个开关时,所有编号为 i 的约数(包括 1 和 i)的灯的状态都会被改变,即从亮变成灭,或者是从灭变成亮.B 君发现这个游戏很难,于是想到了这样的一个