Online Judge | Problem Set | Authors | Online Contests | User | ||||||
---|---|---|---|---|---|---|---|---|---|---|
Web Board Home Page F.A.Qs Statistical Charts | Current Contest Past Contests Scheduled Contests Award Contest |
FHQ也看TAOCP啊!In Reply To:石子合并的GarsiaWachs算法 Posted by:fanhqme at 2010-07-28 19:01:54 > 以下转载自我的blog > http://fanhq666.blog.163.com/blog/static/81943426201062865551410/ > 其中的插图无法复制到这里,请去原网址观看 > > 石子合并(每次合并相邻的两堆石子,代价为这两堆石子的重量和,把一排石子合并为一堆,求最小代价) > 是一个经典的问题。dp可以做到O(n*n)的时间复杂度,方法是: > 设f[i,j]为合并从i到j的石子所用最小代价。 > f[i,j]=min(sum(i,j)+f[i,k]+f[k+1,j])对所有i<=k<j,其中sum(i,j)表示从i到j的石子重量之和。 > 设上式取等时k的值为w[i,j],有神牛证明过:w[i,j]>=w[i,j-1],w[i,j]<=w[i+1,j] > 这样,枚举k的时候,就有了一个上下界,从而搞掉了一维。 > > 而GarsiaWachs算法可以把时间复杂度压缩到O(nlogn)。 > 具体的算法及证明可以参见《The Art of Computer Programming》第3卷6.2.2节Algorithm G和Lemma W,Lemma X,Lemma Y,Lemma Z。 > 只能说一个概要吧: > 设一个序列是A[0..n-1],每次寻找最小的一个满足A[k-1]<=A[k+1]的k,(方便起见设A[-1]和A[n]等于正无穷大) > 那么我们就把A[k]与A[k-1]合并,之后找最大的一个满足A[j]>A[k]+A[k-1]的j,把合并后的值A[k]+A[k-1]插入A[j]的后面。 > 有定理保证,如此操作后问题的答案不会改变。 > 举个例子: > 186 64 35 32 103 > 因为35<103,所以最小的k是3,我们先把35和32删除,得到他们的和67,并向前寻找一个第一个超过67的数,把67插入到他后面 > 186 64(k=3,A[3]与A[2]都被删除了) 103 > 186 67(遇到了从右向左第一个比67大的数,我们把67插入到他后面) 64 103 > 186 67 64 103 (有定理保证这个序列的答案加上67就等于原序列的答案) > 现在由5个数变为4个数了,继续! > 186 (k=2,67和64被删除了)103 > 186 131(就插入在这里) 103 > 186 131 103 > 现在k=2(别忘了,设A[-1]和A[n]等于正无穷大) > 234 186 > 420 > 最后的答案呢?就是各次合并的重量之和呗。420+234+131+67=852,哈哈,算对了。 > > 证明嘛,基本思想是通过树的最优性得到一个节点间深度的约束,之后 > 证明操作一次之后的解可以和原来的解一一对应,并保证节点移动之后他所在的 > 深度不会改变。详见TAOCP。 > > 具体实现这个算法需要一点技巧,精髓在于不停快速寻找最小的k,即维护一个“2-递减序列” > 朴素的实现的时间复杂度是O(n*n),但可以用一个平衡树来优化(好熟悉的优化方法),使得最终复杂度为O(nlogn) > > 事情并没有结束。 > 我在poj1738上看到了一个50000个数的石子合并,很痛苦地想:要写平衡树了:( > 但是当我把朴素实现的代码 > http://cid-354ed8646264d3c4.office.live.com/self.aspx/.Public/1738.cpp > 交上去的时候,发现,AC了?! > > 为什么? > 平方的复杂度,50000的数据...... > 我着手分析。 > 首先,每次combine()(见源代码)操作的时候,并不一定都会访问到整个数组。 > 从随机的角度来讲,新合并出来的石子堆相比那些已经合并许许多多次的石子堆来说, > 并不是很“牛”。因为他并不很牛,所以j的值也不比k小得了多少。 > 并且我们维护的“2-递减”序列本身就有一个很强的序的关系,所以从某种感觉上讲,combine()递归调用的次数很少。 > > 这只是一个感性的想法,实际上,它唯一能够提供给我们的想法是:隐藏在O(n*n)里的常数非常小! > 有多小?自己测试一下,(我的笔记本比较慢)大约实际时间=0.00000036*n*n毫秒 > 但即使这样,按照多组数据的时间换算一下,还是应该超时的呀。 > 看题目最后一句话: > For each test case output the answer on a single line.You may assume the answer will not exceed 1000000000. > 这句话等价于:每个数都不会很大(要合并49999次呢!),继续等价于:有好多数是相同的。 > > 即使这样,又有什么不同呢? > 当然了! > 我绘制了一幅平均每次k-j的值关于n的图像 > 其中橘红色的列是我生成的随机的实数作为数据测的结果,而蓝色的是随机生成的[1,1024]间的整数测得的结果。 > 很明显,小范围的数据大大“加速”了算法,甚至可能引起复杂度上的差异。 > > 就是这样,让本该写一个平衡树的题用数组AC了。 > 呵呵。 > 呵呵。 Followed by: Post your reply here: |
All Rights Reserved 2003-2013 Ying Fuchen,Xu Pengcheng,Xie Di
Any problem, Please Contact Administrator