『数论』求最大公因数

//#define fre yes

#include <cstdio>

int gcd(int a, int b) {
    if(b != 0) gcd(b, a % b);
    else return a;
}

谈论数论不废话 ----- 辗转相除法求gcd

以上代码的时间复杂度为 \(O(\log n)\)

证明,为何 \(gcd(b, a \mod b) = gcd(a, b)\)

设 \(g = gcd(a, b)\) 那么一定有 \(a = xg , b = yg\) 我们又可以将 a 用 b 来表示,(任何数都可以用另外一个数表示) \(a = kb + r\)(\(k\) 为 \(a / b\) 的整数部分,\(r\) 为 \(a / b\) 的余数部分 也就是 \(a \mod b\)),转化一下\(r = a - kb\) 那么将上面的 a, b 代入,也就变成了 \(r = xg - kyg = (x - ky)g\) 此时的 g 也是 r 的因数了,又因为 \(r\) 为 \(a \mod b\) 所以 \(gcd(a, b) = gcd(b, a \mod b)\) 证毕

原文地址:https://www.cnblogs.com/Nicoppa/p/11712072.html

时间: 2024-10-15 08:40:19

『数论』求最大公因数的相关文章

『数论』乘法逆元

在求解除法取模问题\((a \div b) \mod m\)时,我们可以转化为\([a \mod (b \times m)]\div b\) 但是如果\(b\)很大,则会出现爆精度问题,所以我们避免使用除法直接计算. 可以使用逆元将除法转换为乘法:假设\(b\)存在乘法逆元,即与\(m\)互质(充要条件). 设\(c\)是\(b\)的逆元,即\(b \times c≡1(\mod m)\) 那么有\(a\div b=(a\div b)\times 1=(a\div b)\times b\time

『转』数学专辑

1.burnside定理,polya计数法 这个大家可以看brudildi的<组合数学>,那本书的这一章写的很详细也很容易理解.最好能完全看懂了,理解了再去做题,不要只记个公式. *简单题:(直接用套公式就可以了) pku2409 Let it Bead   http://acm.pku.edu.cn/JudgeOnline/problem?id=2409 pku2154 Color http://acm.pku.edu.cn/JudgeOnline/problem?id=2154 pku12

『ENGLISH』

以A字母开头的词汇 英文 中文 abstract module 抽象模组 access 访问.存取 access control 存取控制 access control information 存取控制资讯 access mechanism 存取机制 access rights 存取权限 accessibility 无障碍性 accessibility information 无障碍网页资讯 accessibility problem 无障碍网页问题 accessible 无障碍的 access

『TensorFlow』函数查询列表_神经网络相关

神经网络(Neural Network) 激活函数(Activation Functions) 操作 描述 tf.nn.relu(features, name=None) 整流函数:max(features, 0) tf.nn.relu6(features, name=None) 以6为阈值的整流函数:min(max(features, 0), 6) tf.nn.elu(features, name=None) elu函数,exp(features) - 1 if < 0,否则featuresE

谈谈前端『新』技术

技术这个行当,永远会有新东西出来,不进则退.更关键的是,前端比起整个软件工程乃至计算机科学体系来说,是个相对新生草莽的领域,近年来前端生态的发展其实都是在向其他领域吸收和学习,不论是开发理念.工程实践还是平台本身(规范.浏览器).所谓的『根正苗红』的前端,不过是整个发展进程中探索的一个阶段而已,那个时代的最佳实践,很多到今天都已经不再适用.过往的经验固然有价值,但这些经验如果不结合对新事物本身的了解,就很难产生正确的判断.这里需要强调的是,学习新事物并不是为了不考虑实际需求的滥用,而是为了获取足

『Python』Numpy学习指南第九章_使用Matplotlib绘图

坐标轴调节以及刻度调节参见:『Python』PIL&plt图像处理_矩阵转化&保存图清晰度调整 数据生成: 1 import numpy as np 2 import matplotlib.pyplot as plt 3 4 func = np.poly1d(np.array([1,2,3,4])) 5 func1 = func.deriv(m=1) # 求一阶导数 6 func2 = func.deriv(m=2) # 求二阶导数 7 8 x = np.linspace(-10,10,3

『TensorFlow』常用函数实践笔记

查询列表: 『TensorFlow』函数查询列表_数值计算 『TensorFlow』函数查询列表_张量属性调整 『TensorFlow』函数查询列表_神经网络相关 经验之谈: 节点张量铺设好了之后,只要不加sess.run(),可以运行脚本检查张量节点是否匹配,无需传入实际数据流. 'conv1'指节点,'conv1:0'指节点输出的第一个张量. sess上下文环境中的函数调用即使不传入sess句柄,函数体内也存在于默认的sess环境中,可以直接sess.run(). image_holder

『Numpy』常用方法记录

numpy教程 广播机制 numpy计算函数返回默认是一维行向量: import numpy as np a = [[1,1,1], [2,2,2], [3,3,3]] b = (np.sum(a,axis=1)) c = (np.sum(a,axis=0)) print(b,'\n',c) # [3 6 9] # [6 6 6] 所以广播之实际是高维对一维行向量的广播: 除法广播: b = a/(np.sum(a,axis=1)) c = a/(np.sum(a,axis=0)) print(

『TensorFlow』slim高级模块

『TensorFlow』徒手装高达_主机体框架开光版_Google自家AlexNet集成&slim高级模块学习 辅助函数 slim.arg_scope() slim.arg_scope可以定义一些函数的默认参数值,在scope内,我们重复用到这些函数时可以不用把所有参数都写一遍,注意它没有tf.variable_scope()划分图结构的功能, with slim.arg_scope([slim.conv2d, slim.fully_connected], trainable=True, act