AI 笔记(一)

位图又称点阵图,由像素组成,如果分辨率较低或者放大时会出现锯齿。
矢量图由线条组成,无论是放大或缩小都看起来很圆滑
corel公司的painter是一款专业的美术绘图软件
photoshop擅长的是图片处理但在绘画方面不如painter
InDesign:排版设计
AI适用领域:插画设计,VI(视觉识别)设计,平面广告设计

编辑->首选项->用户界面 可以调节界面颜色深度

ctrl+r 标尺,ctrl+‘ 网格

shift+o 画板工具

通常情况下应处于选择工具下(V)

斜杠(/) 可以去掉颜色 工具的两个色板中那个在前面去掉哪个(X 切换,此处右上角的箭头是对调颜色)

弧线工具在鼠标放开以前用上下箭头调节弯度大小

钢笔连续点之间的线段后,按住ctrl点击一下空白处结束本次划线

螺旋线,松开鼠标前 按上下键调节圈数,按住ctrl随机调节圈密度

时间: 2024-10-12 09:07:36

AI 笔记(一)的相关文章

AI笔记二【有图】

IllustratorCS3  (AI) PS: 是一款针对 位图 图像 进行处理的软件 位图:由像素构成的图像 矢量图:由数学函数方式计算的来的图像 AI中可编辑范围: 主画面 + 预编辑区 切换画面的显示方式: F 缩放工具:Z (针对画面显示放大or缩小) ctrl + 加号 (放大) Ctrl + 减号 (缩小) ctrl + o (数字):满画面显示 在矢量软件中,每一个物件都具有的两种属性: 1: 内部填充 2: 外部描边 恢复到默认的填充和描边状态: D 切换填充和描边的位置: X

Coursera 深度学习 吴恩达 deep learning.ai 笔记整理(3-2)——机器学习策略

一.误差分析 定义:有时我们希望算法能够胜任人类能做的任务,但是当算法还没达到人类所预期的性能时,人工检查算法错误会让你知道接下来做什么,这也就是误差分析 检查,发现会把够狗当恒,是否需要做一个项目专门处理狗?收集更多的图,或者 在错误例子中查看多少狗 滤镜花哨的滤镜 干扰分类器 做最有潜力的 弄清楚替身空间 坑你归纳出新的误差类型 简历新的错误分类

Coursera 深度学习 吴恩达 deep learning.ai 笔记整理(4-1)—— 卷积神经网络

1.计算机视觉 神经网络在计算机视觉方面有很广泛的应用, 包括图像分类.物体检测.图像风格转换和融合,但是当图片的尺寸比较大时,参数的数量就会增多,传统的全连接神经网络就会很复杂,一方面无法找到足够的数据训练,另一方面也容易引起过拟合,因此我们引入卷积神经网络 原文地址:https://www.cnblogs.com/dapeng-bupt/p/9059927.html

吴恩达 DeepLearning.ai课程笔记(1-3)神经网络和深度学习 --- 浅层神经网络

以下为在Coursera上吴恩达老师的DeepLearning.ai课程项目中,第一部分<神经网络和深度学习>第二周课程部分关键点的笔记.笔记并不包含全部小视频课程的记录,如需学习笔记中舍弃的内容请至 Coursera 或者 网易云课堂.同时在阅读以下笔记之前,强烈建议先学习吴恩达老师的视频课程. 1. 二分类问题 对于二分类问题,大牛给出了一个小的Notation. 样本:  ,训练样本包含  个: 其中  ,表示样本 包含 个特征:  ,目标值属于0.1分类: 训练数据:  输入神经网络时

AI学习笔记(01)

[1]在Ai中,每个对象有两个属性:填充颜色和描边颜色. [2]在AI中,非要选中,才操作.而PS中,选中图层即可. [3]AI中,都是路径. [4]选择工具是选中整个路径,而直接选择工具,是选中.其中某些锚点. [5]编组选择工具.,就是PS的链接.一起选择中. [6]Ai,中,不建议新建图层. [7]重复实行上一步操作:ctrl+D. Ai 用途: 1.插画设计 2.LOGO设计 3.字体设计 4.学会PS和AI的结合使用. 5.包装设计 6.UI设计 绘制图标,比PS更加好. 都可以,绘制

deeplearning.ai 改善深层神经网络 week3 听课笔记

这一周的主体是调参. 1. 超参数:No. 1最重要,No. 2其次,No. 3其次次. No. 1学习率α:最重要的参数.在log取值空间随机采样.例如取值范围是[0.001, 1],r = -4*np.random.rand(), α = 10r. No. 2 Momentum β:0.9是个不错的选择.在1-β的log取值空间随机采样.例如取值范围[0.9, 0.999],则1-β的取值空间[0.001, 0.1]. No. 2 各个隐含层的神经元数量:可以在线性取值空间随机采样. No.

吴恩达深度学习笔记(deeplearning.ai)之卷积神经网络(二)

经典网络 LeNet-5 AlexNet VGG Ng介绍了上述三个在计算机视觉中的经典网络.网络深度逐渐增加,训练的参数数量也骤增.AlexNet大约6000万参数,VGG大约上亿参数. 从中我们可以学习到: 随着网络深度增加,模型的效果能够提升. 另外,VGG网络虽然很深,但是其结构比较规整.每经过一次池化层(过滤器大小为2,步长为2),图像的长度和宽度折半:每经过一次卷积层,输出数据的channel数量加倍,即卷积层中过滤器(filter)的数量. 残差网络(ResNet) 由于存在梯度消

GIS-&quot;地理空间大数据与AI的碰撞&quot;学习笔记

1.关系 人工智能>机器学习>神经网络>深度学习 2.机器学习-两个过程 训练/学习过程:样本数据.学习器.模型参数 测试/预测过程:预测强.预测值 3.神经网络 机器学习模拟人脑神经元构成神经网络学习算法 数百亿的神经元,链接构成神经网络,受制于数据量和计算能力 得益于大数据.云计算的发展和普及 4.深度学习 极其复杂的模型.自动提取特征.海量/全样本.GPU加速 传统机器学习依赖数据特征工程.人工规则 5.人工智能应用领域 语音识别:Siri.小啦.小冰.智能音响........ 图

]DeepLearning.ai学习笔记(二)改善深层神经网络:超参数调试、正则化以及优化--Week2优化算法

1. Mini batch梯度下降法 介绍 假设我们的数据量非常多,达到了500万以上,那么此时如果按照传统的梯度下降算法,那么训练模型所花费的时间将非常巨大,所以我们对数据做如下处理: 如图所示,我们以1000为单位,将数据进行划分,令$x^{\{1\}}=\{x^{(1)},x^{(2)}……x http://pic.cnhubei.com/space.php?uid=1132&do=album&id=825921http://pic.cnhubei.com/space.php?uid