签证-L1/L2

http://blog.sina.com.cn/s/blog_7664b7f70102uweb.html

14年4月我接到公司通知,要从MICROSTRATEGY中国研发中心内部transfer到美国总部,于是大查开启了美国小生活。

一切从准备签证开始。

我申请的是L1签证。同样是工作,如果是直接拿到美国公司offer,一般是要申请H1签证的。就工作者本身来说,L1还是H1其实区别不大,但是对于配偶来说就大不一样了,L1的配偶拿L2签证可以申请上学,也可以申请工作许可(EAD);H1的配偶可以申请上学,但是没有工作资格。

签证的初期准备主要就是公司律师审核各种材料。基本流程如下:

1)我按照要求把材料准备好发过去

2)律师将审核后的材料及其他需要的表格(比如I129,I797)寄回给我

3)拿到材料后预约面谈

4)面谈。

1)准备材料

说起来就这几步,当时也着实费了我不少功夫。本着大摩羯座的靠谱精神,我在收到公司关于申请材料的邮件的隔天就把所有文件搞定发还给律师了。在这个阶段,我需要准备的材料有:

- Resume/Curriculum Vitae

- All Degree

-Certificates/Diplomas

- Colledge/University Transcript or Grade Sheets

以上所有材料的翻译件,像学位证毕业证成绩单这种的,需要权威翻译机构翻译的或者是学校教务部翻译的并盖有公章的那种。简历的英文版就自己写写就好了。基本上这些材料主要是为了证明申请人具有相关的专业技能。

除此之外,我在这个阶段也开始在网上填写DS-160表格。填完之后没有着急着提交,而是下载一个汇总好copy发给律师帮忙审核。如果没记错,这个表格应该是所有签证申请都要填写的。填表网站:https://ceac.state.gov/genniv/

2)审核材料并寄回

这个阶段我大概等了一个多星期,这个快慢就要看公司律师的办事效率了,着急不来。本来材料准备完从美国总部寄回来用了Fedex大概也就两三个工作日就到了,刚好能赶上五一前一个星期去面谈。我当时在北京出差,千叮咛万嘱咐让HR把材料寄到北京,但是这个迷糊妹子还是给寄回杭州了,错过了在北京大使馆的面谈,只能说是好事多磨吧。由于马上要出国度蜜月了,算了算签证最快寄回的时间,再次本着大摩羯的靠谱精神,我把面谈推到了蜜月之后五月十五号。(后来事实证明,勉强在五一之前去面谈,估计真就把蜜月行程耽误了,哥娶个媳妇儿也不容易。)

我收到材料包裹里有面谈所需的全部材料。具体每个公司应该不太一样。但是有三个表格应该是都要有的:G28,I129,I797。具体这些表格干什么用我也闹不清楚,有兴趣的话可以网上查查。据说有人过海关的时候,会让出示I129和I797,不过我没遇上。到美国之后这些表格也要妥善保存,在美国办事情的时候会用到,尤其是I129。

3)预约面谈

之前的规定是,预约面谈以前需要购买专门的电话卡,然后打电话预约面谈时间。不过这个规定在去年的某一天改革了,现在除了打电话之外,也可以网上预约,(网站:http://ustraveldocs.com/ 。个人觉得网上预约就挺方便的,流程也很清楚)。

- 在预约面谈之前,需要填写好DS160表格,因为预约的时候需要填写DS160的表格编号到个人信息中。但根据个人经验,预约时只需要去生成总表就行,不一定着急提交,只要面谈前提交了就行。

- 户口和居住地对面谈地点的选择没有限制,找自己方便的去选就好。

- 预约成功之前要到中信银行缴签证费1200人民币左右。如果有中信银行卡的话,直接网上操作就搞定了。遇到问题打中信客服,还是很热情周到的。

- 我跟媳妇儿选择的是携签,面谈也一起去一个窗口,所以公司寄给我的那些材料我拿着就行了,不需要另外给她准备一份。也有同事是自己先过去,安顿好了媳妇儿再过去的。这样的话那些表格材料就需要给媳妇儿准备一份了。有一点要注意的是,携签也要分别预约的。预约填表有一栏是选择同行人的,会让人误以为携签的话直接把老婆填在这里就行了。后来给领事馆打电话才明白同行人只是适用于申请同样类别签证的,比如同是L1,或者以后父母去探亲同是H4。我和老婆分别申请L1和L2,所以需要分开填写预约申请。

- 预约取消需要提前,具体几天我忘记了,网站上有,貌似是两天。不过万一到跟前了临时有急事去不了,直接缺席就好了,这个肯定不会影响签证结果的(打电话到领事馆确认过)。网上有一种说法是取消的次数是有限制的,超过限制之后要重新缴纳签证费,我前后取消+缺席三次吧,反正没有重新缴费。

4)面谈

面谈之前,务必把所有材料列一个清单并且一一检查。这里提供下我的和媳妇儿的清单以供参考:

===L1===

- 护照

- DS160确认页

- 签证申请费收据

- 入馆单(预约确认页。到了领事馆门口会再发一个入馆牌之类的东西)

- 500刀打假费,可接受人民币和美元/刷卡以及现金(这个在领事馆里交)

- 公司寄来的那一大堆表格以及supporting documents

- 照片(有的人收了,有的人没有收。据说是看你提交的DS160表格照片是否符合要求吧。最好带着,以防万一,按照网上要求拍,有专门的规格的。)

===L2===

- 护照

- 120刀保险费什么的

- 入馆单

- DS160确认页

- 签证申请费收据

- 照片

- 结婚证

- 能够说明真是夫妻关系的材料,比如两人旅行照片,婚纱照之类的。

- 如果是L2单独去签,要带上L1的那几个表格。

我预约的面谈地点是在上海领事馆,时间是下午1点钟。我们差不多11点的时候到了梅龙镇广场,先附近逛了逛然后去吃了个饭,12点回到广场前面开始排队。差不多到12:45的时候工作人员开始发入馆牌。然后就是跟着队伍上楼,上楼后过安检,录指纹,缴费,面谈等各个环节都有工作人员指引,秩序井然。

下面要说到最重要的面经,可惜我的经验没啥借鉴价值。

我和媳妇儿一起到一个窗口前面,面试官是个看起来和蔼可亲的白人大哥,问了下面几个问题:

1,你们这个公司在哪里?

2,你们这个中国的公司跟美国公司什么关系?

3,你和你老婆怎么认识的?

4,有什么照片能证明你俩的关系吗?

全程英文,都是跟我说的,一个问题没问媳妇儿,人就靠微笑通关了。。。

欢乐的缴完费,除了护照之外什么材料都没留下,我们就回家等消息了。

我们周四顺利完成面谈,周五状态更新成了AP,本以为周一就可以变成Issued。谁知道周一媳妇接到了领事馆电话,签证官失误,忘记留一份L申请人(也就是我啦)的I129表格,让我们再传真一份过去。可能就是因为缺少这个表格吧,我们的材料被搁置了,一直到第二周周四才有一次update,但状态依旧是AP。这个时候我和媳妇都觉得肯定是被check了,打算破罐破摔干脆出去玩儿,眼不见心不烦。到了周五,没忍住又查了一下,居然状态变成了Issued,惊喜啊!然后又过了一周,还是到周四才收到了中信银行的通知,顺利拿到签证,一颗心也终于可以放回肚里了。

说到等待的过程,好多人说放平心态,但真心是说着容易做着难。签证没到手,机票没法儿定,中国这边公司无法离职,美国总部那边入职时间又催的很紧,简直纠结成了恋爱中的少女,朝思暮想寝食难安。。。

最后说说个人总结的一些经验吧:

- 领事馆那边处理签证应该是有个非常固定的流程的。当一份申请因为缺少材料暂时搁置时,即使你立刻补充了材料过去,也不会马上被处理,而是会随之进入到另外一个循环中。我前后等了两周才拿到材料,正常情况下应该一周就够了。

- 现在改成去中信取护照之后,寄回的流程是这样的。领事馆把护照寄送给上海中信总行,总行寄给杭州分行(博主在杭州工作,所以寄回地址填的杭州),杭州分行再寄给各个支行,用的都是EMS。如果实在着急拿到护照,可以考虑给分行打电话直接去取。

- 拿到签证后可以看下签证照片下面有几颗星星。听说是星星越多貌似代表对危险系数越高(还是听说,这个危险系数是指滞留在美国的可能性)。我是一颗,我老婆是两颗,不知道是不是和签证类别有关系。

- 如果面谈的时候被check了,签证官会明确告诉你的。如果实在是不放心,那就直接问领事馆吧,没关系的。

时间: 2024-08-28 12:03:40

签证-L1/L2的相关文章

习题2.5 两个有序链表序列的合并(15 分)<有疑问?L1 L2 没办法变空>

习题2.5 两个有序链表序列的合并(15 分) 本题要求实现一个函数,将两个链表表示的递增整数序列合并为一个非递减的整数序列. 函数接口定义: List Merge( List L1, List L2 ); 其中List结构定义如下: typedef struct Node *PtrToNode; struct Node { ElementType Data; /* 存储结点数据 */ PtrToNode Next; /* 指向下一个结点的指针 */ }; typedef PtrToNode L

线性模型 泛化优化 之 L1 L2 正则化

认识 L1, L2 从效果上来看, 正则化通过, 对ML的算法的任意修改, 达到减少泛化错误, 但不减少训练误差的方式的统称 训练误差 这个就损失函数什么的, 很好理解. 泛化错误 假设 我们知道 预测值 和 真实值 之前的 "误差" , 这就是泛化错误 跟训练数据没关系, 就是在用模型预测的时候, 给预测值 "加" 是一个项来修正模型 类似于 给 模型的预测值, 加上了一个 "修正项" 损失函数 = Loss + 正则化项 举个线性回归的栗子

L1&L2 Regularization

正则化方法:防止过拟合,提高泛化能力 在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合).其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大--因为训练出来的网络过拟合了训练集,对训练集外的数据却不work. 为了防止overfitting,可以用的方法有很多,下文就将以此展开.有一个概念需要先说明,在机器学习算法中,我们常常将原始数据集分为三部分:t

机器学习中的规则化范数(L0, L1, L2, 核范数)

目录: 一.L0,L1范数 二.L2范数 三.核范数 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化.我们先简单的来理解下常用的L0.L1.L2和核范数规则化.最后聊下规则化项参数的选择问题.这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文.知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正.谢谢. 监督机器学习问题无非就是"minimizeyour error while regularizing your parameters",也

如何理解机器学习/统计学中的各种范数norm | L1 | L2 | 使用哪种regularization方法?

参考: L1 Norm Regularization and Sparsity Explained for Dummies 专为小白解释的文章,文笔十分之幽默 why does a small L1 norm give a sparse solution? why does a sparse solution avoid over-fitting? what does regularization do really? 减少feature的数量可以防止over fitting,尤其是在特征比样本

正则化方法:L1和L2 regularization、数据集扩增、dropout(转)

ps:转的.当时主要是看到一个问题是L1 L2之间有何区别,当时对l1与l2的概念有些忘了,就百度了一下.看完这篇文章,看到那个对W减小,网络结构变得不那么复杂的解释之后,满脑子的6666-------->把网络权重W看做为对上一层神经元的一个WX+B的线性函数模拟一个曲线就好.知乎大神真的多. 版权声明:本文为博主原创文章,未经博主允许不得转载. 目录(?)[+] 本文是<Neural networks and deep learning>概览 中第三章的一部分,讲机器学习/深度学习算

L1和L2特征的适用场景

How to decide which regularization (L1 or L2) to use? Is there collinearity among some features? L2 regularization can improve prediction quality in this case, as implied by its alternative name, "ridge regression." However, it is true in genera

『教程』L0、L1与L2范数_简化理解

『教程』L0.L1与L2范数 一.L0范数.L1范数.参数稀疏 L0范数是指向量中非0的元素的个数.如果我们用L0范数来规则化一个参数矩阵W的话,就是希望W的大部分元素都是0,换句话说,让参数W是稀疏的. 既然L0可以实现稀疏,为什么不用L0,而要用L1呢?一是因为L0范数很难优化求解(NP难问题),二是L1范数是L0范数的最优凸近似,而且它比L0范数要容易优化求解.所以大家才把目光和万千宠爱转于L1范数. 总结:L1范数和L0范数可以实现稀疏,L1因具有比L0更好的优化求解特性而被广泛应用.

【机器学习】--线性回归中L1正则和L2正则

一.前述 L1正则,L2正则的出现原因是为了推广模型的泛化能力.相当于一个惩罚系数. 二.原理 L1正则:Lasso Regression L2正则:Ridge Regression 总结: 经验值 MSE前系数为1 ,L1 , L2正则前面系数一般为0.4~0.5 更看重的是准确性. L2正则会整体的把w变小. L1正则会倾向于使得w要么取1,要么取0 ,稀疏矩阵 ,可以达到降维的角度. ElasticNet函数(把L1正则和L2正则联合一起): 总结: 1.默认情况下选用L2正则. 2.如若