取文件权限以及取服务器ip的方法归纳

取服务器IP:

[[email protected] ~]# ifconfig etj0

etj0: error fetching interface information: Device not found

[[email protected] ~]# ifconfig eth0

eth0      Link encap:Ethernet  HWaddr 00:0C:29:DD:4A:5C

inet addr:192.168.137.222  Bcast:192.168.137.255  Mask:255.255.255.0

inet6 addr: fe80::20c:29ff:fedd:4a5c/64 Scope:Link

UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

RX packets:9958 errors:0 dropped:0 overruns:0 frame:0

TX packets:7585 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:1000

RX bytes:975189 (952.3 KiB)  TX bytes:869161 (848.7 KiB)

Interrupt:19 Base address:0x2024

1、

[[email protected] ~]# ifconfig eth0 | awk -F "[ :]+" ‘NR==2{print $4}‘

192.168.137.222

2、

[[email protected] ~]# ifconfig eth0 | sed -nr ‘[email protected]^.*dr:(.*) B.*[email protected]\[email protected]‘

192.168.137.222

3、

[[email protected] ~]# grep "IPADDR" /etc/sysconfig/network-scripts/ifcfg-eth0 | cut -d= -f2

192.168.137.222

4、

[[email protected] ~]# ifconfig eth0 | grep "inet addr" | cut -d: -f2 | cut -d" " -f1

192.168.137.222

5、

[[email protected] ~]# ifconfig eth0 | sed -nr ‘/inet addr/[email protected]^.*dr:(.*) B.*[email protected]\[email protected]‘

192.168.137.222

取文件的权限:

[[email protected] ~]# stat /etc/hosts

File: "/etc/hosts"

Size: 158       Blocks: 8          IO Block: 4096   普通文件

Device: 802h/2050dInode: 260138      Links: 1

Access: (0644/-rw-r--r--)  Uid: (    0/    root)   Gid: (    0/    root)

Access: 2017-05-16 09:26:35.004013181 +0800

Modify: 2010-01-12 21:28:22.000000000 +0800

Change: 2017-02-13 23:50:52.643899673 +0800

1.

[[email protected] ~]# stat /etc/hosts | sed -nr ‘[email protected]^Access: \(0(.*)\/-.*[email protected]\[email protected]‘

644

2.

[[email protected] ~]# stat /etc/hosts | awk -F[0/] ‘NR==4{print $2}‘

644

时间: 2024-10-12 20:21:46

取文件权限以及取服务器ip的方法归纳的相关文章

Fiddler显示服务器IP的方法(转)

Fiddler默认配置中是看不到服务器IP的,接下来简单介绍下在fiddler上也能够看到请求的服务器IP: 1.Fiddler--->Rules--->Customize Rules , 2.在CustomRules.js里搜索找到:static function Main() , 3.添加如下一行脚本: FiddlerObject.UI.lvSessions.AddBoundColumn("Server IP", 120, "X-HostIP");

Mac/Linux/Centos终端中上传文件到Linux云服务器

Mac/Linux/Centos终端中上传文件到Linux云服务器 1.mac上传文件到Linux服务器 scp 文件名 用户名@服务器ip:目标路径如:scp /Users/test/testFile [email protected]:/test/ 2.mac上传文件夹到Linux服务器,与上传文件相比多加了-r scp -r 文件夹目录 用户名@服务器ip:目标路径 如:scp -r /Users/test/testFolder [email protected]:/test/ 3.Lin

取ip,特殊命令和文件权限

取ip不低于3种方法 [[email protected] ~]# ifconfig eth0 |sed -nr '2s#^[^0-9]*([0-9.]*) .*$#\1#gp' 192.168.17.130 [[email protected] ~]# ifconfig eth0 |sed -n '2p'|awk -F "[ :]+" '{print $4}' 192.168.17.130 [[email protected] ~]# ifconfig eth0 |sed -n '2

关于在阿里云ESC服务器解析域名并绑定服务器IP后上传文件通过域名访问步骤教程

第一步:登录阿里云官网,获取服务器ECS的指定公网IP地址. 1.输入阿里云官网账号进入首页,如下图: 2.点击进入"管理控制台",如下图: 3.点击"云服务器ECS",进入你购买的服务器概览界面,如下图: 4.点击左侧"实例"选项,进入你名下服务器信息界面,如下图:注意你购买服务器所在地. 获取服务器公网地址. 第二步:登录你所购买域名的供应商进行解析域名绑定服务器IP地址:如(万网)(现万网与阿里云整合在一起,所以你再阿里云也可以解析域名到你

python取文件后缀

#取文件后缀 >>> os.path.splitext("/root/a.py") ('/root/a', '.py') #取目录与文件名 >>> os.path.split("/root/a.py") ('/root', 'a.py') 此生必看的科学实验-水知道答案 http://v.youku.com/v_show/id_XMjgzMzcwNDk4OA 为什么观看这部记录片 http://v.youku.com/v_show

利用EJS查找可用的Google搜索服务器IP,并缓存入系统Hosts文件内

此博客为9925.org的镜像,登录9925.org可以查看到最新博文. 原文出处:http://ily.so/qi2ENn 搜索可用的Google搜索服务器IP,并将搜索结果缓存入系统Hosts文件内. 提示:此脚本在R5以上版本的EJS脚本IDE工具内可成功解释运行. clear(); console.info("/**************************版权声明**************************/"); console.info("/*  

取文件的大小 (KB,MB,GB...)

2种方式: VB 和 C# 1,  VB Public Function GetFileSize(ByVal iFileSizeKB As Long) As String Dim iFileSizeMB As Integer Dim iFileSizeGB As Integer If (iFileSizeKB >= 1024) Then iFileSizeMB = iFileSizeKB / 1024 If (iFileSizeMB >= 1024) Then iFileSizeGB = iF

服务器上用户访问文件权限设置

工作任务描述 HT公司准备搭建一台文件服务器.公司当前的情况是有销售,财务,信息三个部门.每个部门有几名员工,其中一名是其部门经理(详细用户请见上一项目). 要求: 1.在文件服务器上创建三个文件夹分别存放各部门的文件,并要求只有本部门的用户能访问其部门的文件夹(完全控制的权限),每个部门的经理和公司总经理可以访问所有文件夹(读取),另创建一个公共文件夹,使得所有用户都能在里面查看和存放公共的文件 2.每个部门的用户可以在服务器上存放最多100M的文件 3.公司服务器的硬盘空间有限,要求做好文件

第三百四十一节,Python分布式爬虫打造搜索引擎Scrapy精讲—编写spiders爬虫文件循环抓取内容—

第三百四十一节,Python分布式爬虫打造搜索引擎Scrapy精讲-编写spiders爬虫文件循环抓取内容- 编写spiders爬虫文件循环抓取内容 Request()方法,将指定的url地址添加到下载器下载页面,两个必须参数, 参数: url='url' callback=页面处理函数 使用时需要yield Request() parse.urljoin()方法,是urllib库下的方法,是自动url拼接,如果第二个参数的url地址是相对路径会自动与第一个参数拼接 # -*- coding: