检查磁盘几个阶段性能优化的几个知识点

博客访问: 4625
博文数量: 1
博客积分: 35
博客等级: 民兵
技术积分: 10
注册时间:
分类: LINUX 13:38:12
原文地址: 作者:
由于各种的I/O负载情形各异,Linux系统中文件系统的缺省配置一般来说都比较中庸,强调普遍适用性。然而在特定应用下,这种配置往往在I/O性能方面不能达到最优。因此,如果应用对I/O性能要求较高,除了采用性能更高的硬件(如磁盘、HBA卡、CPU、MEM等)外,我们还可以通过对文件系统进行性能调优,来获得更高的I/O性能提升。总的来说,主要可以从三个方面来做工作:
1、Disk相关参数调优
2、文件系统本身参数调优
3、文件系统挂载(mount)参数调优
当然,负载情况不同,需要结合理论分析与充分的测试和实验来得到合理的参数。下面以SAS(Serial attached SCSI)磁盘上的EXT3文件系统为例,给出Linux文件系统性能优化的一般方法。请根据自身情况作适合调整,不要生搬硬套。
1、Disk相关参数
1.1 Cache mode:启用WCE=1(Write Cache Enable), RCD=0(Read Cache Disable)模式
sdparm -s WCE=1, RCD=0 -S /dev/sdb
1.2 Linux I/O scheduler算法
经过实验,在重负载情形下,deadline调度方式对squidI/O负载具有更好的性能表现。其他三种为noop(fifo), as, cfq,noop多用于SAN/RAID存储系统,as多用于大文件顺序读写,
cfq适于桌面应用。
echo deadline > /sys/block/sdb/queue/scheduler
1.3 deadline调度参数
对于redhat linux建议 read_expire = 1/2 write_expire,对于大量频繁的小文件I/O负载,应当这两者取较小值。更合适的值,需要通过实验测试得到。
echo 500 > /sys/block/sdb/queue/iosched/read_expire
echo 1000 > /sys/block/sdb/queue/iosched/write_expire
1.4 readahead 预读扇区数
预读是提高磁盘性能的有效手段,目前对顺序读比较有效,主要利用数据的局部性特点。比如在我的系统上,通过实验设置通读256块扇区性能较优。
blockdev --setra 256 /dev/sdb
2、EXT3文件系统参数
2.1 block size = 4096 (4KB)
mkfs.ext3 -b指定,大的数据块会浪费一定空间,但会提升I/O性能。EXT3文件系统块大小可以为1KB、2KB、4KB。
2.2 inode size
这是一个逻辑概念,即一个inode所对应的文件相应占用多大物理空间。mkfs.ext3 -i指定,可用文件系统文件大小平均值来设定,可减少磁盘寻址和元数据操作时间。
2.3 reserved block
mkfs.ext3 -m指定,缺省为5%,可调小该值以增大部分可用存储空间。
2.4 disable journal
对数据安全要求不高的应用(如web cache),可以关闭日志功能,以提高I/O性能。
tune2fs -O^has_journal /dev/sdb
3、mount参数
3.1 noatime, nodirtime
访问文件目录,不修改访问文件元信息,对于频繁的小文件负载,可以有效提高性能。
异步I/O方式,提高写性能。
3.3 data=writeback (if journal)
日志模式下,启用写回机制,可提高写性能。数据写入顺序不再保护,可能会造成文件系统数据不一致性,重要数据应用慎用。
3.4 barrier=0 (if journal)
barrier=1,可以保证文件系统在日志数据写入磁盘之后才写commit记录,但影响性能。重要数据应用慎用,有可能造成数据损坏。
以/dev/sdb为例,优化操作方法如下,参数请自行调整。
sdparm -s WCE=1, RCD=0 -S /dev/sdb
echo deadline > /sys/block/sdb/queue/scheduler
echo 500 > /sys/block/sdb/queue/iosched/read_expire
echo 1000 > /sys/block/sdb/queue/iosched/write_expire
blockdev --setra 256 /dev/sdb
mkfs.ext3 -b 4096 -i 16384 -m 2 /dev/sdb1
tune2fs -O^has_journal /dev/sdb1
mount /dev/sdb1 /cache1 -o defaults,noatime,nodirtime,async,data=writeback,barrier=0 (if with journal)
mount /dev/sdb1 /cache1 -o defaults,noatime,nodirtime,async (if without journal)
请大家注意不要模仿,每台服务器的业务不一样,情况不一样,不要在线上的服务器试验。
性能分析工具
CPU性能分析工具:
Memory性能分析工具:
cat /proc/meminfo
cat /proc/slabinfo
cat /proc//maps
I/O性能分析工具:
quotacheck
Network性能分析工具:
cat /proc/sys/net
性能调优工具
当通过上述工具及命令,我们发现了应用的性能瓶颈以后,我们可以通过以下工具或者命令来进行性能的调整。
CPU性能调优工具:
nice / renic
Memory性能调优工具:
I/O性能调优工具:
boot line:
Network性能调优工具:
CPU性能调整
当一个系统的CPU空闲时间或者等待时间小于5%时,我们就可以认为系统的CPU资源耗尽,我们应该对CPU进行性能调整。
CPU性能调整方法:
编辑/proc/sys/kernel/中的文件,修改内核参数。
#cd /proc/sys/kernel/
# ls /proc/sys/kernel/
acct hotplug panic real-root-dev
cad_pid modprobe panic_on_oops sem
cap-bound msgmax pid_max shmall
core_pattern msgmnb powersave-nap shmmax
core_uses_pid msgmni print-fatal-signals shmmni
ctrl-alt-del ngroups_max printk suid_dumpable
domainname osrelease printk_ratelimit sysrq
exec-shield ostype printk_ratelimit_burst tainted
exec-shield-randomize overflowgid pty threads-max
hostname overflowuid random version
一般可能需要编辑的是pid_max和threads-max,如下:
# sysctl kernel.threads-max
kernel.threads-max = 8192
# sysctl kernel.threads-max=10000
kernel.threads-max = 10000
Memory性能调整
当一个应用系统的内存资源出现下面的情况时,我们认为需要进行Memory性能调整:
页面频繁换进换出;
缺少非活动页。
例如在使用vmstat命令时发现,memory的cache使用率非常低,而swap的si或者so则有比较高的数据值时,应该警惕内存的性能问题。
Memory性能调整方法:
1。关闭非核心的服务进程。
相关的方法请见CPU性能调整部分。
2。修改/proc/sys/vm/下的系统参数。
# ls /proc/sys/vm/
block_dump laptop_mode nr_pdflush_threads
dirty_background_ratio legacy_va_layout overcommit_memory
dirty_expire_centisecs lower_zone_protection overcommit_ratio
dirty_ratio max_map_count page-cluster
dirty_writeback_centisecs min_free_kbytes swappiness
hugetlb_shm_group nr_hugepages vfs_cache_pressure
# sysctl vm.min_free_kbytes
vm.min_free_kbytes = 1024
# sysctl -w vm.min_free_kbytes=2508
vm.min_free_kbytes = 2508
# cat /etc/sysctl.conf
vm.min_free_kbytes=2058
3。配置系统的swap交换分区等于或者2倍于物理内存。
total used free shared buffers cached
Mem: 240 24 742400
-/+ buffers/cache: 140
Swap: 272 1848568
I/O性能调整
系统出现以下情况时,我们认为该系统存在I/O性能问题:
系统等待I/O的时间超过50%;
一个设备的平均队列长度大于5。
我们可以通过诸如vmstat等命令,查看CPU的wa等待时间,以得到系统是否存在I/O性能问题的准确信息。
I/O性能调整方法:
1。修改I/O调度算法。
Linux已知的I/O调试算法有4种:
deadline - Deadline I/O scheduler
as - Anticipatory I/O scheduler
cfq - Complete Fair Queuing scheduler
noop - Noop I/O scheduler
可以编辑/etc/yaboot.conf文件修改参数elevator得到。
# vi /etc/yaboot.conf
image=/vmlinuz-2.6.9-11.EL
label=linux
initrd=/initrd-2.6.9-11.EL.img
root=/dev/VolGroup00/LogVol00
append="elevator=cfq rhgb quiet"
2。文件系统调整。
对于文件系统的调整,有几个公认的准则:
将I/O负载相对平均的分配到所有可用的磁盘上;
选择合适的文件系统,Linux内核支持reiserfs、ext2、ext3、jfs、xfs等文件系统;
# mkfs -t reiserfs -j /dev/sdc1
文件系统即使在建立后,本身也可以通过命令调优;
tune2fs (ext2/ext3)
reiserfstune (reiserfs)
jfs_tune (jfs)
3。文件系统Mount时可加入选项noatime、nodiratime。
# vi /etc/fstab
/dev/sdb1 /backup reiserfs acl, user_xattr, noatime, nodiratime 1 1
4。调整块设备的READAHEAD,调大RA值。
[root@overflowuid ~]# blockdev --report
RO RA SSZ BSZ StartSec Size Device
rw 256 512 96640 /dev/sdb
rw 256 512 94240 /dev/sdb1
[root@overflowuid ~]# blockdev --setra 2048 /dev/sdb1
[root@overflowuid ~]# blockdev --report
RO RA SSZ BSZ StartSec Size Device
Network性能调整
一个应用系统出现如下情况时,我们认为该系统存在网络性能问题:
网络接口的吞吐量小于期望值;
出现大量的丢包现象;
出现大量的冲突现象。
Network性能调整方法:
1。调整网卡的参数。
# ethtool eth0
Settings for eth0:
Supported ports: [ TP ]
Supported link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Full
Supports auto-negotiation: Yes
Advertised link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Full
Advertised auto-negotiation: Yes
Speed: 100Mb/s
Duplex: Half
Port: Twisted Pair
Transceiver: internal
Auto-negotiation: on
Supports Wake-on: d
Wake-on: d
Current message level: 0x)
Link detected: yes
#ethtool -s eth0 duplex full
#ifconfig eth0 mtu 9000 up
2。增加网络缓冲区和包的队列。
# cat /proc/sys/net/ipv4/tcp_mem
144 393216
# cat /proc/sys/net/core/rmem_default
# cat /proc/sys/net/core/rmem_max
# cat /proc/sys/net/core/wmem_default
# cat /proc/sys/net/core/wmem_max
# cat /proc/sys/net/core/optmem_max
# cat /proc/sys/net/core/netdev_max_backlog
# sysctl net.core.rmem_max
net.core.rmem_max = 131071
# sysctl -w net.core.rmem_max=135168
net.core.rmem_max = 135168
3。调整Webserving。
# sysctl net.ipv4.tcp_tw_reuse
net.ipv4.tcp_tw_reuse = 0
# sysctl -w net.ipv4.tcp_tw_reuse=1
net.ipv4.tcp_tw_reuse = 1
# sysctl net.ipv4.tcp_tw_recycle
net.ipv4.tcp_tw_recycle = 0
# sysctl -w net.ipv4.tcp_tw_recycle=1
net.ipv4.tcp_tw_recycle = 1
一:IO优化(1)网络IO优化,主要通过调整TCP参数调节kern.maxproc#系统可用的最大进程数kern.ipc.maxsockbuf##最大套接字缓冲区kern.maxfiles=65536##系统中允许的最多文件数量,缺省的是几千个但如果你在运行数据库或大的很吃描述符的进程可以net.inet.tcp.sendspace=65535##最大的待发送TCP 数据缓冲区空间,应用程序将数据放到这里就认为发送成功了,系统TCP堆栈保证数据的正常发送net.inet.tcp.recvspace=65535##最大的接受TCP缓冲区空间,系统从这里将数据分发给不同的套接字,增大该空间可提高系统瞬间接受数据的能力以提高性能kern.ipc.somaxconn=8192##最大的等待连接完成的套接字队列大小,高负载服务器和受到分布式服务阻塞攻击的系统也许会因为这个队列被塞满而不能提供正常服务。默认仅为128,根据机器和实际情况需要改动,太大就浪费了内存 net.inet.udp.recvspace=65535##最大的接受UDP缓冲区大小net.inet.udp.maxdgram=57344##最大的发送UDP数据缓冲区大小net.local.stream.recvspace=32768##本地套接字连接的数据接收空间net.local.stream.sendspace=65535##本地套接字连接的数据发送空间net.inet.icmp.drop_redirect=1net inet.icmp.log_redirect=1‘net.inet.ip.redirect=0net.inet6.ip6.redirect=0##屏蔽ICMP重定向功能net.inet.icmp.bmcastecho=0net.inet.icmp.maskrepl=0##防止广播风暴net.inet.icmp.icmplim=100##限制系统发送ICMP速率net.inet.tcp.always_keepalive=0##设置为1会帮助系统清除没有正常断开的TCP连接,这增加了一些网络带宽的使用,但是一些死掉的连接最终能被识别并清除。死的TCP连接是被拨号用户存取的系统的一个特别的问题,因为用户经常断开modem而不正确的关闭活动的连接。 (2)磁盘IO优化修改fstab,在加载参数上加入noatime ,禁止加入访问文件时间控制swappness 参数,尽量减少应用的内存被交换到交换分区中,默认是60块大小的优化 ,节点块的优化block size = 4096(4K)大的数据块会浪费一定的空间,比如此设置会使一个空的文件夹占用4K的空间,不过会提高I/O性能inode size 这是一个逻辑概念,即一个inode所对应的文件相应占用多大物理空间,mkfs.ext3 -i指定,可用文件系统文件大小平均值来设定,可减少磁盘寻址和元数据操作时间linux I/O调度方式启用异步方式,提高读写性能有关IO的几个内核参数:/proc/sys/vm/dirty_ratio这个参数控制文件系统的文件系统写缓冲区的大小,单位是百分比,表示系统内存的百分比,表示当写缓冲使用到系统内存多少的时候,开始向磁盘写出数 据。增大之会使用更多系统内存用于磁盘写缓冲,也可以极大提高系统的写性能。但是,当你需要持续、恒定的写入场合时,应该降低其数值,一般启动上缺省是 10/proc/sys/vm/dirty_expire_centisecs这个参数声明Linux内核写缓冲区里面的数据多“旧”了之后,pdflush进程就开始考虑写到磁盘中去。单位是 1/100秒。缺省是 30000,也就是 30 秒的数据就算旧了,将会刷新磁盘。对于特别重载的写操作来说,这个值适当缩小也是好的,但也不能缩小太多,因为缩小太多也会导致IO提高太快。建议设置为 1500,也就是15秒算旧。/proc/sys/vm/dirty_background_ratio这个参数控制文件系统的pdflush进程,在何时刷新磁盘。单位是百分比,表示系统内存的百分比,意思是当写缓冲使用到系统内存多少的时候, pdflush开始向磁盘写出数据。增大之会使用更多系统内存用于磁盘写缓冲,也可以极大提高系统的写性能。但是,当你需要持续、恒定的写入场合时,应该 降低其数值,一般启动上缺省是 5/proc/sys/vm/dirty_writeback_centisecs这个参数控制内核的脏数据刷新进程pdflush的运行间隔。单位是 1/100 秒。缺省数值是500,也就是 5 秒。如果你的系统是持续地写入动作,那么实际上还是降低这个数值比较好,这样可以把尖峰的写操作削平成多次写操作当然最主要的还是升级硬件或通过做RAID实现用过的文件系统比较:
1、Reiserfs
 大量小文件访问,衡量指标是IOPS,文件系统性能瓶颈在于 文件元数据操作、目录操作、数据寻址。reiserfs对小文件作了优化,并使用B+ tree组织数据,加速了数据寻址,大大降低了open/create/delete/close等系统调用开销。mount时指定noatime, nodiratime, notail,减少不必要的inode操作,notail关闭tail package功能,以空间换取更高性能。因此,对于随机的小I/O读写,reiserfs是很好的选择。
 大文件顺序访问,衡量指标是IO吞吐量,文件系统性能瓶颈在 于数据块布局(layout)、数据寻址。Ext4对ext3主要作了两方面的优化:
 一是inode预分配。这使得inode具有很好的局部性特 征,同一目录文件inode尽量放在一起,加速了目录寻址与操作性能。因此在小文件应用方面也具有很好的性能表现。
 二是extent/delay/multi的数据块分配策 略。这些策略使得大文件的数据块保持连续存储在磁盘上,数据寻址次数大大减少,显著提高I/O吞吐量。
因此,对于顺序大I/O读写,EXT4是很好的选择。另外,XFS性能在大文件方面也相当不错。用到的命令:检测硬盘的读效率:hdparm -tT /dev/hda。检测硬盘的写效率:time dd if=/dev/zero of=/media/hda5/tmp/my-file bs=4k count=65536写入字符到/media/hda5/tmp/my-file文件,bs为块大小,count为快数系统IO情况:vmstat,如果wa大说明瓶颈在io上。iostat用于监视io情况二:CPU 编译参数优化CHOST参数: 对应CPU类型CFLAGS参数:-O3:相对于-O、-O1、-O2,-O3开启了所有GCC支持的优化特性; -msse2:开启CPU所支持的sse2指令集; -mmmx:参考-msse2 -mfpmath=sse:为指定指令集生成浮点运算特性(优化浮点运算功能); -mcpu:指定CPU型号; -march:指定CPU型号,基本同-mcpu,GCC根据-march设定的CPU型号决定在生成代码时可以使用哪些种类的指令。(注 意!-march参数在某些CPU型号中不可用!) -pipe:使用管道(pipe)方法替代临时文件方法在编译的不同阶段之间进行通讯。三:系统优化(1) 关闭不用的服务(2) 程序执行效率优化(3) 充分利用多核的优势
今天跟同事学了一招,可以通过修改swappiness内核参数,降低系统对swap的使用,从而提高系统的性能。
遇到的问题是这样的,新版本产品发布后,每小时对内存的使用会有一个尖峰。虽然这个峰值还远没有到达服务器的物理内存,但确发现内存使用达到峰值时系统开始使用swap。在swap的过程中系统性能会有所下降,表现为较大的服务延迟。对这种情况,可以通过调节swappiness内核参数降低系统对swap的使用,从而避免不必要的swap对性能造成的影响。
有一篇关于swappiness内核参数的详细介绍。简单地说这个参数定义了系统对swap的使用倾向,默认值为60,值越大表示越倾向于使用swap。可以设为0,这样做并不会禁止对swap的使用,只是最大限度地降低了使用swap的可能性。通过sysctl -q vm.swappiness可以查看参数的当前设置。修改参数的方法是修改/etc/sysctl.conf文件,加入vm.swappiness=xxx,并重起系统。如果不想重起,可以通过sysctl -p动态加载/etc/sysctl.conf文件,但建议这样做之前先清空swap。
阅读(650) | 评论(0) | 转发(0) |
上一篇:没有了
下一篇:没有了
给主人留下些什么吧!~~
请登录后评论。优化实例存储卷的磁盘性能 - Amazon Elastic Compute Cloud
>> 优化实例存储卷的磁盘性能
AWS 文档中描述的 AWS 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 。
优化实例存储卷的磁盘性能
由于 Amazon EC2 采用特殊方式将磁盘虚拟化,所以第一次在大多数实例存储卷上执行写入操作的速度会比之后的写入操作慢。对于大部分应用程序,可将此成本分摊到实例的整个使用期限。然而,如果您需要较高的磁盘性能,我们建议您在生产使用之前对每个磁盘位置执行一次性写入操作,以此来实现硬盘初始化。
某些实例类型使用直接附加的固态硬盘 (SSD) 并支持 TRIM,可以在启动时提供最大性能,且无需初始化。有关每种实例类型的实例存储的信息,请参阅。
如果您需要在延迟或吞吐量方面具有更大灵活性,我们建议您使用 Amazon EBS。
要初始化实例存储卷,请使用以下 dd 命令,具体取决于要初始化的存储 (如 /dev/sdb 或 /dev/nvme1n1)。
请确保先卸载硬盘,然后再执行该命令。
初始化可能需要很长一段时间 (对于超大型实例,约为 8 小时)。
要将实例存储卷初始化,可使用 m1.large、m1.xlarge、c1.xlarge、m2.xlarge、m2.2xlarge 和 m2.4xlarge 实例类型上的以下命令:
dd if=/dev/zero of=/dev/sdb bs=1M
dd if=/dev/zero of=/dev/sdc bs=1M
dd if=/dev/zero of=/dev/sdd bs=1M
dd if=/dev/zero of=/dev/sde bs=1M要同时对所有实例存储卷执行初始化,可使用以下命令: dd if=/dev/zero bs=1M|tee /dev/sdb|tee /dev/sdc|tee /dev/sde & /dev/sdd配置硬盘以便通过对每个硬盘位置执行写入操作将它们初始化。当配置基于软件的 RAID 时,请务必更改最低重建速度: echo $((30*1024)) & /proc/sys/dev/raid/speed_limit_min
Javascript 在您的浏览器中被禁用或不可用。
要使用 AWS 文档,必须启用 Javascript。请参阅浏览器的帮助页面以了解相关说明。
我们使用 Cookie 来提供和改进服务。使用我们的网站即表示您同意我们获取 Cookie。仅需1分钟 提升硬盘性能的5个优化细节分享
互联网 & 发布时间: 10:52:55 & 作者:佚名 &
我们都知道,硬盘运行慢就会导致电脑越来越卡,下面小编分享提升硬盘性能的5个优化细节,仅需1分钟即可,有需要的朋友可以参考本文,来看看吧
你是不是觉得换了SSD就跟上天了一样,速度噌噌得快了很多?小编告诉你,还不止这些,今天分享5个优化细节,让你的硬盘性能更上一层楼。而且,这对机械硬盘和SSD固态硬盘都有效哦!
首先,确保你的硬盘处于AHCI模式,固态硬盘正确开启了Trim,并且安装好了芯片组驱动程序&&这些是通常优化硬盘、尤其是固态硬盘的必讲教程(可百度查之),小编要说的则是进阶优化方法。
首先,在电脑系统属性中,切换到系统保护,关闭系统还原。对硬盘而言,这是个繁重的后台读写功能,对SSD而言,有证据表明系统还原影响了TRIM的读写机制,进而降低了性能。
接下来在各分区盘符的属性中,取消勾选&除了文件属性外,还允许索引此驱动器上文件的内容&,有时候可能会需要你以管理员权限操作,执行管理员权限就行了。这部分大概会影响3%~5%乃至更多的读写性能,尤其是作为系统盘符的C盘更是如此。
在同样的分区盘符属性中,切换到&工具&选项卡,选择&优化&,弹出窗口中选择&更改设置&,取消勾选&按计划运行(推荐)(R)&。无论对机械硬盘还是对SSD固态硬盘,这个功能都会拖累系统的读写性能(3%左右),自从NTFS格式后,这个功能的意义也早已步入FAT格式时代那么有效率了。
继续优化还可以考虑关闭系统休眠,建议非笔记本用户操作这一步,运行命令提示符模式(开始-运行-CMD),输入powercfg-h off回车关闭休眠,这样可以节约一些硬盘空间。当然了,这就不涉及性能的改变,主要是节约磁盘空间而已。
最后,要给大家介绍一个缓存上的优化操作,可以有效减轻硬盘的频繁读写,同时提升内存运行效率,达到提升系统性能的目的。注意,这个优化方法针对8GB乃至更大内存的用户使用。在开始菜单输入system.ini(Win8以上系统)回车,打开系统配置文件。
在[386Enh]项下的最后一行,输入ConservativeSwapfileUsage=1,让系统在&用光&内存的情况下再调用虚拟内存,因为Windows在设计的时候为了保有余地,会闲置不小的一部分内存,保持系统一定的冗余,但结果往往就是大量读写性能最高的内存(相比硬盘)闲置,系统反而去使用虚拟内存(简单说就是硬盘当内存的存储区域)进行读写交换,性能肯定受到影响。
之后,在[vcache]项下(Win 10中的system.ini没有这项,自行添加),写入两行命令:MinFileCache=4096和MaxFileCache=8096,设定最小缓存区4MB,最大缓存区8MB。这部分跟前面的操作有点相反的意思,是内存划分一部分容量给硬盘当缓存使用,提升小文件的交换读写速度。
这些优化方法能够切实提高硬盘性能,优化系统读写能力,有兴趣的童鞋不妨照着方法试试看吧!       
大家感兴趣的内容
12345678910
最近更新的内容扫一扫体验手机阅读
Linux性能优化 第六章 性能工具:磁盘I/O
<span type="1" blog_id="2068853" userid='
33篇文章,5W+人气,0粉丝
高并发架构之路
¥51.00136人订阅
新西兰资深网工运维之道
¥51.00436人订阅
前百度高级工程师的架构高可用实战
¥51.00236人订阅
<span type="1" blog_id="2068853" userid='9632 条评论分享收藏感谢收起赞同 26657 条评论分享收藏感谢收起}

我要回帖

更多关于 磁盘管理内有几个空分区 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信