Buffalo LS-QVL下RAID5数据无法访问,E14报错-恢复经验。
本帖最后由 Thinker! 于 2012-12-16 15:35 编辑最近数据增长比较多,Buffalo的NAS性价比很高,上个月买了一个LS-QVL,加上三个2T的硬盘组成了个RAID5使用。
我是每天将数据传进去NAS后晚上就关机,隔天整理好数据再开机传进去。
前天早上照常将QVL开机后,问题来了,QVL面板的Power等闪红灯,登陆NAS Navigator2后显示QVL有报错,报错代码为E14,QVL的的共享文件夹无法访问,但是QVL的web管理界面还可以登陆,登陆web界面后看硬盘没有异常,但是就是左边的存储显示为不可用。。。。自己尝试将QVL关机后再开机,问题依然一样。。。。
就这个问题,致电了Buffalo的技术支持热线,其问了我错误代码,我告诉他E14,然后那边回复,让我尝试重启QVL后看情况如何,如果重启后情况依旧,那么就需要重新配置RAID。我问其数据怎么办,他说数据重要的话就去找外面的第三方数据恢复公司进行恢复。。。。
我靠,这就是他们的技术支持,这个不就是完全对着说明书的内容照念吗?什么技术水平呀,找数据恢复公司恢复,要多少钱才能恢复数据呀。。。听完这样的技术支持回复后自己心想,看来这技术支持是靠不住的了,只能自己再想办法吧。
NAS里面有我几年的摄影RAW原片。。。。如果数据丢失了损失重大呀。。
上Google找了很久,网上没有找到有E14相关的错误,哎,google也没有资料,只能靠自己了。
幸好的是QVL已经破解了(我使用的是1.60 mod1的固件),可以SSH进去系统,而且自己是RHCE,很熟悉Linux的系统,QVL跑RAID5用的是Linux的软RAID,用fdisk -l是看不到RAID的分区的,只能看到物理硬盘的分区,而做了RAID后,会在Linux系统的/dev/下生成md0、md1、md10、md2等等,md1、1、10是系统和EM模式的一些盘,看容量可知道不是数据盘,而md2就是RAID5组成的数据盘,用mount命令查看了硬盘挂载到Linux文件系统的状态,发现只有md0是挂载的,md5没有被挂载,因此系统能启动,Web界面可以登陆,但是共享数据的空间就无法访问。
尝试手工用命令mount /dev/md2 /mnt/array1将RAID5的空间挂载起来,但是提示Input/output error.仍然无法挂载到系统。
回到Web界面,尝试了将这个RAID进行了一次磁盘检查,完成后问题依旧,又在Web界面尝试了将这个RAID进行了一次扫描,经过漫长的等待,大约10个小时,扫描终于完成了,期间在Linux里面用cat /proc/mdstat可以看到扫描的进度,另外用mdadm --detail /dev/md2也可以看到RAID的状态为clean, Recovering.扫描完后RAID的状态是clean。(这里比较奇怪的是其他几个分区,像md0,md1,md10用mdadm --detail来查看的话,状态里面都有一个clena, degraded的降级状态,不知为何。希望知道的朋友告诉我一下。)
可是完成扫描后再尝试重启QVL,依然闪红灯,依然无法手工挂载,忙乎了一天,都在放弃的边缘了,这时想到看看日志是否有什么有价值的东西,于是在linux上运行了dmesg,可以看到QVL在启动的时候的一系列动作,包括硬盘启动,阵列的加载到系统等等。
重点来了,dmesg日志里面,看到了md2这个RAID系统尝试了多次仍然无法挂载,然后系统就放弃了,其中有一些很有价值的错误信息,例如XFS: xlog_recover_process_data: bad clientid(还有其他的,当时没有保存dmesg的日志,所以就没有记录了)。
回想上面的情况,可以看到扫描RAID是没有发现任何错误的,用mdadm --detail查看md2的状态也是好的,证明这个软RAID5是正常的,结合上面dmesg的日志来看,可能是文件系统的错误才导致md2无法mount到系统中。
有了这些信息,马上在google查了上面的日志(XFS: xlog_recover_process_data: bad clientid),终于有发现了,我参考的是这个网页:http://marc.info/?l=linux-xfs&m=101463661723575&w=2
里面也提到了(XFS: xlog_recover_process_data: bad clientid)这个错误,然后里面说用一个命令xfs_repair修复文件系统的。
于是我就在QVL的linux系统里面尝试了xfs_repair命令,但是报了些错,具体忘记了,大概就是说文件系统有些错误,需要将文件系统挂载后删除某些东西后再用xfs_repair,如果无法挂载文件系统,加一个参数-L来运行这个xfs_repair命令。
我的环境里面是无法挂载文件系统的了,因此我运行了xfs_repair -L /dev/md2这个命令来修复xfs文件系统。
运行上面这个命令不需多少时间,大概就几分钟,过程中,报了一些inode的错误并且都修复了。看到曙光了。
上面的命令完成后,太阳升起了,通过mount命令,可以将/dev/md2挂载到linux系统中了,而且里面的数据还在,太好了。
但还是有点不放心,尝试重启了QVL,怀着忐忑的心情盯着power灯,在一段闪烁的蓝灯后,蓝灯终于长亮了{:3_53:} 。
赶紧访问里面的数据,没有发现有丢失了,Perfect。太好了。
网上没有这方面的经验共享,于是在这里详细描述了恢复方法,希望对使用QVL的朋友有帮助,但是当然希望都用不上这个,哈哈。数据安全就好。
至于为什么会导致xfs文件系统无法挂载,这个就不知道了,可能有空时翻一翻里面的日志会有帮助吧。。。感觉xfs还真实不靠谱呀。
重点:
1.系统破解,能用ssh或telnet登陆系统。
2.日志,日志,日志。日志非常重要。而且要学会看日志。
3.数据很重要,不要随便操作。。。。。。
4.需要有一定的IT基础,特别是Linux基础。 谢谢分享!说得很详细,把各个细节都描述清楚了! 谢谢分享!十分重要,收藏!! 哥们,你的LS-QVL的传输速度是多少呢? 同用qvl,同组raid5,留名,备用。 miladuo 发表于 2013-1-16 17:10 static/image/common/back.gif
哥们,你的LS-QVL的传输速度是多少呢?
1.60mod固件的时候可以有4XMB写8XMB读的,1.64mod固件速度就不稳定了。。。。2X-3X写,5X-6X读。。。郁闷。不过懒得折腾了。 Thinker! 发表于 2013-1-23 01:49 static/image/common/back.gif
1.60mod固件的时候可以有4XMB写8XMB读的,1.64mod固件速度就不稳定了。。。。2X-3X写,5X-6X读。。。郁闷 ...
你这都用的啥设备啊,我的才十二兆左右的速度,可设备全都是千兆的。
你用的啥路由? miladuo 发表于 2013-1-24 11:50 static/image/common/back.gif
你这都用的啥设备啊,我的才十二兆左右的速度,可设备全都是千兆的。
你用的啥路由? ...
我是qvl直连mac mini的。。。
MTU两边我都改成9000了。。不知道跟这个有没有关系。 这等玩意儿,还得人去伺候它,太累了 楼主说的太好了,我也用的lsqvl,多交流 路过学习 我的也是经常报错,赶紧回去试试 我的也是经常报错,赶紧回去试试 我的也是经常报错,赶紧回去试试 我的也是经常报错,赶紧回去试试 我的也是经常报错,赶紧回去试试 日非常感谢楼主的帖子·····
我用的是WVL
前段时间Disk2硬盘有坏道,复制到Disk1XFS的Supernode就挂掉了。
花了29刀买了个XFS数据恢复的软件恢复出来。
换了新盘复制进去,没过多久reboot后硬盘又TM的找不到了··· 复制了几次,有一两次硬盘能找到,数据不见了·····
真心不愿意用XFS soyg楼主利害
页:
[1]