How to remove the read failed after 0 of 4096 I/O error

from: https://freeshell.de/~jose/317/kludges/how-to-temove-the-read-failed-after-0-of-4096-io-error/

Recently in a very old server I had to remove a disk. My server was composed by two physical volumes: a RAID5 volume, shown as /dev/sda to the operating system by the SCSI controller, and a single hard disk as /dev/sdb.

My /dev/sdb, since there is no way to have a new disk with the same geometry, I decided to remove it.
The bios utility of my SCSI controller is quite strange and I cannot remove my une-disk logical volume without remove all the configuration.

root@arch:~# pvdisplay
  /dev/sdb: read failed after 0 of 4096 at 0: input/output Error
  /dev/sdb: read failed after 0 of 4096 at 146695716864: input/output Error
  /dev/sdb: read failed after 0 of 4096 at 146695774208: input/output Error
  /dev/sdb: read failed after 0 of 4096 at 4096: input/output Error
  — Physical volume —
  PV Name               /dev/sda1
  VG Name               vg_system
  PV Size               838,12 GiB / not usable 2,00 MiB
  Allocatable           yes
  PE Size               4,00 MiB
  Total PE              214559
  Free PE               21184
  Allocated PE          193375
  PV UUID               ZQQwAs-yGgP-LZXk-3cTy-yaOb-gijr-bnUCz4

So I’d better to leave my controller untouched and tell my linux CentOS to forget the /dev/sdb disk.

root@arch:~# echo 1 > /sys/block/sdb/device/delete

redhat lvm 管理员指南(中英对照版)[转]

来源:http://linux.chinaunix.net/bbs/thread-903080-1-1.html

**************************************************************************************
注 :该文章参考了如下内容 :

A)Red Hat LVM Administrator’s Guide

B)lvm-HOWTO

作者 :ailms

版本 :v1
**************************************************************************************

最近看到本版有很多关于 lvm 的问题,除了一些是涉及物理设备的故障外,大部分还是基础方面的问题。
这是我之前学习 LVM 时从 redhat 官方站点下载的手册,比起 LVM-HOWTO 详细很多。并用 CyberArticle 保存和编辑。
重要的部分会用绿色底色,翻译部分用蓝色 ,以 “注释” 开头。
同时也保留了当时学习时想到的一些问题(红色字体,以”问题”开头)
有一点需要注意,那些比较明显的段或者不重要的行我没有翻译,希望不会影响你的阅读
本来想把做过的实验结果(大约400页的 word 文档)也放上来,不过附件太大了,所以只好作罢。
btw :即使是 lvm guide ,也有很多细节问题没有提到。最重要的是要亲手做实验,会有很多意想不到的问题哦

转者注:
由于原作者生成的是.exe可执行文件,请各位下载后务必进行病毒扫描后打开。
点击下载

关于做了软raid或者LVM的启动故障(fstab丢失)解决

在进行系统修复的时候,通常都要进行chroot操作,这时候,如果fstab也丢失或者损坏的话

救援光盘就会找不到原来的系统,或者找到一个错误的系统

如果只是普通的文件系统,比如ext2,ext3之类,或者大家都知道怎么应付

其实也比较简单,进入救援模式的命令行之后,mount上原有的根分区,然后 建立新的,或者修改错误的fstab即可

做了LVM的其实也简单,只要一个命令,激活逻辑卷组,生成dev设备文件

lvm vgchange -a y

然后,只不过把平常大家熟悉的hda, hdb或者sda, sdb换成LVM的卷组与逻辑卷名即可

但是,如果是软raid的话,很多人可能无从下手,因为找不到可以mount的设备

如果直接mount/dev/mdX的话,会提示出错

其实在救援光盘中,是可以找到软raid信息的

但是我不清楚,为什么他不直接给挂上去

在救援模式下,我们在挂载软raid之前,只要用一个小命令

raidstart /dev/mdX

这样子,救援系统就可以重建你的软raid /dev/mdX 然后再跟以前一样mount上去就OK了