728x90
반응형

문 서 명 : Redhat Linux LVM 관리

문 서 버 전 : Ver_1.0

문 서 구 분 :  Manual  □ Summary

작 성 일 : 2016 04 19

작 성 자 : 우리들의 삶

테 스 트 환 경 : Redhat Entprise Linux 6.7

출 처 : 본인


본 문서는 Redhat계열 Linux6 버전에서 LVM관리에 대한 내용을 기술한다.

  1. 개요 




물리디스크(PP)를 PV(Phisycal Volume)로 변환하고, PV 단수, 혹은 복수를 VG(Volume Group)로 만들게 되면
일정한 크기의 PE가 만들어진다.(디스크 섹터와 비슷한 개념)

그리고 VG의 일부 공간 혹은 전체를 LV(Logical Volume)으로 할당하게 되면, 할당 받은 공간만큼 LE(디스크 섹터와 비슷한 개념)가 만들어 진다.

  1. 디스크 확인
[root@hsy-test ~]# fdisk -l

Disk /dev/sda: 17.2 GB, 17179869184 bytes
64 heads, 32 sectors/track, 16384 cylinders
Units = cylinders of 2048 * 512 = 1048576 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000e305e

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           2         501      512000   83  Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2             502       16384    16264192   8e  Linux LVM
Partition 2 does not end on cylinder boundary.

Disk /dev/mapper/vg_hsytest-lv_root: 14.9 GB, 14935916544 bytes
255 heads, 63 sectors/track, 1815 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000


Disk /dev/mapper/vg_hsytest-lv_swap: 1715 MB, 1715470336 bytes
255 heads, 63 sectors/track, 208 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000


Disk /dev/sdb: 1073 MB, 1073741824 bytes
34 heads, 61 sectors/track, 1011 cylinders
Units = cylinders of 2074 * 512 = 1061888 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000


  1. PV 만들기
[root@hsy-test ~]# pvcreate /dev/sdb   <-- PV(Phisycal Volume) 생성 명령어

[root@hsy-test ~]# pvs  <-- PV 리스트 확인, # pvdisplay  명령을 통해서도 확인 가능
  PV         VG         Fmt  Attr PSize  PFree
  /dev/sda2  vg_hsytest lvm2 a--  15.51g    0
  /dev/sdb              lvm2 ---   1.00g 1.00g  <-- 물리디스크 /dev/sdb 가  LVM2버전으로 PV 전환되었음을 알 수 있다.



  1. VG 만들기

[root@hsy-test ~]# vgcreate vg_raw /dev/sdb  <-- VG(Volume Group) 생성 명령어, 만약 여러개의 PV를 묶어 Pool 처럼 만들고자 할 때에는 띄어쓰기하여 디스크 장치를 명시해준다.
  Volume group "vg_raw" successfully created

[root@hsy-test ~]# vgs  <-- VG 리스트 확인 # vgdisplay 명령을 통해서도 확인 가능
  VG         #PV #LV #SN Attr   VSize    VFree   
  vg_hsytest   1   2   0 wz--n-   15.51g       0
  vg_raw       1   0   0 wz--n- 1020.00m 1020.00m


  1. LV 만들기

[root@hsy-test ~]# lvcreate -n dev1G1 -L 100M vg_raw
  Logical volume "dev1G1" created.
TIP : 
-n : LV Name을 지정
-L : LV Size를 지정
vg_raw : LV가 속할 VG를 명시

[root@hsy-test ~]# lvs  <- LV 리스트 확인, # lvscan 혹은 # lvdisplay 명령으로도 확인 가능
  LV      VG         Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  lv_root vg_hsytest -wi-ao----  13.91g                                                   
  lv_swap vg_hsytest -wi-ao----   1.60g                                                   
  dev1G1  vg_raw     -wi-a----- 100.00m

[root@hsy-test ~]# ls -al /dev/vg_raw/dev1G1  <-- 해당 위치를 mkfs 명령을 통해 포맷하여 mount 하면 된다.
lrwxrwxrwx. 1 root root 7 2016-04-18 11:03 /dev/vg_raw/dev1G1 -> ../dm-2

tip : /dev/VG_name/LV_name



  1. LV 여러개를 만들어야 될 때
#!/bin/sh
index=1

while [ ${index} -le 42 ];do
 lvcreate -n dev10G${index} -L 10G vg_raw
 index=$((index + 1))
done

tip : 
index변수 : 총 몇개의 LV를 생성할 것인지를 정의하는 변수로 초기 값은 1을 가진다.
while 조건문 : -le 의 뜻은 '크거나 같다' 의 의미이며, 위 명령은 '$index 가 42가 될 때까지 조건이 참' 이란 뜻이다.
lvcreat : 'dev10G${index}' 는 LV 이름을 의미한다 즉 이 경우 LV는 'dev10G1 ~ dev10G42' 까지 생성된다.
             '-L 10G'  는 LV의 크기를 의미

             'vg_raw' 는 LV가 속한 VG(volume group)를 명시


728x90
반응형
728x90
반응형

문 서 명 : Redhat Linux RAW Device 관리

문 서 버 전 : Ver_1.0

문 서 구 분 :  Manual  □ Summary

작 성 일 : 2016 04 19

작 성 자 : 우리들의 삶

테 스 트 환 경 : Redhat Entprise Linux 6.7

출 처 : 본인


LVM을 통해 디스크를 LV(Logical Volume)형태로 생성한 경우 아래와 같이 RAW Device로 변환하여,
볼륨을 사용할 수 있다.

본 문서에는 두 가지 방법을 소개하는데, RAW Device가 소수일 때와 다수일 때 작업하는 방법에 대해 소개한다.

목록 
  1. RAW Device가 단수일 때
  2. RAW Device가 복수일 때
  3. RAW Device <-> LV mapping 정보 확인



  1. RAW Device가 단수일 때

[root@hsy-test ~]# raw /dev/raw/raw1 /dev/vg_raw/dev1G1  <-- raw 명령어를 통해 LV를 RAW Device로 변환한다.
/dev/raw/raw1:  bound to major 253, minor 2
tip : 
RAW Device는 반드시 /dev/raw/rawN 형식으로 작성되어야 한다.
# raw /dev/raw/rawN /dev/VG_Name/LV_Name  <- 이러한 구문으로 명령을 작성해야 한다.


[root@hsy-test ~]# raw -qa  <- 설정된 raw device 정보를 확인
/dev/raw/raw1:  bound to major 253, minor 2


[root@hsy-test ~]# cat /etc/udev/rules.d/60-raw.rules
# Enter raw device bindings here.
#
# An example would be:
#   ACTION=="add", KERNEL=="sda", RUN+="/bin/raw /dev/raw/raw1 %N"
# to bind /dev/raw/raw1 to /dev/sda, or
#   ACTION=="add", ENV{MAJOR}=="8", ENV{MINOR}=="1", RUN+="/bin/raw /dev/raw/raw2 %M %m"
# to bind /dev/raw/raw2 to the device with major 8, minor 1.

ACTION=="add", ENV{MAJOR}=="253", ENV{MINOR}=="2", RUN+="/bin/raw /dev/raw/raw1 %M %m"  <-- 구문 추가
# LV의 MAJOR 번호와 MINOR 번호를 raw1로 정의함으로 써 재부팅 후에도 같은 LV가 같은 RAW Device로 생성된다.

ACTION=="add",KERNEL=="raw*" OWNER="5009872",GROUP="5009872",MODE="660"  <-- 구문 추가
# 생성된 RAW Device의 Owner, Group, permission 을 정의 한다.
[root@hsy-test ~]#


[root@hsy-test ~]# start_udev  <- udev 서비스를 시작
Starting udev: [  OK  ]
[root@hsy-test ~]#

[root@hsy-test ~]# raw -qa | cut -d ":" -f 1 | xargs -i{} ls -l {}  <-- # raw -qa 명령은 RAW Device를 확인하는 명령이다.
crw-rw---- 1 5009872 5009872 162, 1 Apr 18 11:21 /dev/raw/raw1
[root@hsy-test ~]#


  1. RAW Device 가 복수 일 때

마찬가지로 볼륨을 LV까지 만든 다음 아래와 같이 /etc/udev/rules.d/60-raw-rules 파일을 수정 한다.

[root@hsy-test ~]# cat /etc/udev/rules.d/60-raw.rules
# Enter raw device bindings here.
#
# An example would be:
#   ACTION=="add", KERNEL=="sda", RUN+="/bin/raw /dev/raw/raw1 %N"
# to bind /dev/raw/raw1 to /dev/sda, or
#   ACTION=="add", ENV{MAJOR}=="8", ENV{MINOR}=="1", RUN+="/bin/raw /dev/raw/raw2 %M %m"
# to bind /dev/raw/raw2 to the device with major 8, minor 1.

ACTION!="add|change". GOTO="raw_end"   <- 아래 구문들의 'ACTION' "raw_end" 을 정의한다.
# Create raw character device mapping:
ENV{DM_VG_NAME}=="vg_test1", ENV{DM_LV_NAME}=="lv_test1", RUN+="/bin/raw /dev/raw/raw2 %N"
ENV{DM_VG_NAME}=="vg_test2", ENV{DM_LV_NAME}=="lv_test2", RUN+="/bin/raw /dev/raw/raw3 %N"
# VG_NAME, LV_NAME을 /dev/raw/rawN 으로 정의한다.

KERNEL=="raw*" OWNER="5009872",GROUP="5009872",MODE="660"
# 모든 RAW Device의 Owner, Group, permission 을 변경한다.

LABEL="raw_end"  <- 'ACTION' "raw_end" 을 마친다.


[root@hsy-test ~]# start_udev  <- udev 서비스를 시작
Starting udev: [  OK  ]
[root@hsy-test ~]#




  1. RAW Device <-> LV mapping 정보 확인

# raw -qa  <- RAW Device의 major number, minor number 확인
/dev/raw/raw1: bound to major 253, minor 8
/dev/raw/raw2: bound to major 253, minor 9

# lvs -o +lv_kernel_major,lv_kernel_minor   <- LV의 mager number, minor number 확인
LV VG Attr LSize Pool Origin Data% Move Log Cpy%Sync Convert KMaj KMin
lv_test1 vg_test -wi-a----- 2.00g 253 8
lv_test2 vg_test -wi-a----- 2.00g 253 9




728x90
반응형
728x90
반응형

문 서 명 : Redhat Linux LVM으로 LV생성 스크립트

문 서 버 전 : Ver_1.0

문 서 구 분 :  Manual  Summary

작 성 일 : 2016 04 18

작 성 자 : 우리들의 삶

테 스 트 환 경 : Redhat ENT 6.7

출 처 : 



LV를 동시에 여러개를 만들 상황이 생기는데 이때 아래 명령을 응용해서 작업한다면 보다 쉽게 할 수 있을 것이다.

#!/bin/sh
index=1

while [ ${index} -le 42 ];do
 lvcreate -n dev10G${index} -L 10G vg_raw
 index=$((index + 1))
done

tip : 
index변수 : 총 몇개의 LV를 생성할 것인지를 정의하는 변수로 초기 값은 1을 가진다.
while 조건문 : -le 의 뜻은 '크거나 같다' 의 의미이며, 위 명령은 '$index 가 42가 될 때까지 조건이 참' 이란 뜻이다.
lvcreat : 'dev10G${index}' 는 LV 이름을 의미한다 즉 이 경우 LV는 'dev10G1 ~ dev10G42' 까지 생성된다.
             '-L 10G'  는 LV의 크기를 의미

             'vg_raw' 는 LV가 속한 VG(volume group)를 명시


728x90
반응형
728x90
반응형

문 서 명 : Netbackup Master, 서비스 재기동

문 서 버 전 : Ver_1.0

문 서 구 분 :  Manual  □ Summary

작 성 일 : 2016 05 10

작 성 자 : 우리들의 삶

테 스 트 환 경 : Solaris 10, Netbackup 7.0

출 처 : 본인


본 문서는 Unix 계열 OS에 설치된 Netbackup master 서비스를 재기동 하는 내용을 포함한다.


순서 
1. Netbackup process 확인
2. Netbackup process 종료
3. Netbackup process 확인
4. Netbackup process 시작
5. Netbackup process 확인


netbackup:/usr/openv/netbackup/bin>bpps -a    <- Netbackup master server 프로세스 확인
NB Processes
------------
    root 18577 18576   0 14:30:40 ?           0:00 /usr/openv/netbackup/bin/nbproxy dblib nbjm
    root 18565     1   0 14:30:38 ?           0:02 /usr/openv/netbackup/bin/nbpem
    root 18514     1   0 14:30:31 ?           0:13 /usr/openv/db/bin/NB_dbsrv @/usr/openv/var/global/server.conf @/usr/openv/var/g
    root 18569 18565   0 14:30:39 ?           0:00 sh -c "/usr/openv/netbackup/bin/nbproxy" dblib nbpem
    root 18692 18586   1 14:31:02 ?           0:01 /usr/openv/netbackup/bin/admincmd/bpstsinfo -DPSPROXY
    root 18575     1   0 14:30:40 ?           0:00 /usr/openv/netbackup/bin/nbstserv
    root 18633     1   0 14:30:47 ?           0:00 /usr/openv/netbackup/bin/nbvault
    root 18557     1   0 14:30:36 ?           0:00 /usr/openv/netbackup/bin/bpdbm
    root 18558 18557   6 14:30:36 ?           0:16 /usr/openv/netbackup/bin/bpjobd
    root 18552     1   0 14:30:36 ?           0:00 /usr/openv/netbackup/bin/bpcompatd
    root 18716 18565   0 14:31:13 ?           0:00 sh -c "/usr/openv/netbackup/bin/nbproxy" dblib nbpem_cleanup
    root 18570 18569   1 14:30:39 ?           0:02 /usr/openv/netbackup/bin/nbproxy dblib nbpem
    root 18624     1   0 14:30:46 ?           0:00 /usr/openv/netbackup/bin/nbsl
    root 18529     1   0 14:30:34 ?           0:01 /usr/openv/netbackup/bin/nbrb
    root 18642     1   0 14:30:48 ?           0:00 /usr/openv/netbackup/bin/nbsvcmon
    root 18563     1   0 14:30:37 ?           0:00 /usr/openv/netbackup/bin/nbjm
    root 18586     1   0 14:30:41 ?           0:01 /usr/openv/netbackup/bin/nbrmms
    root 18576 18563   0 14:30:40 ?           0:00 sh -c "/usr/openv/netbackup/bin/nbproxy" dblib nbjm
    root 18524     1   0 14:30:34 ?           0:05 /usr/openv/netbackup/bin/nbemm
    root 18705 18704   1 14:31:12 ?           0:00 /usr/openv/netbackup/bin/nbproxy dblib nbpem_email
    root 18544     1   0 14:30:36 ?           0:00 /usr/openv/netbackup/bin/bprd
    root 18717 18716   1 14:31:13 ?           0:00 /usr/openv/netbackup/bin/nbproxy dblib nbpem_cleanup
    root 18519     1   0 14:30:33 ?           0:00 /usr/openv/netbackup/bin/nbevtmgr
    root 18704 18565   0 14:31:12 ?           0:00 sh -c "/usr/openv/netbackup/bin/nbproxy" dblib nbpem_email


MM Processes
------------
    root 18608 18533   0 14:30:43 ?           0:00 avrd
    root 18621     1   0 14:30:45 ?           0:00 tldcd
    root 18542     1   0 14:30:35 ?           0:00 vmd
    root 18616 18542   0 14:30:44 ?           0:00 rdevmi -sockfd 9 -p 50 -r
    root 18533     1   0 14:30:35 ?           0:00 /usr/openv/volmgr/bin/ltid
    root 18581 18533   0 14:30:41 ?           0:00 tldd
netbackup:/usr/openv/netbackup/bin>




netbackup:/usr/openv/netbackup/bin>bp.kill_all  <- Netbackup master server 프로세스 종료

Looking for NetBackup processes that need to be terminated.
Stopping nbsvcmon...
Stopping nbvault...
Stopping nbsl...
Stopping nbrmms...
Stopping nbstserv...
Stopping nbpem...
Stopping nbjm...
Stopping nbproxy...
Suspending or cancelling selective jobs...
Stopping bprd...
Stopping bpcompatd...
Stopping bpdbm...

Looking for Media Manager processes that need to be terminated.
Stopping ltid...
Stopping vmd...


Stopping nbrb...
Stopping nbemm...
Stopping nbevtmgr...

Looking for VxDBMS processes that need to be terminated.
Stopping VxDBMS database server ...
netbackup:/usr/openv/netbackup/bin>



netbackup:/usr/openv/netbackup/bin>bpps -a    <- Netbackup master server 프로세스 확인
NB Processes
------------


MM Processes
------------



netbackup:/usr/openv/netbackup/bin>bp.start_all   <- Netbackup master server 서비스 기동
Starting VxDBMS database server...
Starting nbevtmgr...
Starting nbemm...
Starting nbrb...
Starting ltid...
Starting bprd...
Starting bpcompatd...
Starting nbjm...
Starting nbpem...
Starting nbstserv...
Starting nbrmms...
Starting nbkms...
Starting nbsl...
Starting nbvault...
Starting nbsvcmon...
Starting nbftclnt...
netbackup:/usr/openv/netbackup/bin>


netbackup:/usr/openv/netbackup/bin>bpps -a    <- Netbackup master server 프로세스 확인
NB Processes
------------
    root 18577 18576   0 14:30:40 ?           0:00 /usr/openv/netbackup/bin/nbproxy dblib nbjm
    root 18565     1   0 14:30:38 ?           0:02 /usr/openv/netbackup/bin/nbpem
    root 18514     1   0 14:30:31 ?           0:13 /usr/openv/db/bin/NB_dbsrv @/usr/openv/var/global/server.conf @/usr/openv/var/g
    root 18569 18565   0 14:30:39 ?           0:00 sh -c "/usr/openv/netbackup/bin/nbproxy" dblib nbpem
    root 18692 18586   1 14:31:02 ?           0:01 /usr/openv/netbackup/bin/admincmd/bpstsinfo -DPSPROXY
    root 18575     1   0 14:30:40 ?           0:00 /usr/openv/netbackup/bin/nbstserv
    root 18633     1   0 14:30:47 ?           0:00 /usr/openv/netbackup/bin/nbvault
    root 18557     1   0 14:30:36 ?           0:00 /usr/openv/netbackup/bin/bpdbm
    root 18558 18557   6 14:30:36 ?           0:16 /usr/openv/netbackup/bin/bpjobd
    root 18552     1   0 14:30:36 ?           0:00 /usr/openv/netbackup/bin/bpcompatd
    root 18716 18565   0 14:31:13 ?           0:00 sh -c "/usr/openv/netbackup/bin/nbproxy" dblib nbpem_cleanup
    root 18570 18569   1 14:30:39 ?           0:02 /usr/openv/netbackup/bin/nbproxy dblib nbpem
    root 18624     1   0 14:30:46 ?           0:00 /usr/openv/netbackup/bin/nbsl
    root 18529     1   0 14:30:34 ?           0:01 /usr/openv/netbackup/bin/nbrb
    root 18642     1   0 14:30:48 ?           0:00 /usr/openv/netbackup/bin/nbsvcmon
    root 18563     1   0 14:30:37 ?           0:00 /usr/openv/netbackup/bin/nbjm
    root 18586     1   0 14:30:41 ?           0:01 /usr/openv/netbackup/bin/nbrmms
    root 18576 18563   0 14:30:40 ?           0:00 sh -c "/usr/openv/netbackup/bin/nbproxy" dblib nbjm
    root 18524     1   0 14:30:34 ?           0:05 /usr/openv/netbackup/bin/nbemm
    root 18705 18704   1 14:31:12 ?           0:00 /usr/openv/netbackup/bin/nbproxy dblib nbpem_email
    root 18544     1   0 14:30:36 ?           0:00 /usr/openv/netbackup/bin/bprd
    root 18717 18716   1 14:31:13 ?           0:00 /usr/openv/netbackup/bin/nbproxy dblib nbpem_cleanup
    root 18519     1   0 14:30:33 ?           0:00 /usr/openv/netbackup/bin/nbevtmgr
    root 18704 18565   0 14:31:12 ?           0:00 sh -c "/usr/openv/netbackup/bin/nbproxy" dblib nbpem_email


MM Processes
------------
    root 18608 18533   0 14:30:43 ?           0:00 avrd
    root 18621     1   0 14:30:45 ?           0:00 tldcd
    root 18542     1   0 14:30:35 ?           0:00 vmd
    root 18616 18542   0 14:30:44 ?           0:00 rdevmi -sockfd 9 -p 50 -r
    root 18533     1   0 14:30:35 ?           0:00 /usr/openv/volmgr/bin/ltid
    root 18581 18533   0 14:30:41 ?           0:00 tldd
netbackup:/usr/openv/netbackup/bin>




728x90
반응형
728x90
반응형

문 서 명 : Linux CPU Core Disable manual

문 서 버 전 : Ver_1.0

문 서 구 분 :  Manual  □ Summary

작 성 일 : 2016 05 18

작 성 자 : 우리들의 삶

테 스 트 환 경 : RHEL 6.7

출 처 :  본인


해당 문서는 RHEL 6.7으로 Test 하였으며, RHEL 4, 5, 6 version에서 적용되는 것으로 보이며, S/W License issue 로 core 갯 수를 조정하고자 할 때 가이드 하면 될 것이다.

본 문서는 "임시로 core 갯수 조정" 하는 방법과 "영구적으로 core 갯수 조정" 하는 방법을 포함한다.



1. 임시로 core 갯수 조정(재부팅 없이 조정할 수 있으나, 재부팅 후 원래대로 돌아옴)

# CPU 확인
[root@hostname ~]# cat /sys/devices/system/cpu/online
0-23
[root@hostname ~]# cat /sys/devices/system/cpu/offline
24-31



[root@hostname ~]# cd /sys/devices/system/cpu/
[root@hostname cpu]# ls -al
합계 0
drwxr-xr-x 28 root root    0 2016-04-11 09:19 .
drwxr-xr-x 14 root root    0 2016-04-11 09:19 ..
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu0
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu1
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu10
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu11
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu12
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu13
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu14
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu15
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu16
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu17
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu18
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu19
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu2
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu20
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu21
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu22
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu23
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu3
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu4
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu5
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu6
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu7
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu8
drwxr-xr-x  8 root root    0 2016-04-11 09:20 cpu9
drwxr-xr-x  3 root root    0 2016-05-18 10:59 cpufreq
drwxr-xr-x  2 root root    0 2016-05-18 10:59 cpuidle
-r--r--r--  1 root root 4096 2016-04-12 00:00 kernel_max
-r--r--r--  1 root root 4096 2016-05-18 10:59 offline
-r--r--r--  1 root root 4096 2016-04-11 09:19 online
-r--r--r--  1 root root 4096 2016-04-12 00:00 possible
-r--r--r--  1 root root 4096 2016-04-12 00:00 present
-rw-r--r--  1 root root 4096 2016-04-11 09:20 sched_mc_power_savings
-rw-r--r--  1 root root 4096 2016-04-11 09:20 sched_smt_power_savings
[root@hostname cpu]#



[root@hostname cpu]# lscpu
Architecture:          x86_64
CPU op-mode(s):        32-bit, 64-bit
Byte Order:            Little Endian
CPU(s):                24
On-line CPU(s) list:   0-23
Thread(s) per core:    2
Core(s) per socket:    6
Socket(s):             2
NUMA node(s):          2
Vendor ID:             GenuineIntel
CPU family:            6
Model:                 44
Stepping:              2
CPU MHz:               1600.000
BogoMIPS:              6664.09
Virtualization:        VT-x
L1d cache:             32K
L1i cache:             32K
L2 cache:              256K
L3 cache:              12288K
NUMA node0 CPU(s):     0,2,4,6,8,10,12,14,16,18,20,22
NUMA node1 CPU(s):     1,3,5,7,9,11,13,15,17,19,21,23
[root@bnpsvrdev01 cpu]#



[root@hostname cpu]# grep "processor" /proc/cpuinfo
processor       : 0
processor       : 1
processor       : 2
processor       : 3
processor       : 4
processor       : 5
processor       : 6
processor       : 7
processor       : 8
processor       : 9
processor       : 10
processor       : 11
processor       : 12
processor       : 13
processor       : 14
processor       : 15
processor       : 16
processor       : 17
processor       : 18
processor       : 19
processor       : 20
processor       : 21
processor       : 22
processor       : 23



임시로 CPU Core 갯 수 조정
[root@hostname cpu]# echo 0 > /sys/devices/system/cpu/cpu23/online
[root@hostname cpu]# echo 0 > /sys/devices/system/cpu/cpu22/online

혹은

[root@hostname ~]# chcpu -d 23
CPU 23 disabled
[root@hostname ~]# chcpu -d 22
CPU 22 disabled

* 두 명령어 모두 /sys/devices/system/cpu/cpu23/online 이라는 ASSCI TEXT 파일의 내용을  1 에서 0 으로 변경함으로
   CPU Core 상태를 Offline 으로 변경한다.


영구적으로 CPU Core 갯 수 조정

[root@hostname ~]# cat /etc/grub.conf
# grub.conf generated by anaconda
#
# Note that you do not have to rerun grub after making changes to this file
# NOTICE:  You have a /boot partition.  This means that
#          all kernel and initrd paths are relative to /boot/, eg.
#          root (hd0,0)
#          kernel /vmlinuz-version ro root=/dev/mapper/vg_bnp-LogVol00
#          initrd /initrd-[generic-]version.img
#boot=/dev/sda
default=0
timeout=5
splashimage=(hd0,0)/grub/splash.xpm.gz
hiddenmenu
title Red Hat Enterprise Linux 6 (2.6.32-573.el6.x86_64)
        root (hd0,0)
        kernel /vmlinuz-2.6.32-573.el6.x86_64 ro root=/dev/mapper/vg_bnp-LogVol00 rd_NO_LUKS LANG=ko_KR.UTF-8 rd_NO_MD rd_LVM_LV=vg_bnp/LogVol00 crashkernel=128M  KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=vg_bnp/LogVol02 rd_NO_DM rhgb quiet maxcpus=8
        initrd /initramfs-2.6.32-573.el6.x86_64.img
[root@bnpsvrdev01 ~]#


* /etc/grub.conf 설정파일에서 kernel 부분에 maxcpus=N 구문을 삽입하여 부팅 시 변경하게끔 조정한다.
  이 방법은 최초 1회 재부팅이 필요하다.




728x90
반응형
728x90
반응형

문 서 명 : Windows SID 값 변경 Guide

문 서 버 전 : Ver_1.0

문 서 구 분 :  Manual  □ Summary

작 성 일 : 2016 05 13

작 성 자 : 우리들의 삶

테 스 트 환 경 : Windows Server 2012 R2 STD / VMware Guest OS

출 처 : 



본 문서는 Windows계열 OS의 SID(고유 값)을 변경 방법을 기술한 문서로, Hard disk 복제 혹은 VMware 상의 복제 기능 등을 통해 Windows SID 값이 같아질 경우 아래와 같은 방법을 통해 변경해 줄 수 있다.

** 주의 : 아래 작업을 수행하면 다음과 같은 증상이 발생한다. 
1. C:\ 를 제외한 다른 드라이브 오프라인으로 변경
2. Administrator 계정명을 변경 했을 경우 원복
3. computer name 변경
4. 네트워크 설정 초기화

글쓴이가 파악한 것만 위에 명시하였고 추가로 더 영향 받을거라 생각된다. 
SID를 변경하려면 최초 OS가 설치된 직후에 하는 것이 좋을것 같다.


작업 방법

명령
설명
비고
cmd -> whoami /user
SID 확인

실행 -> sysprep
sysprep 명령 실행

sysprep -> 일반화 체크
sysprep 파일 실행

재부팅


cmd -> whoami /user
변경된 SID 확인













728x90
반응형
728x90
반응형

문 서 명 : LV 상태가 inactive 상태일 때

문 서 버 전 : Ver_1.0

문 서 구 분 :  Manual  Summary

작 성 일 : 2016 06 17

작 성 자 : 우리들의 삶

테 스 트 환 경 : RHEL 6.7

출 처 : 


LVM으로 구성한 파일시스템 중 Storage에 연결되어 있고, Multipath로 구성한 경우 재부팅 후 간혹가다 LV 상태가 inactive로 되어 

filesystem mount가 안되는 경우가 발생한다. 

이럴 때 해결방법으로 다음과 같이 설명한다.


보통 LVM으로 구성하게 되면, PV -> VG -> LV 생성 과정을 거쳐 만들게 되는데, 간혹 재부팅 이후 등의 이유로 
정상 경로(/dev/VG_name/LV_name)이 보이지 않을 때에는 아래와 같이 조치한다.


[root@hostname .script]# lvscan

  ACTIVE            '/dev/vg_hostname/lv_home' [34.31 GiB] inherit

  ACTIVE            '/dev/vg_hostname/lv_root' [29.53 GiB] inherit

  ACTIVE            '/dev/vg_hostname/lv_swap' [4.00 GiB] inherit

  inactive          '/dev/datavg/data_lv' [199.00 GiB] inherit

 

# lvm vgchange -a y datavg

LV가 속해있는 VG 상태를 변경한다.


728x90
반응형
728x90
반응형

문 서 명 : spamsniper 기동/종료

문 서 버 전 : Ver_1.0

문 서 구 분 :  Manual  □ Summary

작 성 일 : 2016 08 09

작 성 자 : 우리들의 삶

테 스 트 환 경 : spamsniper, CentOS 4.8

참고로 스팸 스나이퍼가 뭔지 모르는 분들이 있을 수 있는데, 
스팸 스나이퍼는 간략하게 설명하면, Exchange, Domino 등 메일서버 앞단 DMZ Zone에서 외부 메일을 SMTP Protocol 로 전달 받아, 바이러스가 있는지,
차단 패턴에 걸리는 것이 있는지, 차단 설정된 도메인인지 등을 확인 한 뒤 이상이 없으면 Server Zone에 있는 메일서버에 전달하게 되는 메일세계의 방화벽 같은 놈이다!! 

헉헉헉헉....... 힘드네..




본 문서는 CentOS 등 Linux 환경에 설치되어 있는 spamsniper 서비스를 기동/종료/확인 하는 절차에 대해 알아 본다.

본 문서는 어디까지나 참고용이지, 각 사이트별 환경에 어떻게 설정되어 있는지는 모르므로, 정확한 내용은 벤더사 담당엔지니어에게 조언을 얻는다.

개요 : 
1. spamsniper 종료
2. spamsniper 기동
3. spamsniper 확인



1. spamsniper 종료

1) root 권한으로 접속

2)서비스중지
#/sniper/init.d/spamsvc stop  <-- /etc/init.d/ 디렉터리에도 link file로 존재하여 바로 shutdown 하여도 무방하다.

3)시스템 종료
#shutdown h now


2. spamsniper 기동

1) 시스템 기동 (init.d 에 등록되어 있어서 자동으로 프로세스가 기동됨)


3. spmasniper 확인

Smtp 프로세스
#ps -ef | grep smtp
graphic
재시작 방법 : /sniper/init.d/snipe  restart


DB프로세스
#ps -ef | grep mysql (1개 이상 프로세스가 동작 중이면 정상)
graphic
재시작 방법 : /sniper/init.d/mysqld  stop 후 start


로그작성프로세스
#ps -ef | grep log_broker (아래 그림처럼 프로세스 1개 동작 중이면 정상
graphic
재시작 방법 : /sniper/init.d/log_brokerd  stop  후 start


웹 프로세스
#ps -ef | grep httpd (1개 이상 동작 중이면 정상)
graphic
재시작 방법 : /sniper/init.d/httpd  stop 후 start


시스템매니지먼트 프로세스
#ps ef | grep sysmng (아래 그림처럼 1개의 프로세스 동작중이면 정상 )
graphic
재시작 방법 : /sniper/init.d/sysmngctl stop 후 start


RPD엔진 프로세스
#ps ef | grep ctasd  (1개 이상의 프로세스 동작중이면 정상)
graphic
재시작 방법 : /sniper/init.d/ctchd stop 후 start


바이러스 프로세스 확인
#ps ef | grep virus (아래와 같이 프로세스가 동작 중이면 정상)
graphic
재시작 방법 : /sniper/init.d/sophosd stop 후 start


전체서비스 재시작
#/sniper/init.d/spamsvc stopstart









728x90
반응형
728x90
반응형

문 서 명 : System volume information 삭제 방법

문 서 버 전 : Ver_1.0

문 서 구 분 :  Manual  □ Summary

작 성 일 : 2016 08 09

작 성 자 : 우리들의 삶

테 스 트 환 경 : Windows server 2012 R2 



본 문서는 system volume information 폴더 내 파일을 삭제하는 방법을 가이드 한다.



System Volume Information(SVI) :
Windows 복원기능에 사용되는 snapshor(system restore point)t의 파일들인데, 보통은 사이즈가 파일시스템에 영향을 주지 않는 선에서 존재하지만, 
일부의 경우 비정상적으로 커지기도 한다.

관련서비스는 "Volume Shadow Copy", " Distributed Link Tracking Service" 서비스를 사용하며, Windows 에서 복원기능을 설정하지 않더라도,
Netbackup 이나 SSR 등의 솔루션에서 VSS(Volume shadow copy service)를 사용하면 해당 폴더가 비대해 질 수 있다.

Windows 7, 8, 10은 컴퓨터 속성 탭에서 복원 사이즈를 지정할 수 있지만, Server 제품군은 "vssadmin" 명령을 통해 지정해야 하는듯 하다. 자세한 내용은 아래에 설명하겠다.


다음에서 제시하는 방법은 정확하게 말하면 삭제가 아닌, Disk quota setting 을 함으로서 궁극적으로 파일 사이즈를 줄이는 방법에 대해 소개한다.


1. Windows PowerShell 실행 (administrator 권한)

2. vssadmin list shadowstorage  <- 섀도 복사본을 사용하는 파일들을 출력한다.

3. vssadmin resize shadowstorage /on=[drive letter]: /For=[drive letter]: /MaxSize=[maximum size]  <- shadow 용량을 재정의 한다.
     예를들어 "e:\system volume information" 폴더의 사이즈를 줄이고자 할 때
     vssadmin resize shadowstorage /on=e: /for=e: /maxsize=2GB
     


4. wbadmin delete systemstatebackup -keepversions:0  <- 기존 백업포인트 파일 삭제
     


728x90
반응형
728x90
반응형

이전 글에서 iperf 툴을 통한 지점과 지점간 네트워크 대역폭 확인하는 방업에 대해 기술하여서 

http://woorilife.tistory.com/49


이번에는 대역폭이 너무 낮게 나와서 네트워크 장애를 의심할 때 제일 먼저 확인해야 되는 부분을 포스팅 해볼께요..





KN6503A#sh interfaces counters errors

 

        

Port      Single-Col Multi-Col  Late-Col Excess-Col Carri-Sen     Runts    Giants

Gi2/6              0         0         0          0         0         0         0

Gi2/7              0         0         0          0         0         0         0

Gi2/8              0         0         0          0         0         0         0

Gi2/9              0         0         0          0         0         0         0

Gi2/10             0         0         0          0         0         0         0

Gi2/11             0         0         0          0         0         0         0

Gi2/12             0         0         0          0         0         0         0

Gi2/13             0         0         0          0         0         0         0

Gi2/14             0         0         0          0         0         0         0

Gi2/15             0         0         0          0         0         0         0

Gi2/16             0         0         0          0         0         0         0

Gi2/17             0         0         0          0         0         0         0

Gi2/18             0         0         0          0         0         0         0

Gi2/19             0         0         0          0         0         0         0

Gi2/20             0         0         0          0         0         0         0

Gi2/21             0         0         0          0         0         0         0

Gi2/22             0         0         0          0         0         0         0

Gi2/23             0         0         0          0         0         0         0

Gi2/24             0         0         0          0         0         0         0

Gi2/25             0         0         0          0         0         0         0

Gi2/26             0         0         0          0         0         0         0

Gi2/27             0         0         0          0         0         0         0

Gi2/28             0         0         0          0         0         0         0

Gi2/29             0         0         0          0         0         0         0

Gi2/30             0         0         0          0         0         0         0

Gi2/31             0         0         0          0         0         0         0

Gi2/32             0         0         0          0         0         0         0

Gi2/33             0         0         0          0         0         0         0

Gi2/34             0         0         0          0         0         0         0

Gi2/35             0         0         0          0         0         0         0

Gi2/36             0         0         0          0         0         0         0

Gi2/37             0         0         0          0         0         0         0

Gi2/38             0         0         0          0         0         0         0

Gi2/39             0         0         0          0         0         0         0

Gi2/40             0         0         0          0         0         0         0

Gi2/41             0         0         0          0         0         0         0

Gi2/42             0         0         0          0         0         0         0

Gi2/43             0         0         0          0         0         0         0

Gi2/44             0         0         0          0         0         0         0

Gi2/45             0         0         0          0         0         0         0

Gi2/46             0         0         0          0         0         0         0

Gi2/47             0         0         0          0         0         0         0

Gi2/48             0         0         0          0         0         0         0

Gi3/1              0         0         0          0         0         0         0

Gi3/2              0         0         0          0         0         0         0

Gi3/3              0         0         0          0         0         0         0

Gi3/4              0         0         0          0         0         0         0

Gi3/5              0         0         0          0         0         0         0

Gi3/6              0         0         0          0         0         0         0

Gi3/7              0         0         0          0         0         0         0

Gi3/8              0         0         0          0         0         0         0

Gi3/9              0         0         0          0         0         0         0

Gi3/10             0         0         0          0         0         0         0

Gi3/11        188218    204128   1442611          0         0         0         0

Gi3/12             0         0         0          0         0         0         0

      

 


** Col은 Collision 의 약자이며, 해당 탭에 숫자가 카운트되어 있으면, 해당 포트는 문제가 있는 포트이다.



KN6503A#sh interfaces gi3/11

GigabitEthernet3/11 is up, line protocol is up (connected)

  Hardware is C6k 1000Mb 802.3, address is 001a.a296.be3a (bia 001a.a296.be3a)

  MTU 1500 bytes, BW 100000 Kbit, DLY 10 usec,

     reliability 245/255, txload 1/255, rxload 1/255

  Encapsulation ARPA, loopback not set

  Keepalive set (10 sec)

  Half-duplex, 100Mb/s

  input flow-control is off, output flow-control is off

  Clock mode is auto

  ARP type: ARPA, ARP Timeout 04:00:00

  Last input 00:00:44, output 00:00:35, output hang never

  Last clearing of "show interface" counters never

  Input queue: 0/2000/0/0 (size/max/drops/flushes); Total output drops: 0

  Queueing strategy: fifo

  Output queue: 0/40 (size/max)

  30 second input rate 26000 bits/sec, 30 packets/sec

  30 second output rate 309000 bits/sec, 40 packets/sec

     28834875 packets input, 7576467969 bytes, 0 no buffer

     Received 351823 broadcasts (165583 multicasts)

     0 runts, 0 giants, 0 throttles

     0 input errors, 0 CRC, 0 frame, 0 overrun, 0 ignored

     0 watchdog, 0 multicast, 0 pause input

     0 input packets with dribble condition detected

     36165753 packets output, 26956756353 bytes, 0 underruns

     1442719 output errors, 392356 collisions, 3 interface resets

     0 babbles, 1442719 late collision, 0 deferred

     0 lost carrier, 0 no carrier, 0 PAUSE output

     0 output buffer failures, 0 output buffers swapped out

KN6503A#



** 문제가 발생한 원인은 다음으로 압축해 볼 수 있고, 하나씩 차례대로 접근해가면서 해결하여야 합니다.


1. L1 문제로 몰리적으로 케이블 어딘가가 찍혀있거나, 등의 문제

2. 네트워크 장비에서는 100 Half, 서버쪽에서는 100 Full 로 Duplex 가 서로 맞지 않아서

3. 위와 비슷한 문제로 MTU가 상호간 맞지 않아서 

728x90
반응형

+ Recent posts