IBM Cloud에서 Vyatta을 이용 중이거나 제안중인 분들에게, 체크 해야 할 포인트를 알려드립니다.

Vyatta Gateway Appliance(VGA) 또는 Vyatta 6.x Subscription Edition on Bare Metal Server는 IBM Cloud Bluemix Infrastructure (구 SoftLayer)에서 방화벽 (영역 사이의 필터링)과 암호화 통신 (IPsec VPN) 및 캡슐화 통신 (GRE) 등 에 이용되는 소프트웨어 라우터입니다.
현재 제안 중 · 구축 된 환경에서, Vyatta을 이용되는 분은 꼭 아래의 Q & A를 읽어보십시오.

Q1 : 현재 Vyatta의 End of Support (EOS:지원중지)는 언제인가?

A : 기존 Vyatta은 vRouter 5400을 사용하고 있었습니다. vRoter 5400 개발사인 Brocade 사의 EOS는 2017년 8월로 예정되어 있습니다. IBM Cloud에서의 EOS는 반년 후 2018년 2월 20일 (예정)입니다.
또한 vRouter5400의 EOM이 9/1되었다고 8/1에 발표되었습니다. 이 EOM 이후 vRouter5400이다 Vyatta Gateway Appliance는 새로 주문할 수 없습니다.
http://knowledgelayer.softlayer.com/faqs/1493#7423 (영문)
http://www.brocade.com/en/support/product-end-of-life.html (영문)

Q2 : 현재 Vyatta (vRouter 5400)의 후속 제품은?

A : Virtual Router Appliance (VRA)입니다. vRouter5600를 기반으로 제공되지만 이제 vRouter 5600로 판매되는 AT&T 제품은 없습니다. 하지만 VRA의 기반이되는 vRouter5600 지원은 IBM과 AT&T의 유지 보수 계약에 따라 계속 제공되므로 vRouter5600 자체의 EOS에는 영향을 받지 않습니다. 
자세한 내용은 아래 링크를 참조하십시오.
https://knowledgelayer.softlayer.com/topic/virtual-router-appliance (영문)

Q3 : VRA되면 무엇이 좋아지나요?

A : vRouter 5400는 소프트웨어적인 처리를 많이 사용하고 있기 때문에, 10Gbps NIC의 성능을 살릴 수 없었습니다. VRA의 기반이 되는 vRouter5600는 새로운 암호화 기능과 DPDK 사용으로 인해서 대폭적인 성능 향상이 있습니다.
VGA에서 VRA로 변경했을 때의 구체적인 장점은 다음과 같습니다.

  • CPU 코어 당 처리량 향상
  • Advanced Encryption Standards(AES)에 따른 IPSec VPN 세션 처리량 향상 (최대 3배)
  • Routes, Flows 동시 연결 제한을 확장함
  • Layer2 터널링 프로토콜 Version 3 (L2TPv3) 인터넷 키 교환, Version 2 (IKEv2), Secure Hash Algorithm 2 (SHA-2) 및 802.1Q tunneling (Q-in-Q) 캡슐화 기능을 구현

자세한 내용은 아래 링크를 참조하십시오.
http://knowledgelayer.softlayer.com/procedure/what-improvements-does-brocade-vrouter-5600-have-over-vyatta-5400 (영문)
https://www.slideshare.net/brocade/brocade-vyatta-5600vrouterarchitectureag

Q4 vRouter 5400에서 VRA로 전환상의 주의점은?

A : vRouter 5400에서 사용했던 Customer Portal에서 VLAN Association / Bypass mode / Routed mode 등의 Vyatta Gateway Appliance가 제공하는 라우팅 구조 자체는 바뀌지 않습니다. 즉, 기존과 같은 DMZ 구성 및 VPN 구성을 할 수 있습니다. 
그러나 DPDK를 사용하고 및 기존 내부 아키텍처를 변경함에 따라 인터페이스의 변경 (예 : eth0 -> dp0s0, bond0 -> dp0bond0 등)이나 명령의 변경 (set firewall name xxxx -> set security firewall name xxxx)이 되었고, vRouter 5400 구성 스크립트를 그대로 VRA에서 사용할 수 없습니다. 
또한 Vyatta은 self managed 서비스 이므로, IBM에 의한 자동 전환은 지원 되지 않습니다. 
따라서 이전(migration)을 하기 전에 충분한 검토와 테스트 기간을 두는 것이 좋습니다. 
또한 이전에 따른주의 사항은 아래 "vRouter5400 (Vyatta Gateway Appliance)에서 vRouter5600 (Virtual Router Appliance)로 전환"을 참조하십시오.
(참고 자료)
vRouter5400 (Vyatta Gateway Appliance)에서 vRouter5600 (Virtual Router Appliance)로 전환 (1)
vRouter5400 (Vyatta Gateway Appliance)에서 vRouter5600 (Virtual Router Appliance)로 전환 (2) 

VYATTA 5400 TO VIRTUAL ROUTER APPLIANCE UPGRADE OPTIONS 
http://knowledgelayer.softlayer.com/procedure/learn-about-virtual-router-appliance-upgrade-options (영문)

Brocade 5600 vRouter Software Documentation Library 
http://www.brocade.com/content/html/en/technical-documentation-library/5600-vrouter-50r1-library/GUID-9F13C099-B7E0-4FF9-AC65-5B3CA911E05A-homepage.html (영문)
http://www.brocade.com/content/dam/common/documents/content-types/technical-documentation-library/brocade-5600-vrouter-doc-library-index.pdf (Index PDF)

Q5 : VRA는 어떻게 주문할 수 있나요?

A : 현재 다음의 데이터 센터에서 사용할 수 있습니다.
https://knowledgelayer.softlayer.com/faqs/1495#7461 (영문)

Q6 : VRA의 가격은 얼마인가요?

A : vRouter 5400 OS 라이선스 비용은 $219 이었지만, 

Virtual Router Appliance 5.x (up to 1Gbps) Subscription Edition (64 Bit) [$219.00]

Virtual Router Appliance 5.x (up to 20Gbps) Subscription Edition (64 Bit) [$399.00]


http://knowledgelayer.softlayer.com/faqs/1493#7423 (영문)

Q7 : Early Adapter Program의 알려진 문제점이 있나요?

A : 아래 링크를 참조하십시오. 
또한 현재 Early Adapter Program으로 vRouter5600을 이용하신 고객에 대해서는, OS 다시로드를 사용하여 2017 / 8 / 31까지 vRouter5600에서 VRA 전환을 실시합니다.
http://knowledgelayer.softlayer.com/procedure/please-note-following-about-brocade-vrouter-5600-eap (영문)

Q8 : 현재 구축 된 시스템은 VRA에 언제 이행해야 하나요?

A : 마이그레이션을 위해 충분한 준비 기간이있는 것이 바람직합니다. 따라서 vRouter5400의 EOS 3개월 전인 2017년 11월 이전에 검토를 시작하십시오. EOS를 맞이해도 이용자의 책임으로 계속 작동 할 수 있지만, 보수의 관점에서 EOS의 시기를 목표로 VRA로 전환 할 것을 권장합니다.

믿거나... 말거나...


AWS : KT 목동센터 , SKB 일산센터, 롯데정보통신/현대정보기술 용인센터

Azure : 평촌메가센터 (LGU+ IDC), LG CNS ; LG CNS 부산 글로벌 클라우드데이터센터

IBM Cloud Bluemix : 판교 SK C&C 데이터 센터

KT : KT 목동센터, 천안, 김해

CentOS7 HA Cluster 구축 하기

* 요구사항

 - 두대의 Private IP를 가진 서버, 별개의 VIP를 통한 Failover 구성

 - 상기 두개의 서버에서 1개의 공유 스토리지 사용 : Block Storage, GFS2, 100GB/1000IOPS (성능은 맞추어서)

* 아키텍처


* HA 구성을 위한 리소스 구매

- Linux Server 2대 신청 : CentOS 7.x - Minimal Install (64 bit)

==>  svr01.mungi.com  10.178.80.44

==>  svr02.mungi.com  10.178.80.45


- Performance Storage 100GB/1000IOPS 신청

==>  대상 주소 :161.26.102.18

==>  허용서버 추가 (2대)

==>  svr01

   사용자명: IBM01SU1040169-V36035181

   패스워드: Sm99G8pgxSlfH3EG

   호스트 IQN: iqn.2005-05.com.softlayer:IBM01SU1040169-V36035181

==>  svr02

   사용자명: IBM01SU1040169-V29352927

   패스워드: EZlHmrKzNgexS9ar

   호스트 IQN: iqn.2005-05.com.softlayer:IBM01SU1040169-V29352927


- VIP 사용을 위한 Portable Private IP 신청 

==>  10.178.5.230


* iSCSI연결

yum install -y iscsi-initiator-utils device-mapper-multipath


touch /etc/multipath.conf


systemctl start multipathd

systemctl enable multipathd


cp /etc/iscsi/initiatorname.iscsi{,.orig}

vi /etc/iscsi/initiatorname.iscsi #=> CloudZ포털에서 확인한 HOST IQN 값으로 변경


cp /etc/iscsi/iscsid.conf{,.orig}

vi /etc/iscsi/iscsid.conf  #=> 아래 항목을 주석 해제 및 CloudZ 포털에서 확인한 값으로 변경

    node.session.auth.authmethod = CHAP

    node.session.auth.username = "Username-value-from-SL-Portal"

    node.session.auth.password = "Password-value-from-SL-Portal"

    discovery.sendtargets.auth.authmethod = CHAP

    discovery.sendtargets.auth.username = "Username-value-from-SL-Portal"

    discovery.sendtargets.auth.password = "Password-value-from-SL-Portal"


systemctl enable iscsi

systemctl enable iscsid

systemctl start iscsi

systemctl start iscsid

systemctl status iscsid #=> active (running) 인지 확인


iscsiadm -m discovery -t sendtargets -p "161.26.102.18" #=> CloudZ 포털에서 확인한 IP 값으로 변경


iscsiadm -m node -L automatic


multipath -l #=> 아래 처럼 보여야 함



* Cluster 구성

/etc/hosts에 상대 정보 추가

10.178.80.44  svr01.mungi.com svr01

10.178.80.45  svr02.mungi.com svr02


==> VIP

yum install -y corosync pacemaker pcs resource-agents


systemctl start pcsd

systemctl enable pcsd

systemctl enable corosync

systemctl enable pacemaker


passwd hacluster                   #자동생성된 hacluster유저의 패스워드 설정


# --> 여기서 부터는 한쪽에서만 해도 됨.

pcs cluster auth svr01          #인증 계정 적용

pcs cluster auth svr02


# MyCluster 이름의 클러스터를 생성

#해당 클러스터엔 svr01 svr02 두대의 서버가 포함

#데이터 전송은 UDP통신을 사용하도록 설정

pcs cluster setup --start --name MyCluster svr01 svr02 --transport udpu


pcs property set stonith-enabled=false


pcs cluster start --all


pcs status #옵션 정상 구성확인, 계속볼려면 crm_mon



* VIP 클러스터 리소스 설정, Portable Private IP 사용

pcs resource create SVC_VIP IPaddr2 ip=10.178.77.230 cidr_netmask=32 nic=eth0:1 op monitor interval=5s  #사용할 VIP로 설정, 퍼블릭이면 eth1:1



* 스토리지 클러스터 리소스 설정

iscsiadm -m session  #각서버에서 세션 맺어진 것 확인


yum install -y fence-agents-scsi  gfs2-utils  lvm2-cluster


# multipath -l dev id 확인후 3600a098038303743372b4966496d724d 변경

pcs stonith create SCSI-STONITH fence_scsi devices=/dev/mapper/3600a098038303743372b4966496d724d pcmk_monitor_action=metadata  pcmk_reboot_action=off pcmk_host_list="svr01 svr02" meta provides=unfencing


pcs property set stonith-enabled=true

pcs property set no-quorum-policy=ignore

pcs property set default-resource-stickiness=100


#볼륨 매니저 설정

lvmconf --enable-cluster


pcs cluster cib dlm_cfg

pcs -f dlm_cfg resource create dlm ocf:pacemaker:controld op monitor interval=120s on-fail=fence clone interleave=true ordered=true

pcs -f dlm_cfg resource create clvmd ocf:heartbeat:clvm op monitor interval=120s on-fail=fence clone interleave=true ordered=true

pcs -f dlm_cfg constraint order start dlm-clone then clvmd-clone

pcs -f dlm_cfg constraint colocation add clvmd-clone with dlm-clone

pcs -f dlm_cfg property set no-quorum-policy=freeze


pcs -f dlm_cfg constraint

pcs -f dlm_cfg resource show

pcs cluster cib-push dlm_cfg


#디스크 파티션 구성 및 포맷

fdisk /dev/mapper/3600a098038303743372b4966496d724d

  n -> primary -> 계속 엔터, t -> 8e

partprobe /dev/mapper/3600a098038303743372b4966496d724d

pvcreate -ff /dev/mapper/3600a098038303743372b4966496d724d

vgcreate --clustered=y vg_cluster /dev/mapper/3600a098038303743372b4966496d724d


lvcreate -l 100%FREE --name lv_storage vg_cluster

mkfs.gfs2 -j2 -t MyCluster:DataDisk -p lock_dlm /dev/vg_cluster/lv_storage


# 디스크 마운트

mkdir -p /DataDisk  #디렉토리 생성은 양쪽 서버에 수행

pcs resource create ClusterFS Filesystem device="/dev/vg_cluster/lv_storage" directory="/DataDisk" fstype="gfs2" "options=noatime" op monitor interval=10s on-fail=fence clone interleave=true



+ Recent posts