4. Install Grid Infrastructure

   

1) Clone the VM from Storage Cell

Stocell1 복제 진행

   

이름 지정 & 모든 네트워크 카드의 Mac 초기화

   

완전한 복제 진행

 

   

네트워크 및 Disk 구성 수정

-stocell1에서 내부 네트워크 추가진행

   

-stocell1에서 Disk 제거(25GB 기본 공간을 제외한 500MB, 400MB Disk 연결 삭제 후 OS Disk 제거)

   

[OS start]

   

Cell Disk 제거

[root@stocell1 oracle]# rpm -evv cell-11.2.3.2.1_LINUX.X64_130109-1

[root@stocell1 ~]# rm -rf /opt/oracle/cell*

   

Network 제거 및 재구성

-eth0.bak, eth1.bak 제거 진행

   

   

virbr0 Link encap:Ethernet HWaddr 00:00:00:00:00:00

inet addr:192.168.122.1 Bcast:192.168.122.255 Mask:255.255.255.0

UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1

RX packets:0 errors:0 dropped:0 overruns:0 frame:0

TX packets:19 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:0

RX bytes:0 (0.0 b) TX bytes:3583 (3.4 KiB)

   

OVM으로 OS를 설치하면 기본적으로 할당되는 IP 대역을 사용하여 내부 네트워크 구성

   

[root@exadb1 ~]# cat /etc/hosts

# Do not remove the following line, or various programs

# that require network functionality will fail.

127.0.0.1 localhost.localdomain localhost

::1 localhost6.localdomain6 localhost6

   

#InfiniBand IPs

192.168.56.102 stocell1 stocell1.exatest

#192.168.10.21 stocell2 stocell2.exatest -- Cell Disk를 2개를 사용할 경우

192.168.122.10 exadb1-ib exadb1-ib.exatest

#Public IPs

   

192.168.56.101 exadb1 exadb1.exatest

192.168.56.130 exadb1-vip exadb1-vip.exatest

192.168.56.100 exadb-cluster-scan exadb-cluster-scan.exatest

   

[root@stocell1 ~]# vi /etc/sysconfig/network

NETWORKING=yes

NETWORKING_IPV6=yes

HOSTNAME=exadb1

   

2) Install Grid Infrastructure

   

Grid 설치 파일 준비

-p13390677_112040_Linux-x86-64_3of7.zip

[/home/grid/setup]

[root@exadb1 ~]# unzip p13390677_112040_Linux-x86-64_3of7.zip

   

Cell disk user 제거

[root@exadb1 ~]# userdel celladmin

[root@exadb1 ~]# userdel cellmonitor

   

OS 환경 변수 추가 수정

[root@exadb1 ~]# cat /etc/sysctl.conf

   

fs.aio-max-nr = 1048576

fs.file-max = 6815744

kernel.shmall = 2097152

kernel.shmmax = 1375207424

kernel.shmmni = 4096

kernel.sem = 250 32000 100 128

net.ipv4.ip_local_port_range = 9000 65500

   

   

net.core.rmem_default=262144

net.core.rmem_max=4194304

net.core.wmem_default=262144

net.core.wmem_max=2097152

   

--해당 설정 값 중요.

   

[root@exadb1 ~]# sysctl -p

[root@exadb1 ~]# cat /etc/security/limits.conf

grid soft nofile 131072

grid hard nofile 131072

grid soft nproc 131072

grid hard nproc 131072

grid soft core unlimited

grid hard core unlimited

grid soft memlock 50000000

grid hard memlock 50000000

   

   

oracle soft nproc 2047

oracle hard nproc 16384

oracle soft nofile 1024

oracle hard nofile 65536

   

Group 및 User 생성

[root@exadb1 ~]# groupadd oper

[root@exadb1 ~]# groupadd dba

[root@exadb1 ~]# groupadd oinstall

[root@exadb1 ~]# groupadd asmadmin

[root@exadb1 ~]# useradd -g oinstall -G dba,oper,asmadmin grid

   

Cell Disk와 DB Instance 간에 네트워크 설정

[root@exadb1 ~]# mkdir -p /etc/oracle/cell/network-config

   

[root@exadb1 ~]# vi /etc/oracle/cell/network-config/cellinit.ora

ipaddress1 = 192.168.56.101/24 #InfiniBand IP/network of exadb1

   

[root@exadb1 ~]# vi /etc/oracle/cell/network-config/cellip.ora

cell = "192.168.56.102" #InfiniBand IP of stocell1

   

#cell = "192.168.56.103"    #InfiniBand IP of stocell2 -- DISK 확장 가능

   

[권한 할당]

[root@exadb1 ~]# chown -R grid:oinstall /etc/oracle/cell/network-config

[root@exadb1 ~]# chmod -R 775 /etc/oracle/cell/network-config

   

NTP 설정

[root@exadb1 ~]#vi /etc/sysconfig/ntpd

# Drop root to id 'ntp:ntp' by default.

OPTIONS="-x -u ntp:ntp -p /var/run/ntpd.pid" (-x 추가)

   

#Set to 'yes' to sync hw clock after successful ntpdate

   

SYNC_HWCLOCK=no

NTPDATE_OPTIONS="-t 10″

chkconfig ntpd on

service ntpd start

   

Grid Infrastructure 설치

-설치 진행 전 Disk 연결 상태 확인(설치파일 unzip 이후 사용가능)

[root@exadb1 bin]# export LD_LIBRARY_PATH=/home/grid/setup/grid/stage/ext/lib

[root@exadb1 bin]# ./kfod disks=all op=disks (/tmp/OraInstall2015-08-17_04-34-05PM/ext/bin/kfod)

------------------------------------------------------------------------- -------

Disk Size Path User Group

=====================================================================

1: 448 Mb o/192.168.56.102/DATA_CD_DISK01_stocell1 <unknown> <unknown>

2: 448 Mb o/192.168.56.102/DATA_CD_DISK02_stocell1 <unknown> <unknown>

3: 448 Mb o/192.168.56.102/DATA_CD_DISK03_stocell1 <unknown> <unknown>

4: 448 Mb o/192.168.56.102/DATA_CD_DISK04_stocell1 <unknown> <unknown>

5: 448 Mb o/192.168.56.102/DATA_CD_DISK05_stocell1 <unknown> <unknown>

6: 448 Mb o/192.168.56.102/DATA_CD_DISK06_stocell1 <unknown> <unknown>

7: 448 Mb o/192.168.56.102/DATA_CD_DISK07_stocell1 <unknown> <unknown>

8: 448 Mb o/192.168.56.102/DATA_CD_DISK08_stocell1 <unknown> <unknown>

9: 448 Mb o/192.168.56.102/DATA_CD_DISK09_stocell1 <unknown> <unknown>

10: 448 Mb o/192.168.56.102/DATA_CD_DISK10_stocell1 <unknown> <unknown>

11: 448 Mb o/192.168.56.102/DATA_CD_DISK11_stocell1 <unknown> <unknown>

12: 448 Mb o/192.168.56.102/DATA_CD_DISK12_stocell1 <unknown> <unknown>

[root@exadb1 bin]#

   

-Local에서 진행할 경우, xhost +를 활용하여 설치 진행

[root@stocell1 media]# xhost +

[root@stocell1 media]# su – grid

[grid@stocell1 grid]$ ./runInstaller

   

-xmanager를 통하여 진행할 경우, passive mode를 수행한 뒤에

[grid@exadb1 ~]$ export DISPLAY=192.168.56.1:0.0

[grid@stocell1 grid]$ ./runInstaller

   

   

   

   

-Install and Configure Oracle Grid Infrastucture for a Cluster 선택

   

   

-Advanced Installation 선택

   

   

- /etc/hosts 설정에서 scan ip 설정 중요

   

   

-ssh connectivity를 선택하여 Setup 진행(Grid, Oracle)

   

   

-Public과 Private의 IP 대역대가 달라야 한다.

   

   

-Oracle ASM 선택

   

   

-disk 그룹이 안보일 경우에 change discovery Path에서 o/*/* 로 검색 (AU Size 4MB, External로 선택)

1. Normal

- 2-way mirroring, 2배의 디스크가 필요 (실제 데이터가 저장되는 공간이 100G면, 100G 디스크 2개가 필요)

   

2. High

- 3-way mirroring, 3배의 디스크 필요

   

3. External

- ASM mirroring 기능 사용하지 않음, Hardware RAID 기능으로 디스크를 보호하고 있을 경우에만 사용하길 권장

   

   

   

   

-선택 없이 Next 진행

   

   

   

   

-해당 Check 내역에 나오는 RPM 및 설정을 모두 설정해준다.

-단 Task resolv.conf lntegrity는 무시하고 진행해도 된다.

   

-root.sh까지 수행하면 Grid 구성은 완료된다.

[root@exadb1 ~]# /home/grid/app/oraInventory/orainstRoot.sh

Changing permissions of /home/grid/app/oraInventory.

Adding read,write permissions for group.

Removing read,write,execute permissions for world.

   

Changing groupname of /home/grid/app/oraInventory to oinstall.

The execution of the script is complete.

   

[root@exadb1 ~]# /home/grid/11.2.0/grid/root.sh

Performing root user operation for Oracle 11g

   

The following environment variables are set as:

ORACLE_OWNER= grid

ORACLE_HOME= /home/grid/11.2.0/grid

   

Enter the full pathname of the local bin directory: [/usr/local/bin]:

Copying dbhome to /usr/local/bin ...

Copying oraenv to /usr/local/bin ...

Copying coraenv to /usr/local/bin ...

   

   

Creating /etc/oratab file...

Entries will be added to the /etc/oratab file as needed by

Database Configuration Assistant when a database is created

Finished running generic part of root script.

Now product-specific root actions will be performed.

Using configuration parameter file: /home/grid/11.2.0/grid/crs/install/crsconfig_params

Creating trace directory

User ignored Prerequisites during installation

Installing Trace File Analyzer

OLR initialization - successful

root wallet

root wallet cert

root cert export

peer wallet

profile reader wallet

pa wallet

peer wallet keys

pa wallet keys

peer cert request

pa cert request

peer cert

pa cert

peer root cert TP

profile reader root cert TP

pa root cert TP

peer pa cert TP

pa peer cert TP

profile reader pa cert TP

profile reader peer cert TP

peer user cert

pa user cert

Adding Clusterware entries to inittab

CRS-2672: Attempting to start 'ora.mdnsd' on 'exadb1'

CRS-2676: Start of 'ora.mdnsd' on 'exadb1' succeeded

CRS-2672: Attempting to start 'ora.gpnpd' on 'exadb1'

CRS-2676: Start of 'ora.gpnpd' on 'exadb1' succeeded

CRS-2672: Attempting to start 'ora.cssdmonitor' on 'exadb1'

CRS-2672: Attempting to start 'ora.gipcd' on 'exadb1'

CRS-2676: Start of 'ora.gipcd' on 'exadb1' succeeded

CRS-2676: Start of 'ora.cssdmonitor' on 'exadb1' succeeded

CRS-2672: Attempting to start 'ora.cssd' on 'exadb1'

CRS-2672: Attempting to start 'ora.diskmon' on 'exadb1'

CRS-2676: Start of 'ora.diskmon' on 'exadb1' succeeded

CRS-2676: Start of 'ora.cssd' on 'exadb1' succeeded

   

ASM created and started successfully.

   

Disk Group MGMT created successfully.

   

clscfg: -install mode specified

Successfully accumulated necessary OCR keys.

Creating OCR keys for user 'root', privgrp 'root'..

Operation successful.

CRS-4256: Updating the profile

Successful addition of voting disk 2d929fc5b7f24fd6bfc418ae56169886.

Successfully replaced voting disk group with +MGMT.

CRS-4256: Updating the profile

CRS-4266: Voting file(s) successfully replaced

## STATE File Universal Id File Name Disk group

-- ----- ----------------- --------- ---------

1. ONLINE 2d929fc5b7f24fd6bfc418ae56169886 (o/192.168.56.102/DATA_CD_DISK01_stocell1) [MGMT]

Located 1 voting disk(s).

CRS-2672: Attempting to start 'ora.asm' on 'exadb1'

CRS-2676: Start of 'ora.asm' on 'exadb1' succeeded

CRS-2672: Attempting to start 'ora.MGMT.dg' on 'exadb1'

CRS-2676: Start of 'ora.MGMT.dg' on 'exadb1' succeeded

Configure Oracle Grid Infrastructure for a Cluster ... succeeded

[root@exadb1 ~]#

   

   

-위 에러는 무시하고 진행을 완료 한다. (해당 에러에 대한 상세 로그를 확인해보면 좋다)

   

Grid 구성 확인

[Cell Disk alert log 확인]

Tue Aug 18 20:31:42 2015

Heartbeat with diskmon started on exadb1

Tue Aug 18 20:31:49 2015

Resilvering incompatible ASM instance (exadb1, pid: 15062) connected. Any griddisks with resilvering tables will be dropped and recreated.

Tue Aug 18 20:32:39 2015

Heartbeat with diskmon stopped on exadb1

   

[Grid 확인]

[grid@exadb1 bin]$ ./crsctl stat res -t

--------------------------------------------------------------------------------

NAME TARGET STATE SERVER STATE_DETAILS

--------------------------------------------------------------------------------

Local Resources

--------------------------------------------------------------------------------

ora.LISTENER.lsnr

ONLINE ONLINE exadb1

ora.MGMT.dg

ONLINE ONLINE exadb1

ora.asm

ONLINE ONLINE exadb1 Started

ora.gsd

OFFLINE OFFLINE exadb1

ora.net1.network

ONLINE ONLINE exadb1

ora.ons

ONLINE ONLINE exadb1

ora.registry.acfs

ONLINE ONLINE exadb1

--------------------------------------------------------------------------------

Cluster Resources

--------------------------------------------------------------------------------

ora.LISTENER_SCAN1.lsnr

1 ONLINE ONLINE exadb1

ora.cvu

1 ONLINE ONLINE exadb1

ora.exadb1.vip

1 ONLINE ONLINE exadb1

ora.oc4j

1 ONLINE ONLINE exadb1

ora.scan1.vip

1 ONLINE ONLINE exadb1

[grid@exadb1 bin]$

  

   

구성 시 에러 발생 내역

2015-08-18 20:28:56.305:

[/home/grid/11.2.0/grid/bin/oraagent.bin(13738)]CRS-5019:All OCR locations are on ASM disk groups [MGMT], and none of these disk groups are mounted. Details are at "(:CLSN00100:)" in "/home/grid/11.2.0/grid/log/exadb1/agent/ohasd/oraagent_grid/oraagent_grid.log".

2015-08-18 20:28:57.349:

[/home/grid/11.2.0/grid/bin/oraagent.bin(13738)]CRS-5019:All OCR locations are on ASM disk groups [MGMT], and none of these disk groups are mounted. Details are at "(:CLSN00100:)" in "/home/grid/11.2.0/grid/log/exadb1/agent/ohasd/oraagent_grid/oraagent_grid.log".

   

--Root.sh를 수행할 때 CRS Alert log에서 위 에러가 계속해서 발생되면서 다음 Step으로 진행되지 않을 경우에 /etc/sysctl.con의 설정 값이 정확하게 되었는지 확인

   

[참고 문서 및 사이트]

   


블로그 이미지

운명을바꾸는자

IT와 함께 살아가는 삶

,


3. Storage Cell disk

  • Stocell1의 환경 구성을 기반으로 계속해서 진행한다. (CPU 2개, Memory 2Gb, Network 이더넷1,2 구성)

       

1) Install Oracle Linux 5

  • Oracle Linux 5 설치 파일 (V40139-01.iso) 준비해야 하며 다른 버전으로 할 경우에 이슈가 있을 수 있어 되도록이면 Linux 5버전을 추천한다.
  • 게스트 확장 설치를 할 경우에 진행에 있어 설치 파일 이관 및 공유폴더 설정 등 편리한 점이 많다.(하지만 RHEL5의 경우에게스트 확장설치를 할 경우에 OS가 깨지는 현상이 있어 게스트 확장 설치를 하지 않고 진행해도 이상 없다.)

       

[root@stocell1 media]# cd VBOXADDITIONS_4.3.30_101610/

/media/VBOXADDITIONS_4.3.30_101610

[root@stocell1 VBOXADDITIONS_4.3.30_101610]# ls

32Bit autorun.sh runasroot.sh VBoxWindowsAdditions-amd64.exe

64Bit cert VBoxLinuxAdditions.run VBoxWindowsAdditions.exe

AUTORUN.INF OS2 VBoxSolarisAdditions.pkg VBoxWindowsAdditions-x86.exe

[root@stocell1 VBOXADDITIONS_4.3.30_101610]#

[root@stocell1 VBOXADDITIONS_4.3.30_101610]# ./VBoxLinuxAdditions.run

   

OVM 새로 만들기

-OVM 이름 & Oracle Linux 64bit로 설치 진행

   

-파일 설치 위치 및 파일 크기 지정(25GB를 권장, 그 이상으로 할당하면 된다.)

-OVM 만들기 선택

   

ISO 설치 파일 추가

   

Oracle Linux 5 설치

-따로 설정할 것은 없고 아래 세부 설정에서만 선택하면 된다.

-Next를 계속 진행해서 설치를 진행하면 된다.

   

-Software Development

-Virtualization

-Clustering

-Storage Clustering

   

   

-설치가 완료 되면 추가 설정을 진행하게 되는데 여기에서 바오하벽과 SELinux를 모두 비활성화로 진행한다.

   

-설치 완료

   

Network 설정 확인

-DHCP로 자동 할당 받아서 사용

-무선 와이파이로 인터넷을 사용.(192.168.0.* 대역)

   

   

-eth1의 경우에는 VirtualBox Host-Only Ethernet Adapter를 통해서 IP를 할당 받음

-192.168.56.* 대역을 사용

   

   

[root@stocell1 ~]# cat /etc/hosts

# Do not remove the following line, or various programs

# that require network functionality will fail.

127.0.0.1 stocell1 localhost.localdomain localhost

::1 localhost6.localdomain6 localhost6

[root@stocell1 VBOXADDITIONS_4.3.30_101610]# ifconfig -a

eth0 Link encap:Ethernet HWaddr 08:00:27:4A:70:23

inet addr:192.168.0.14 Bcast:192.168.0.255 Mask:255.255.255.0

inet6 addr: fe80::a00:27ff:fe4a:7023/64 Scope:Link

UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1

RX packets:20133 errors:0 dropped:0 overruns:0 frame:0

TX packets:37 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:0

RX bytes:1263813 (1.2 MiB) TX bytes:10165 (9.9 KiB)

   

eth1 Link encap:Ethernet HWaddr 08:00:27:C2:28:D1

inet addr:192.168.56.102 Bcast:192.168.56.255 Mask:255.255.255.0

inet6 addr: fe80::a00:27ff:fec2:28d1/64 Scope:Link

UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1

RX packets:338 errors:0 dropped:0 overruns:0 frame:0

TX packets:275 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:1000

RX bytes:35142 (34.3 KiB) TX bytes:37744 (36.8 KiB)

   

lo Link encap:Local Loopback

inet addr:127.0.0.1 Mask:255.0.0.0

inet6 addr: ::1/128 Scope:Host

UP LOOPBACK RUNNING MTU:16436 Metric:1

RX packets:9865 errors:0 dropped:0 overruns:0 frame:0

TX packets:9865 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:0

RX bytes:8315266 (7.9 MiB) TX bytes:8315266 (7.9 MiB)

   

   

불필요한 기능을 Stop

-해당 내역 때문에 OVM이 느려지는 현상이 발생될 수 있으므로 정지 시켜둔다.

[root@stocell1 ~]# service yum-updatesd stop

[root@stocell1 ~]# chkconfig yum-updatesd off

   

2) Install Storage cell S/W

-설치 파일을 전송할 때, 공유폴더에 넣어서도 가능하고 FTP로 전송해서 진행해도 된다.

   

설치 파일 전송

-Oracle Database Machine Exadata Storage Cell 설치 파일 (V36290-01.zip) 설치 파일을 OVM에 넣어준다.

   

알집 풀기

[root@stocell1 ~]# unzip V36290-01.zip

[root@stocell1 ~]# cd dl180/boot/cellbits/

-rwxrwx— 1 root root 245231205 Jan  9  2013 cell.bin

해당 파일을 Copy 해서 다른 공간에 unzip을 해도 된다.

   

[root@stocell1 ~]# unzip cell.bin

Archive:  cell.bin

warning [cell.bin]:  6408 extra bytes at beginning or within zipfile

(attempting to process anyway)

inflating: cell-11.2.3.2.1_LINUX.X64_130109-1.x86_64.rpm

inflating: jdk-1_5_0_15-linux-amd64.rpm

Install jdk

[root@stocell1 ~]# rpm -ivh jdk-1_5_0_15-linux-amd64.rpm

Preparing…                ########################################### [100%]

1:jdk                    ########################################### [100%]

Preparing to install cell rpm (thanks to Lee ..)

   

[권한 설정]

[root@stocell1 ~]# mkdir /var/log/oracle

[root@stocell1 ~]# chmod 775 /var/log/oracle

(It will be used also by celladmin user …)

Install cell sw

[root@stocell1 ~]# rpm -ivh cell-11.2.3.2.1_LINUX.X64_130109-1.x86_64.rpm

Preparing…                ########################################### [100%]

Pre Installation steps in progress …

1:cell                   ########################################### [100%]

Post Installation steps in progress …

Set cellusers group for /opt/oracle/cell11.2.3.2.1_LINUX.X64_130109/cellsrv/deploy/log directory

Set 775 permissions for /opt/oracle/cell11.2.3.2.1_LINUX.X64_130109/cellsrv/deploy/log directory

/

/

   

Installation SUCCESSFUL.

   

-RPM 설치 시에 사전에 필요한 RPM이 있을 수 있어 필요한 RPM은 yum으로 설치하고 진행 하면 된다.

-RPM 2개를 설치하면 끝난다.

   

   

3) Add Virtual Disks

Disk 추가(새 디스크 만들기)

   

   

   

   

-500MB 12개 추가(stocell_disk1~12), 400MB 6개 추가(fd_stocell_disk1~6) 진행

   

4) Start Storage cell S/W

-Disk 추가 이후에 Stocell1 OVM Start 진행

-로그인시에 아래와 같은 에러가 발생하면 export DISPLAY=:0 를 추가해 재 로그인 하면 된다.

[root@stocell1]# vi /etc/bashrc

…..

export DISPLAY=:0

   

-해당 내역을 추가하고 다시 로그인을 진행하면 된다.

   

OS 환경 변수 추가

/etc/sysctl.ctl

   

fs.file-max = 65536

/etc/security/limit.conf 

   

* soft nofile 65536

* hard nofile 65536

   

[root@stocell1 ~]# modprobe rds

[root@stocell1 ~]# modprobe rds_tcp

[root@stocell1 ~]# modprobe rds_rdma

[root@stocell1 ~]# vi /etc/modprobe.d/rds.conf

install rds /sbin/modprobe --ignore-install rds && /sbin/modprobe rds_tcp && /sbin/modprobe rds_rdma

[해당 내역을 삽입]

[설정 확인]

[root@stocell1 ~]# lsmod | grep rds

rds_rdma 106561 0

rds_tcp 48097 0

rds 155561 2 rds_rdma,rds_tcp

rdma_cm 73429 2 rds_rdma,ib_iser

ib_core 108097 7 rds_rdma,ib_iser,rdma_cm,ib_cm,iw_cm,ib_sa,ib_mad

   

Cell disk 추가 및 설정

-500MB 12개, 400MB 6개 Disk 내역 확인

[root@stocell1 ~]# fdisk -l 2>/dev/null |grep "B,"

Disk /dev/sda: 26.8 GB, 26843545600 bytes

Disk /dev/sdb: 524 MB, 524288000 bytes

Disk /dev/sdc: 524 MB, 524288000 bytes

Disk /dev/sdd: 524 MB, 524288000 bytes

Disk /dev/sde: 524 MB, 524288000 bytes

Disk /dev/sdf: 524 MB, 524288000 bytes

Disk /dev/sdg: 524 MB, 524288000 bytes

Disk /dev/sdh: 524 MB, 524288000 bytes

Disk /dev/sdi: 524 MB, 524288000 bytes

Disk /dev/sdj: 524 MB, 524288000 bytes

Disk /dev/sdk: 524 MB, 524288000 bytes

Disk /dev/sdl: 524 MB, 524288000 bytes

Disk /dev/sdm: 524 MB, 524288000 bytes

Disk /dev/sdn: 419 MB, 419430400 bytes

Disk /dev/sdo: 419 MB, 419430400 bytes

Disk /dev/sdp: 419 MB, 419430400 bytes

Disk /dev/sdq: 419 MB, 419430400 bytes

Disk /dev/sdr: 419 MB, 419430400 bytes

Disk /dev/sds: 419 MB, 419430400 bytes

Disk /dev/dm-0: 22.5 GB, 22515023872 bytes

Disk /dev/dm-1: 4194 MB, 4194304000 bytes

(500MB data, 400MB flash)

[root@stocell1 unix]# echo $T_WORK

/opt/oracle/cell11.2.3.2.1_LINUX.X64_130109/disks

cd /opt/oracle/cell11.2.3.2.1_LINUX.X64_130109/disks

--디렉토리가 없을 경우 생성할 것(mkdir disks/raw)

[할당된 disk 설정]

cd /opt/oracle/cell11.2.3.2.1_LINUX.X64_130109/disks/raw

   

ln -s /dev/sdb stocell1_DISK01

ln -s /dev/sdc stocell1_DISK02

ln -s /dev/sdd stocell1_DISK03

ln -s /dev/sde stocell1_DISK04

ln -s /dev/sdf stocell1_DISK05

ln -s /dev/sdg stocell1_DISK06

ln -s /dev/sdh stocell1_DISK07

ln -s /dev/sdi stocell1_DISK08

ln -s /dev/sdj stocell1_DISK09

ln -s /dev/sdk stocell1_DISK10

ln -s /dev/sdl stocell1_DISK11

ln -s /dev/sdm stocell1_DISK12

ln -s /dev/sdn stocell1_FLASH01

ln -s /dev/sdo stocell1_FLASH02

ln -s /dev/sdp stocell1_FLASH03

ln -s /dev/sdq stocell1_FLASH04

ln -s /dev/sdr stocell1_FLASH05

ln -s /dev/sds stocell1_FLASH06

   

Cell Disk Service 설정

[root@stocell1 ~]# su – celladmin

[celladmin@stocell1 ~]$ cellcli -e alter cell restart services all

   

Stopping the RS, CELLSRV, and MS services…

CELL-01509: Restart Server (RS) not responding.

Starting the RS, CELLSRV, and MS services…

Getting the state of RS services… running

Starting CELLSRV services…

The STARTUP of CELLSRV services was not successful.

CELL-01547: CELLSRV startup failed due to unknown reasons.

Starting MS services…

The STARTUP of MS services was successful.

The error in not unknown (as stated) but well known and expected

[InfiniBand Storage Network 설정]

[celladmin@stocell1 ~]$ cellcli -e create cell stocell1 interconnect1=eth1

Cell stocell1 successfully created

Starting CELLSRV services…

The STARTUP of CELLSRV services was successful.

Flash cell disks, FlashCache, and FlashLog will be created…

CellDisk FD_00_stocell1 successfully created

CellDisk FD_01_stocell1 successfully created

CellDisk FD_02_stocell1 successfully created

CellDisk FD_03_stocell1 successfully created

CellDisk FD_04_stocell1 successfully created

CellDisk FD_05_stocell1 successfully created

Flash log stocell1_FLASHLOG successfully created

Flash cache stocell1_FLASHCACHE successfully created

[Cell Disks 설정]

[celladmin@stocell1 ~]$ cellcli -e create celldisk all

CellDisk CD_DISK01_stocell1 successfully created

CellDisk CD_DISK02_stocell1 successfully created

CellDisk CD_DISK03_stocell1 successfully created

CellDisk CD_DISK04_stocell1 successfully created

CellDisk CD_DISK05_stocell1 successfully created

CellDisk CD_DISK06_stocell1 successfully created

CellDisk CD_DISK07_stocell1 successfully created

CellDisk CD_DISK08_stocell1 successfully created

CellDisk CD_DISK09_stocell1 successfully created

CellDisk CD_DISK10_stocell1 successfully created

CellDisk CD_DISK11_stocell1 successfully created

CellDisk CD_DISK12_stocell1 successfully created

[Grid disks 설정]

[celladmin@stocell1 ~]$ cellcli -e create griddisk all harddisk prefix=DATA

GridDisk DATA_CD_DISK01_stocell1 successfully created

GridDisk DATA_CD_DISK02_stocell1 successfully created

GridDisk DATA_CD_DISK03_stocell1 successfully created

GridDisk DATA_CD_DISK04_stocell1 successfully created

GridDisk DATA_CD_DISK05_stocell1 successfully created

GridDisk DATA_CD_DISK06_stocell1 successfully created

GridDisk DATA_CD_DISK07_stocell1 successfully created

GridDisk DATA_CD_DISK08_stocell1 successfully created

GridDisk DATA_CD_DISK09_stocell1 successfully created

GridDisk DATA_CD_DISK10_stocell1 successfully created

GridDisk DATA_CD_DISK11_stocell1 successfully created

GridDisk DATA_CD_DISK12_stocell1 successfully created

[celladmin@stocell1 ~]$ cellcli -e alter cell restart services all

   

Stopping the RS, CELLSRV, and MS services...

The SHUTDOWN of services was successful.

Starting the RS, CELLSRV, and MS services...

Getting the state of RS services... running

Starting CELLSRV services...

The STARTUP of CELLSRV services was successful.

Starting MS services...

The STARTUP of MS services was successful.

   

[cell disk alert log]

[root@stocell1 trace]# cd /opt/oracle/cell11.2.3.2.1_LINUX.X64_130109/log/diag/asm/cell/stocell1/trace

[root@stocell1 trace]# ls -al alert*

-rw-rw---- 1 root celladmin 156850 Aug 21 10:00 alert.log

..

..

[RS] Started Service MS with pid 5390

Fri Aug 21 10:00:51 2015

Smart Flash Logging enabled on FlashLog stocell1_FLASHLOG (1842424628), size=80MB, cdisk=FD_05_stocell1

Fri Aug 21 10:00:51 2015

Smart Flash Logging enabled on FlashLog stocell1_FLASHLOG (3996181628), size=80MB, cdisk=FD_04_stocell1

Fri Aug 21 10:00:51 2015

Smart Flash Logging enabled on FlashLog stocell1_FLASHLOG (3466652180), size=80MB, cdisk=FD_03_stocell1

Fri Aug 21 10:00:51 2015

Smart Flash Logging enabled on FlashLog stocell1_FLASHLOG (1448144612), size=80MB, cdisk=FD_02_stocell1

Fri Aug 21 10:00:51 2015

Smart Flash Logging enabled on FlashLog stocell1_FLASHLOG (2992946252), size=80MB, cdisk=FD_00_stocell1

Smart Flash Logging enabled on FlashLog stocell1_FLASHLOG (1465279500), size=80MB, cdisk=FD_01_stocell1

FlashLog: initialization complete

Fri Aug 21 10:00:51 2015

CELLSRV Server startup complete

[RS] Started Service CELLSRV with pid 5397

Fri Aug 21 10:00:57 2015

Info: Assigning flash CD FD_00_stocell1 to group#1

Info: Assigning flash CD FD_01_stocell1 to group#2

Fri Aug 21 10:00:57 2015

Info: Assigning flash CD FD_02_stocell1 to group#3

Info: Assigning flash CD FD_03_stocell1 to group#0

Info: Assigning flash CD FD_04_stocell1 to group#1

Info: Assigning flash CD FD_05_stocell1 to group#2

   

-stocell1 OVM이 완료된 상태로 해당 내역을 복제하여 exadata 구성을 진행한다.

-해당 stocell1을 바탕으로 DB 1개+Cell Disk 2개 구성, DB 2개+Cell Disk1개 구성(RAC)등 다양하게 활용할 수 있으므로

OVM export(내보내기)로 백업 받아 두고 사용하면 좋다.

   

Cellcli 명렁어

cellcli 명령어

1. check cell status

cellcli -e list cell

cellcli -e list cell detail

   

2. Physical Disk Information

cellcli -e list physicaldisk

cellcli -e list physicaldisk E15SBS detail

   

3. LUN Disks Detail

cellcli -e list lun

cellcli -e list lun 0_0 detail 

cellcli -e list lun 5_3 detail

   

4. Cell Disks Report

cellcli -e list celldisk

cellcli -e list celldisk CD_08_exadatalcel10 detail

cellcli -e list celldisk attributes name, devicePartition where size>200g;

cellcli -e list celldisk attributes name,status,size

   

5. Grid Disk Knowledge

cellcli -e list griddisk

cellcli -e list celldisk CD_02_exadatalcel10 detail

cellcli -e list griddisk DATA_DMORL_CD_02_exadatalcel10 detail

cellcli -e list griddisk DBFS_DG_CD_02_exadatalcel10 detail

cellcli -e list griddisk RECO_DMORL_CD_02_exadatalcel10 detail

   

6. Display Exadate Alerts

cellcli -e list alerthistory

cellcli -e list alerthistory 8_1 detail

cellcli -e  list alerthistory where severity like '[warning|critical]'

cellcli -e  list alertdefinition detail

   

7. Restart Cell Services

cellcli -e list cell detail

cellcli -e alter cell restart services rs

cellcli -e alter cell restart services ms

cellcli -e alter cell restart services cellsrv

cellcli -e alter cell restart services all

cellcli -e alter cell shutdown services rs

cellcli -e alter cell shutdown services ms

cellcli -e alter cell shutdown services cellsrv

   

구성 시에 에러(CELL-01518)

/opt/oracle/cell11.2.3.2.0_LINUX.X64_120713/cellsrv/deploy/config/cellinit.ora

   

[celladmin@cell ~]$ cellcli -e create cell cell1 interconnect1=eth1

CELL-01518: Stop CELLSRV. Create Cell cannot continue with CELLSRV running.

   

[celladmin@cell ~]$ cellcli

CellCLI: Release 11.2.3.2.0 - Production on Tue Jan 20 22:14:40 CST 2015

Copyright (c) 2007, 2012, Oracle.  All rights reserved.

Cell Efficiency Ratio: 1

   

CellCLI> alter cell shutdown services cellsrv

   

Stopping CELLSRV services... 

The SHUTDOWN of CELLSRV services was successful.

   

CellCLI> exit

quitting

   

[celladmin@cell ~]$ cellcli -e create cell cell1 interconnect1=eth1

Cell cell1 successfully created

   

   

[참고 문서 및 사이트]

   

블로그 이미지

운명을바꾸는자

IT와 함께 살아가는 삶

,


2.OVM TEST Environment

   

1) 설치 전 준비 파일

2) BASE Environment

  • OVM 환경 구성에서 중요한 요소는 CPU, Memory, Network, Disk로 볼 수 있다. (Disk 구성은 Storage Cell Disk 참조)
  • Oracle Grid & DB S/W 1대, Storage Cell S/W OVM 1대
  • Stocell1을 먼저 구축한 뒤에 Exadata1을 복제하여 사용할 것임으로 Stocell1을 중점적으로 먼저 구성한다.(중요)

       

       

       

    CPU 설정

    - Exadata1 & Stocell1

       

    Memory 설정(중요)

    - Exadata1

     

    - Stocell1

       

    Network 설정(중요)

    - Exadata1(3개)

       

       

     

    - Stocell1(2개)

       

 

   

3) ETC

  • Stocell1을 먼저 구성한 뒤에 해당 내역을 복제하여 Exadata1로 사용하는 형태로 진행된다.(중요)
  • Memory의 경우에 Stocell1은 2GB 정도면 되지만 Exadata1의 경우에는 적어도 3GB는 할당해야 한다.
  • Network 구성 시에 2개의 대역대만(192.168.56.*, 192.168.122.*) 있으면 되며 yum의 사용을 위하여 추가 인터넷 IP(192.168.0.*)를 받아 설정하면 RPM 설치 시 수월하게 진행할 수 있다. (PC 마다 IP할당 설정은 다를 수 있음)
  • Disk 설정의 경우에 OS 설치 이후에 추가적으로 구성되므로 "Storage Cell Disk"에서 이야기 하겠다.

     

[참고 문서 사이트]


블로그 이미지

운명을바꾸는자

IT와 함께 살아가는 삶

,


1.OverView

   

 1) Exadata(엑사데이터) 구성

  • Single Instance DB 1개와 Storage Server 1개로 이루어진 구성으로 구축을 진행
  • Local PC에서 OVM을 통하여 장비를 구축하다 보니 최소의 PC Resource를 사용하여 구축하여 Exadata의 Smart Scan을 TEST하기 위해 설치를 진행 함.(Exadata를 간접적으로 경험(Storage Server Software)하고 TEST하는 것이 목적)

       

       [Oracle 자료 참고 이미지]

    Install Oracle Linux

    Install Storage Cell

    Create Storage Cell Disk

    Install Grid Infrastructure

    Install Database

     

 2) Exadata Smart Scan

  • Disk Scan을 수행하는 동안 데이터베이스 서버로 다시 전송해야 할 데이터의 양을 줄여 성능에 있어 최적화를 목표로 한다.
  • Sun을 인수하면서 Hardware + Software를 모두 성능 최적화를 하기 위한 노력을 계속 되어 왔다. CPU와 Memory의 경우에 과거에서부터 큰 수치로 성능이 개선되어 왔지만 Disk의 경우에는 그에 반해 성능적인 측면에서의 발전 속도가 늦어 Hardware에서의 성능 최적화에 대한 그 결과 중 하나인 Exadata가 나오게 된다.

       

    [기본 개념 참조]

   

   [Oracle 자료 참고 이미지]                      

  • Smart Scan의 주요 3가지 요소

       

    Column Projection (DB 서버로의 데이터 전송량 감소를 통한 최적화)

      - 필요한 테이블의 컬럼만 데이터를 반환함으로써 Exadata Storage 계층과 데이터베이스 계층 사이에 전송되는 데이터의 양을 제한하는 기능이다.

    예) 필요한 테이블의 컬럼(Select List에 명시되어 있는 컬럼 내역과 Join시 사용된 컬럼을 이야기함)

       

    Predicate Filtering (DB 서버로의 데이터 전송량 감소를 통한 최적화)

        - 주로 사용되는, 관심 있는 Row의 데이터만 DB 계층으로 반환하는 기능

    - 위 구조에서 iDB에서 데이터 요청 시 Predicate 정보를 바탕으로 DB 계층으로 데이터를 반환하기 전에 표준
    필터링 작업을 수행하여 필요한 데이터만 전송함으로써 데이터 전송 량의 감소에 따른 CPU 사용률의 자원을 절감한다.

       

    Storage Index (Disk I/O 감소를 통한 최적화)

       - 스토리지 셀의 메모리 구조를 만들어 Table 당 최대 8개의 컬럼까지 각각 1MB Disk Storage Unit마다 최대/최소값을 유지하여 Disk I/O의 감소를 통한 최적화를 진행한다.

       

  • Oracle Exadata Single Database TEST 구성을 통하여 Smart Scan의 핵심 요소인 Column Projection, Predicate Filtering, Storage Index를 테스트하는 것이 목적이다.

    (단, Storage Server의 Heap메모리 Size에 의존하는 Storage Index TEST에만 제약이 있음)


[참고 문서 사이트]

  • Exadata Base Document (MOS ID 888828.1]


블로그 이미지

운명을바꾸는자

IT와 함께 살아가는 삶

,


1. EM 설치

1) Emca -config dbcontrol db -repos recreate

   

   

2. EM 상태확인 및 시작/정지

1) emctl status dbconsole(emctl stop dbconsole, emctl start dbconsole)

   

   

   

   

   

3. EM 시작

   

   

   

1) Em을 사용하기 위해서는 별도의 라이선스가 필요하지만 TEST는 가능합니다.

2) EM을 통해서 전반적인 DB 상태확인 및 관리가 가능합니다. 이번 TEST에서는 Rman backup에 대한 부분에 대해서만 정리하도록 하겠습니다.

   

4. EM을 이용한 Rman backup 설정

   

   

1) 백업 설정 후 -> 백업 일정잡기를 설정하도록 하겠습니다. (백업 설정은 Rman 에서 show all 명령어를 입력했을 때 나오게 되는 기본 환경변수들에 대한 세팅 부분입니다.

   

   

2) 백업 정책에 대한 세밀한 설정을 시각적으로 확인하면서 설정할 수 있습니다. 설정 후 oracle 서버에 자동으로 해당 내용이 반영됩니다.

   

5. 백업 일정 잡기

   

   

1) 사용자 정의 백업을 통해 다양한 형태로 백업을 진행할 수 있습니다.

   

   

   

2) 추가적으로 백업 모드와 백업 유형 그리고 사용되지 않는 백업본 삭제까지 세밀한 설정까지 가능합니다.

   

   

3) 백업이 될 형태와 위치 지정이 가능합니다.

   

4) 백업 일정에 대해서 날짜 시간별로 지정할 수 있습니다.

   

5) 해당 일정이 완료가 되면 Rman backup 스크립트가 완성되어집니다(해당 스크립트에는 일정 및 주기에

대한 내용이 들어가 있지는 않고 backup에 대한 스크립트입니다. )

   

6) 해당 작업설정이 완료가 되면 아래와 같이 실행되는 백업 일정에 대해서 확인 및 편집이 추가로 가능합니다.

   

   

블로그 이미지

운명을바꾸는자

IT와 함께 살아가는 삶

,

 

1.컨트롤 파일 mirror

   

1) srvctl stop database -d VIDEO 정지 후-> 1번 노드에서만 작업실시

2) Startup nomount; 현재상태 확인

   

SQL> startup nomount;

ORACLE instance started.

   

Total System Global Area 3674501120 bytes

Fixed Size 2233760 bytes

Variable Size 1157630560 bytes

Database Buffers 2499805184 bytes

Redo Buffers 14831616 bytes

SQL>

SQL>

SQL>

SQL> show parameter control_file

   

NAME TYPE

------------------------------------ ---------------------------------

VALUE

------------------------------

control_file_record_keep_time integer

7

control_files string

+ORADATA/video/controlfile/cur

rent.260.786470645

SQL>

   

3) Su - oragrid -> asmcmd -> controlfile 복사 2~3개 후,

ASMCMD> ls

Current.260.789319007

ASMCMD>

ASMCMD> pwd

+ORADATA/video/controlfile

ASMCMD>

SQL> alter system set control_files='+ORADATA/video/controlfile/current.260.786470645', '+ORADATA/video/controlfile/current.mirror1', '+ORADATA/video/controlfile/current.mirror2' scope=spfile;

   

System altered.

   

SQL>

   

4) Shutdown immediate -> startup nomount -> mount -> open

SQL> startup nomount

ORACLE instance started.

   

Total System Global Area 3674501120 bytes

Fixed Size 2233760 bytes

Variable Size 1157630560 bytes

Database Buffers 2499805184 bytes

Redo Buffers 14831616 bytes

SQL>

SQL>

SQL> show parameter control_files

   

NAME TYPE

------------------------------------ ---------------------------------

VALUE

------------------------------

control_files string

+ORADATA/video/controlfile/cur

rent.260.786470645, +ORADATA/v

ideo/controlfile/current.mirro

r1, +ORADATA/video/controlfile

/current.mirror2

SQL>

SQL> alter database mount;

   

Database altered.

   

SQL>

SQL>

SQL> select name, is_recovery_dest_file from v$controlfile;

   

NAME

--------------------------------------------------------------------------------

IS_RECOVE

---------

+ORADATA/video/controlfile/current.260.786470645

NO

   

+ORADATA/video/controlfile/current.mirror1

NO

   

+ORADATA/video/controlfile/current.mirror2

NO

   

   

SQL>

SQL>

SQL> desc v$controlfile;

Name Null? Type

----------------------------------------- -------- ----------------------------

STATUS VARCHAR2(7)

NAME VARCHAR2(513)

IS_RECOVERY_DEST_FILE VARCHAR2(3)

BLOCK_SIZE NUMBER

FILE_SIZE_BLKS NUMBER

   

SQL>

SQL>

SQL> alter database open;

   

Database altered.

   

SQL>

SQL>

   

2.Redolog 변경

1) 잠시 옮겨둘 redolog 생성

SQL> ALTER DATABASE ADD LOGFILE THREAD 1

2 GROUP 10 '+ORADATA',

3 GROUP 20 '+ORADATA',

4 GROUP 30 '+ORADATA';

   

Database altered.

   

SQL>

SQL> ALTER DATABASE ADD LOGFILE THREAD 2

2 GROUP 40 '+ORADATA',

3 GROUP 50 '+ORADATA',

4 GROUP 60 '+ORADATA';

   

Database altered.

   

SQL>

   

2) 리두 로그 현재 상태변경

SQL> alter system switch logfile;

SQL> alter system checkpoint;

   

3) 기존의 리두로그 제거

SQL> alter database drop logfile group 1;

   

Database altered.

SQL>

SQL> alter database drop logfile group 2;

   

Database altered.

   

SQL> alter database drop logfile group 3;

   

Database altered.

   

SQL> alter database drop logfile group 4;

   

Database altered.

   

==========================================

   

SQL> alter database drop logfile group 5;

alter database drop logfile group 5

*

ERROR at line 1:

ORA-01623: log 5 is current log for instance UNNAMED_INSTANCE_3 (thread 3) - cannot drop

ORA-00312: online log 5 thread 3: '+ORADATA/video/onlinelog/group_5.265.786470753'

   

SQL> alter database drop logfile group 6;

alter database drop logfile group 6

*

ERROR at line 1:

ORA-01567: dropping log 6 would leave less than 2 log files for instance UNNAMED_INSTANCE_3 (thread 3)

ORA-00312: online log 6 thread 3: '+ORADATA/video/onlinelog/group_6.266.786470753'

   

SQL> ALTER DATABASE DISABLE THREAD 3;

   

Database altered.

   

SQL>

SQL>

SQL> alter database drop logfile group 5;

   

Database altered.

   

SQL> alter database drop logfile group 6;

   

Database altered.

  

   

4) 새롭게 사용할 리두로그 추가

SQL>

SQL> ALTER DATABASE ADD LOGFILE THREAD 1

2 GROUP 1 ('+ORADATA','+ORADATA') SIZE 1024m,

3 GROUP 2 ('+ORADATA','+ORADATA') SIZE 1024m,

4 GROUP 3 ('+ORADATA','+ORADATA') SIZE 1024m;

 

Database altered.

   

SQL> ALTER DATABASE ADD LOGFILE THREAD 2

2 GROUP 4 ('+ORADATA','+ORADATA') SIZE 1024m,

3 GROUP 5 ('+ORADATA','+ORADATA') SIZE 1024m,

4 GROUP 6 ('+ORADATA','+ORADATA') SIZE 1024m;

   

Database altered.

   

SQL>

   

4) 리두 로그 현재 상태변경

SQL> alter system switch logfile;

SQL> alter system checkpoint;

   

6) 잠시 백업해둔 리두로그 삭제

SQL>

SQL> alter database drop logfile group 20;

   

Database altered.

   

SQL> alter database drop logfile group 30;

   

Database altered.

   

SQL> alter database drop logfile group 40;

   

Database altered.

   

SQL> alter database drop logfile group 50;

   

Database altered.

   

SQL> alter database drop logfile group 60;

   

Database altered.

   

3.기타

1) 로그정보확인(TEST서버)

- DB : /app/oracle/diag/rdbms/racdb/RACDB1/trace/alert_RACDB1.log

- ASM : /app/grid/app/oragrid/diag/asm/+asm/+ASM1/trace/alert_+ASM1.log

- Grid : /app/grid/11g/log/rac1/alertrac1.log

   

2) 자주 사용했던 명령어들..

- crsctl start crs(root) : crs를 노드1,2 동시에 올림

- crsctl stop crs -f(root) : 강제로 crs가 내려갈 경우, 꺠끗하게 내리고 시작하기 위해서 강제로 내림

- crs_stat -t -v : 현재 상태확인(crs 및 DB)

- ASM Check

 -> oracleasm scandisks

 -> oracleasm listdisks

 -> Asmcmd

 

 -> srvctl status database -d SID

 -> srvctl stop database -d SID

 -> srvctl start database -d SID

   

3) 11g 내부에서 사용되는 ip존재(HAIP)

   

노드1

eth1:1 Link encap:Ethernet HWaddr 00:E0:4C:68:00:B4

inet addr:169.254.124.85 Bcast:169.254.255.255 Mask:255.255.0.0

UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1

Interrupt:58 Base address:0xc000

노드2

eth1:1 Link encap:Ethernet HWaddr 00:E0:4C:68:00:AB

inet addr:169.254.12.120 Bcast:169.254.255.255 Mask:255.255.0.0

UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1

Interrupt:58 Base address:0xc000

블로그 이미지

운명을바꾸는자

IT와 함께 살아가는 삶

,


 

Oracle 서버 버전 별 기능비교

- 이 문서는 Oracle 10g, Oracle 11g, Oracle 12c 의 각 버전별 주요 기능에 대한 버전별 제공 여부를 살펴본다.

 

버전 별 기능 비교

- 다음은 주요 기능에 대한 Oralce12c, Oracle11g, Oracle10g 각 버전별 제공 여부를 나타낸다.

 

기능

Oracle 12c

Oracle11g

Oracle10g

 

Multitenant Architecture (Option)

: PDB & CDB

: 여러 개의 DB를 통합하여 하나의 인스턴스로 서비스 가능

Yes

No

No

지정 가능한 복구 시간

Yes

Yes

Yes

블록 레벨 복구

Yes

Yes

Yes

Flashback Query
: undo 이용 과거시점 Data 조회 기능

Yes

Yes

Yes

Flashback Database

:flashback log와 redo를 이용해 Database 전체를 특정시점 이전으로 복구하는 기능

Yes

Yes

Yes

Flashback Table
: undo를 이용 table의 row를 복구

Yes

Yes

Yes

Flashback transaction
:
Commit된 Transaction 복구 기능

Yes

Yes

No

Flashback Data Archive
:데이터 변경 History를 저장할 수 있는 기능(Total Recall option)

Yes

Yes

No

온라인 인덱스
생성 및 재생성

Complete

Complete

Complete

온라인 테이블 재정의

Yes

Yes

Yes

온라인 테이블 Shrink

Yes

Yes

Yes

Log Miner

Yes
DDL지원

Yes
DDL지원

Yes,
DDL지원

자동화된 Standby

Yes

Oracle Data Guard

Yes

Oracle Data Guard

Yes

Oracle Data Guard

손쉬운 Switch-Over

Yes

Yes

Yes

Standby 에서 실시간 질의 기능

Yes
:Active Data Guard

Yes
:Active Data Guard

No

Active Data Guard Fast Sync

: 원거리 SYNC모드의 DR구성가능

Yes

No

No

Standby를 Open하여 사용 후 사용이전의 standby로 원복하는 기능

Yes

Yes

Partial

 








In-Memory Column Store (Option)

: 테이블을 buffer cache와는 별개로 메모리에 columnar format으로 올려 성능향상

Yes

No

No

데이터 분할 기법

Hash cluster, Range, Hash,
Composite, List

Range, Hash,
Composite, List

Range, Hash,
Composite, List

Function or Virtual Column Partitioning:변형된 컬럼값으로 분할 저장 하는 기능

Yes

Yes

No

Interval Partitioning
: Range partition에서 자동화된 partition생성기능

Yes

Yes

No

Global hash Partition Index

Yes

Yes

Yes

Bitmap 인덱스

Yes

Yes

Yes

Function 기반 인덱스

Yes

Yes

Yes

Invisible Indexes
:Index생성 후 기존 application에서 이의 사용은 안되게 하는 기능

Yes

Yes

No

Star 질의

Yes

Yes

Yes

Materialized View

Yes

Yes

Yes

Query Result Cache: Query 결과를 저장해 놓아 재사용할 수 있는 기능

Yes

Yes

No

다양한 분석 함수

Yes

Yes

Yes

Change Data Capture

Yes

Yes

Yes

Down Stream기능 (ETL)

Yes

Yes

Yes

Bitmap 조인 인덱스

Yes

Yes

Yes

Multitable Insert

Yes

Yes

Yes

Upsert(Merge)

Yes

Yes

Yes

Table Functions

Yes

Yes

Yes

Transportable Tablespace

Yes, 확장됨
:이기종간 가능

Yes, 확장됨
:이기종간 가능

Yes, 확장됨
:이기종간 가능

병렬 DML 처리

Yes

Yes

Yes

  병

 

Real Application
Clusters

Real Application
Clusters

Real Application
Clusters

Cache Fusion

Complete

Complete

Complete

투명한 어플리케이션 Failover

Yes

Yes

Yes

어플리케이션 지원

All

All

All

자동 접속 부하 균형

Yes

Yes

Yes

자동화된 DLM 구성

Yes

Yes

Yes

동적 DLM Remastering

Yes

Yes

Yes

Oracle Clusterware (CRS)

Yes

Yes

Yes

ASM (Automatic Storage management)

Yes

Yes

Yes

  관

Heat Map

: 블록단위로 데이터가 사용이 되는지 안되는지 식별가능

Yes

No

No

Automatic Data Optimization

: Heat Map과 ONLINE Move partition기능을 이용하여 미사용파티션데이터를 자동으로 압축, 이동 가능하게 함.

Yes

No

No

자동 통계정보 수집

Yes

Yes

Yes,

과거 통계정보 보관

Yes

Yes

Yes

자동 Undo 관리

Yes

Yes

Yes

자동 데이터 파일 관리

Yes

Yes

Yes

동적 SGA 크기 관리

Yes

Yes

Yes

자동 SQL 실행 메모리 관리

Yes

Yes

Yes

영구적인 초기화 파일

Yes

Yes

Yes

재수행가능한 공간 할당 문장

Yes

Yes

Yes

다중 블록 크기 지원

Yes

Yes

Yes

Real Application Testing(option)

:가동계의 Workload 저장한 후 Test Systems에서 수행(replay)하는 기능

Yes

Yes

No

Data Pump
:고성능의 Export/Import

Yes

Yes

Yes

Cross-Platform Backup & Restore

: 이기종의 플랫폼간 백업 및 리스토어 가능 (using RMAN)

Yes

No

No

Table-Level Recovery From Backups

: RMAN을 통한 테이블 단위로 복구 가능

Yes

No

No

Java 기반의 시스템 도구

Yes

Yes

Yes

Oracle Scheduler

Yes

Yes

Yes

SQL Access Advisor

Yes

Yes

Yes

SQL Tuning Advisor

Yes

Yes

Yes

EM Control 및 EM Grid Control을 통한 시스템 통합관리

Yes

Yes

Yes

성능정보 수집기능(Automatic Workload Repository)

Yes

Yes

Yes

ADDM (자동 Database진단 monitor)

Yes

Yes

Yes

  보

강력한 데이터 보안 기능

Yes

Yes

Yes

3-Tier 보안 기능

Yes

Yes

Yes

Fine-Grained Auditing

Yes

Yes

Yes

Oracle Label Security

Yes

Yes

Yes

실시간 데이터 Masking

: Real-time sensitive data redaction 기능

Yes

Yes

: 11.2.0.4 이후 가능

No

표준 기반 PKI

Yes

Yes

Yes

컬럼 레벨 데이터 암호화

Yes

Yes

Yes

Tablespace 레벨 데이터 암호화

Yes

Yes

No

Directory 서비스

Yes

Yes

Yes

Enterprise User 및 Role 관리

Yes

Yes

Yes

SSL 지원

Yes

Yes

Yes

RADIUS Adapter 지원

Yes

Yes

Yes

KERBEROS 보안 모델 지원

Yes

Yes

Yes

LDAP 통합

Yes

Yes

Yes

VPD (Virtual Private Database)

Yes

Yes

Yes

Encrypted LOBs

Yes

Yes

No

  개

Partial Indexes for Partitioned Tables

: 파티션 테이블의 일부 파티션만에 local or global index를 생성가능.

Yes

No

No

ONLINE Move Partition

: 파티션 이동 온라인으로 가능

Yes

No

No

데이터베이스 내의
XML Type 지원

Yes

Yes

Yes

XML Developer's Kit

Yes

Yes

Yes

객체 관계형 모델

Yes, Complete

Yes, Complete

Yes, Complete

ANSI/ISO SQL 1999 지원

Yes

Yes

Yes

C++ Call Interface

Yes

Yes

Yes

Scrolling Cursors

Yes

Yes

Yes

Bulk Binding

Yes

Yes

Yes

PL/SQL Native 컴파일

Yes

Yes

Yes

통합된 JVM

Yes

Yes

Yes

SQLJ

Yes

Yes

Yes

Java Stored Procedures

Yes

Yes

Yes

JDBC 2.0 지원

Yes

Yes

Yes

Java Native 컴파일

Yes

Yes

Yes

JSON data type 지원

: JavaScript Object Notation

Yes

No

No

UltraSearch

Yes

Yes

Yes

Native PL/SQL지원

Yes

Yes

Yes

ODP.Net (.Net 지원)

Yes

Yes

Yes

 


< 참고 > Oracle 12c New Feature 주요기능 요약

아키텍처

1

Multitenant Architecture

여러 개의 DB 통합하여 하나의 인스턴스로 서비스 가능. 여러 DB통합하여 자원을 효율적으로 이용가능. 손쉬운 DB이전 통합, DB 자원할당 가능

2

In-Memory Column Store

테이블을 buffer cache와는 별개로 메모리에 columnar format으로 올려 성능향상. 특히 OLAP 쿼리 수행시 월등한 성능 보장

파티션

3

Partial Indexes for Partitioned Tables

파티션 테이블의 일부 파티션만에 local or global index 생성가능. 대량의 데이터가 Insert되는 파티션에 대한 Index 생성하지 않도록 하여 성능향상

4

Asynchronous global index maintenance for DROP and TRUNCATE

특정 파티션이 Drop/Truncate 되더라도 Global Index unusable 빠지지 않고 유지됨

5

ONLINE Move Partition

파티션 이동 온라인으로 가능

데이터관리

6

Advanced index compression

인덱스 압축 기능 향상

7

Heat Map

블록단위로 데이터가 사용이 되는지 안되는지 식별가능

8

Automatic Data Optimization

Heat Map ONLINE Move partition기능을 이용하여 미사용파티션데이터를 자동으로 압축, 이동 가능하게 . DBMS내의 ILM구현

ADG

9

Active Data Guard Fast Sync

ADG DR구축시 LOG정보가 STANDBY MEMORY에만 전달되면 ACK받음.(ADG SYNC모드 성능향상)

10

Active Data Guard Far Sync

중계서버를 두어 원거리(대륙간) SYNC모드의 DR구성가능

RMAN

11

Cross-Platform Backup & Restore

이기종의 플랫폼간 백업 리스토어 가능. DB migration 단순화

12

Table-Level Recovery From Backups

RMAN으로 백업본에서 테이블 단위로 복구 가능

 

[참고 문서 사이트]

  - Oracle Database New Features Guide documentation

  - http://docs.oracle.com/database/121/NEWFT/toc.htm


블로그 이미지

운명을바꾸는자

IT와 함께 살아가는 삶

,


Oracle Database Applicance(ODA X5-2)

   

1.ODA 장비 전면 부 모습

   

2. ODA 장비 후면 부 모습

   

3. ODA 세부 규격

   

4. ODA 환경 확인 Command

oakcli show asr

Displays the Oracle Auto Service Request configuration

oakcli show cooling

Displays the status of the cooling units

oakcli show controller

Displays information about the disk controllers

oakcli show core_config_key

Displays information a bout the core deploy ment

oakcli show cpupool

Displays information about mappings between cores and virtual machines

oakcli show databases

Displays information about the databases

oakcli show dbhomes

Displays information about the database homes

oakcli show db_config_params

Displays configuration file names and parameters

oakcli show disk

Displays information about shared or local disks

oakcli show diskgroup

Displays information about Oracle ASM disk groups.

oakcli show env_hw

Displays the current server's environment type and hardware version

oakcli show expander

Displays information about the expanders

oakcli show enclosure

Displays information about the storage enclosure

oakcli show memory

Displays information about the memory subsystem

oakcli show network on

Displays information about the network subsystem

oakcli show power on p

Displays the status of the power supply subsystem

oakcli show processor

Displays processor (CPU) information

oakcli show repo on pa

Displays information about virtual machine repositories

oakcli show server on

Displays information about the server subsystem

oakcli show storage

Displays in formation about the storage

oakcli show validation storage

Displays status (enabled or disabled) of validation storage error reporting

oakcli show validation storag

eerrors Displays hard storage errors

oakcli show validation storage

failures Displays soft storage errors

oakcli show version

Displays version information for the software and firmware

oakcli show vlan

Displays version information about virtual local area networks

oakcli show vm

Displays version information about virtual machines

oakcli show vmtemplate

Displays information about virtual machine templates

   

   

   


블로그 이미지

운명을바꾸는자

IT와 함께 살아가는 삶

,