일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- centos7
- 갤럭시
- Local Repository
- GDisk
- centos 7
- 갤럭시 피시본
- selinux
- CRS #레드비
- WebConsole
- 17.2.8
- parted
- cephadm 배포
- cephadm
- eql
- bonding
- rbd mapping
- 샤샤자
- yum
- cockpit
- packstack
- firewalld
- nmcli
- centos8
- VMWare
- DELL N Switch
- 레펜타
- ceph 테스트 환경
- OpenStack
- Windows NTP
- Today
- Total
목록2025/04 (2)
딜미의 잡다한 IT 이야기...
Ceph에서는 다음과 같은 객체(Object), 블록(Block), 파일(File) 등 다양한 형태의 데이터를 제공하고 있다.오늘은 그 중 RBD 생성 및 연동 방법에 대해 기록을 남긴다. 1. RBD를 위한 Pool생성Pool 이름을 testrbd로 지정하여 아래의 명령어로 생성 ceph osd pool create [Pool Name] 128 예시)ceph osd pool create testrbd 128 2. RBD 생성Pool 생성 후 원하는 크기의 RBD 이미지 생성 앞서 구성된 내용으로 물리적 용량 300GB OSD로 선언되어 있슴여기서는 10GB 크기의 RBD를 생성하며 이미지명 지정이 필요하여 testblock로 명명하여 생성합니다. 예시)cephadm shell를 사전에 실행하여 컨테이..

최근 Ceph 배포 방법은 Cephadm이라는 컨테이너 기반의 배포방식이 선호되고 있어 해당 방식의 Ceph 배포 및 구성을 진행해봄 물리서버로 구성하면 좋겠으나 현실적으로 물리서버 3개를 준비하는데 어려움이 있어 가상화 서버에 가상머신으로 생성하여 구성 아래와 같이 가상머신 생성 CPU * 4coreMEM 8GBOS 50GOSD 50G * 2EA NET Public 192.168.1.x/22 Cluster 10.10.10.x/24동일 스펙으로 3개의 노드 생성 각 노드명은 ceph-node1,ceph-node2,ceph-node3 1. OS 기본 설치에 Ceph 설정이 기본으로 설치되어 있어서 기존 구성 삭제 작업이 필요함(모든노드) sudo apt remove --purge ceph ce..