"Ceph"의 두 판 사이의 차이

오픈소스 비즈니스 컨설팅
둘러보기로 가기 검색하러 가기
잔글
잔글
 
(같은 사용자의 중간 판 7개는 보이지 않습니다)
1번째 줄: 1번째 줄:
 
Ceph를 정리 합니다.
 
Ceph를 정리 합니다.
  
*홈페이지 : http://ceph.com/
+
*홈페이지 : [http://ceph.com/ http://ceph.com/]
**http://docs.ceph.com/docs/
+
**[http://docs.ceph.com/docs/ http://docs.ceph.com/docs/]
**http://docs.ceph.com/docs/v0.80.5/architecture/
+
**[http://docs.ceph.com/docs/v0.80.5/architecture/ http://docs.ceph.com/docs/v0.80.5/architecture/]
*다운로드 : http://ceph.com/resources/
+
*다운로드 : [http://ceph.com/resources/ http://ceph.com/resources/]
**https://github.com/ceph/ceph
+
**[https://github.com/ceph/ceph https://github.com/ceph/ceph]
*라이선스 : [[GNU LGPL 2.1|GNU LGPL 2.1]]
+
*라이선스 : [[GNU LGPLv2.1|GNU LGPLv2.1]]
 
*플랫폼 : 
 
*플랫폼 : 
  
 
== Ceph 개요 ==
 
== Ceph 개요 ==
  
librados : Ceph의 기본 인터페이스, Ceph Storage Cluster Protocol
+
RADIOS (Reliable Autonomic Distributed Object Store) Storage Cluster로 구성
 +
 
 +
CRUSH (Controlled Replication Under Scalable Hashing) 알고리즘으로 RADOS내에 파일 저장
 +
 
 +
quorum을 위해 홀수 구성 (최소 3대 이상)
 +
 
 +
RADOS -> LIBRADOS -> RA
 +
 
 +
librados : Ceph의 기본 인터페이스, Ceph Storage Cluster Protocol
  
 
*RADOSGW, RBD, CephFS
 
*RADOSGW, RBD, CephFS
17번째 줄: 25번째 줄:
 
RBD (RADOS BLOCK DEVICE)
 
RBD (RADOS BLOCK DEVICE)
  
RADIOS
+
<span style="line-height: 1.6;">OSD (객체 저장 장치, Object Storage Device)</span>
 +
 
 +
Disk -> FS (xfs, ext4, btrfs) -> OSD
 +
 
 +
 
 +
 
 +
== Tuning ==
 +
 
 +
{| border="1" cellspacing="0" cellpadding="1" style="width:100%;"
 +
|-
 +
| style="text-align: center; background-color: rgb(153, 153, 153);" | Item
 +
| style="text-align: center; background-color: rgb(153, 153, 153);" | Description
 +
|-
 +
| PG (Placement Group)
 +
| 100 PGs / OSD
 +
|}
  
OSD (객체 저장 장치, Object Storage Device)
 
  
Disk -> FS (xfs, ext4, btrfs) -> OSD
 
  
 
== 참고 문헌 ==
 
== 참고 문헌 ==
  
*[http://www.slideshare.net/ienvyou/open-stack-kilo-with-dvrcephv11 Neutron DVR and Ceph Integration, 2015.8]<br/>
+
*[http://www.slideshare.net/ienvyou/open-stack-kilo-with-dvrcephv11 Neutron DVR and Ceph Integration, 2015.8]
[[Category:OpenStack|Category:OpenStack]]<br/>[[Category:Storage|Category:Storage]]
+
*[https://github.com/arbrandes/vault2015/blob/master/markdown/benchmark.md https://github.com/arbrandes/vault2015/blob/master/markdown/benchmark.md]
 +
*[https://github.com/intel-cloud/cosbench https://github.com/intel-cloud/cosbench]<br/><br/><br/>
 +
[[Category:DevOps|Category:DevOps]]<br/>[[Category:OpenStack|Category:OpenStack]]<br/>[[Category:Storage|Category:Storage]]

2017년 7월 3일 (월) 13:25 기준 최신판

Ceph를 정리 합니다.

Ceph 개요

RADIOS (Reliable Autonomic Distributed Object Store) Storage Cluster로 구성

CRUSH (Controlled Replication Under Scalable Hashing) 알고리즘으로 RADOS내에 파일 저장

quorum을 위해 홀수 구성 (최소 3대 이상)

RADOS -> LIBRADOS -> RA

librados : Ceph의 기본 인터페이스, Ceph Storage Cluster Protocol

  • RADOSGW, RBD, CephFS

RBD (RADOS BLOCK DEVICE)

OSD (객체 저장 장치, Object Storage Device)

Disk -> FS (xfs, ext4, btrfs) -> OSD


Tuning

Item Description
PG (Placement Group) 100 PGs / OSD


참고 문헌