ElasticSearch 문서 원본 보기
←
ElasticSearch
둘러보기로 가기
검색하러 가기
문서 편집 권한이 없습니다. 다음 이유를 확인해주세요:
요청한 명령은 다음 권한을 가진 사용자에게 제한됩니다:
사용자
.
이 문서는 편집하거나 다른 명령을 할 수 없도록 보호되어 있습니다.
문서의 원본을 보거나 복사할 수 있습니다.
[[Lucene]]을 바탕으로 개발한 분산 검색엔진인 ElasticSearch를 정리 합니다. *홈페이지 : http://www.elasticsearch.org/, http://elasticsearch.kr/ :*매뉴얼 : http://www.elasticsearch.org/guide/ :*한글 형태소 분석기 : https://github.com/chanil1218/elasticsearch-analysis-korean :*한국 유저 커뮤니티 : https://www.facebook.com/groups/elasticsearch.kr/ *다운로드 : http://www.elasticsearch.org/download/, https://github.com/elasticsearch/elasticsearch/ :*Arirang 다운로드 : https://lucenekorean.svn.sourceforge.net/svnroot/lucenekorean/ *라이선스 : [[Apache 2.0]] *플랫폼 : [[Java]] == ElasticSearch 개요 == [[Lucene|Lucene]]은 널리 알려진 [[Java|Java]] 기반의 오픈소스 검색 엔진 라이브러리 입니다. 많은 곳에서 사용 되고 있지만 라이브러리 형태라 사용에 불편함이 있고 [[BigData|BigData]] 시대를 맞아 분산 환경을 지원하지 않아 새로운 대안 솔루션이 필요하게 되었습니다. 오픈소스 진영에서는 분산 환경을 지원하는 [[Solr|Solr]]와 [http://www.elasticsearch.org/ <b>ElasticSearch</b>]가 Lucene 기반으로 작성이 되었습니다. [http://www.elasticsearch.org/ <b>ElasticSearch</b>]는 RESTful API를 지원하는 특성으로 인하여 여러 환경으로 포팅이 될 수 있어서 사용이 편리한 분산 검색 엔진 입니다. ElasticSearch의 특징 *실시간 검색 및 분석 *분산 구성 및 병렬 처리 *index (Database)와 Type (Table)을 사용하여 다양한 문서 처리 *JSON을 사용하는 RESTful API 지원 *Plugin 방식의 기능 확장 ElasticSearch 용어 {| cellspacing="0" cellpadding="2" border="1" width="100%" bgcolor="#FFFFFF" align="center" |- | width="30%" align="center" valign="middle" style="background-color: rgb(204, 204, 204);" | 용어 | width="70%" align="center" valign="middle" style="background-color: rgb(204, 204, 204);" | 상세 |- | align="center" valign="middle" | Cluster | *Node의 집합으로 유일한 이름을 가짐 |- | align="center" valign="middle" | Node | *Cluster를 이루는 물리적인 서버 |- | align="center" valign="middle" | Index<br/>(indice) | *유사한 특징을 가진 문서들의 모음으로 DBMS에서 <span style="color:#0000FF;">'''데이터베이스'''</span>와 유사한 개념 *Term, Count, Docs로 구성 |- | align="center" valign="middle" | Shard | *Index의 subset 개념으로 [[Lucene|Lucene]]을 사용하여 구성 *실제 데이터와 색인을 저장하고 있으며 Primary Shard와 Replica Shard로 분류 *Primary Shard : Shard를 구성하는 기본 인덱스 *Replica Shard : 분산된 다른 node에 저장된 Primary Shard의 복제본 **서비스 장애시 서비스의 영속성 보장 |- | align="center" valign="middle" | Type<br/>(Document Type)<br/> | *데이터 (Document)의 종류로 index 내에서의 논리적인 category/partition *DBMS에서 <span style="color:#0000FF;">'''테이블'''</span>과 유사한 개념 |- | align="center" valign="middle" | Mapping | *DBMS에서 <span style="color:#0000FF;">'''테이블 스키마'''</span>와 유사한 개념 |- | align="center" valign="middle" | Document | *ElasticSearch에서 관리하는 기본적인 데이터(정보)의 저장 단위 *JSON ([[JavaScript|JavaScript]] Object Notaion)으로 표현 *DBMS에서 <span style="color:#0000FF;">'''레코드'''</span>와 유사한 개념 |- | align="center" valign="middle" | Field | *Document를 구성하고 있는 항목으로 name과 value로 구성 *DBMS에서 <span style="color:#0000FF;">'''컬럼'''</span>과 유사한 개념 |- | align="center" valign="middle" | Gateway | *Cluster 상태, Index 설정 등의 정보를 저장 |- | align="center" valign="middle" | Query | *검색어 |- | align="center" valign="middle" | TermQuery | *검색어의 종류 |- | align="center" valign="middle" | Term | *검색어의 항목 |- | align="center" valign="middle" | Token | *검색어의 항목을 구성하는 요소 |} <span style="color:#008000;"><span style="font-size:larger;">'''ElasticSearch의 개념적 구성도'''</span></span> [[File:ElasticSearch.png|700px|ElasticSearch.png]]<br/>[[File:LuceneIndex01.png|파일:LuceneIndex01.png]] *ElasticSearch Architecture [[File:ElasticSearchArchitecture.png|700px|ElasticSearchArchitecture.png]] :*_index : index 이름 :*_type : type 이름 :*_id : Document ID :*_score :*_source : Document 저장 :*properties ::*필드명 (field) :::*type : string <span style="color:#008000;">'''<span style="font-size:larger;">ElasticSearch 관련 오픈소스</span>'''</span> [[File:ElasticSearch Environment.png|700px|ElasticSearch Environment.png]] == CentOS에서 ElasticSearch 설치 == === ElasticSearch 설치 === *ElasticSearch 설치 :*[[JDK|JDK]] 1.7 이상 필요 cd install wget [https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-1.3.2.tar.gz https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-1.3.2.tar.gz] tar -xvzf elasticsearch-1.3.2.tar.gz chown -R hduser:hdgroup elasticsearch-1.3.2 mv elasticsearch-1.3.2 /nas/appl/elasticsearch *환경 설정 :*vi ~hduser/.bash_profile ### ---------------------------------------------------------------------------- ### ELASTICSEARCH 설정 ### ---------------------------------------------------------------------------- export ELASTICSEARCH_HOME=/nas/appl/elasticsearch export PATH=$PATH:$ELASTICSEARCH_HOME/bin *ElasticSearch 환경 설정 :*데이터와 로그 폴더 생성 cd /nas/appl/elasticsearch mkdir data mkdir logs chown hduser:hdgroup data logs :*vi /nas/appl/elasticsearch/config/elasticsearch.yml cluster.name: elasticsearch node.name: "node201" path.data: /nas/appl/elasticsearch/data path.logs: /nas/appl/elasticsearch/logs discovery.zen.ping.multicast.enabled: false discovery.zen.ping.unicast.hosts: ["node201:9200"] bootstrap.mlockall: true *서비스 실행 및 확인 su - hduser elasticsearch #--- Foreground로 실행 elasticsearch -d #--- Daemon으로 실행 curl localhost:9200 #--- 서비스 확인 [http://node201.hadoop.com:9200/ http://node201.hadoop.com:9200/] #--- 서비스 확인 [http://node201.hadoop.com:9200/_status http://node201.hadoop.com:9200/_status] [http://node201.hadoop.com:9200/_plugin/head/ http://node201.hadoop.com:9200/_plugin/head/] #--- elasticsearch-head plugin이 설치된 경우 === ElasticSearch 로드밸런서 설치 === *ElasticSearch 로드밸런서 환경 설정 :*vi /nas/appl/elasticsearch/config/elasticsearch.yml node.master: false node.data: false network.bind_host: 192.168.0.1 *로드밸런서용 plugin 설치 plugin -install mobz/elasticsearch-head plugin -install lukas-vlcek/bigdesk *한글 형태소 분석기 plugin 설치 :*[https://github.com/chanil1218/elasticsearch-analysis-korean 한글 형태소 분석기] plugin -install chanil1218/elasticsearch-analysis-korean/1.3.0 #plugin -url [https://dl-web.dropbox.com/spa/grpekzky9x5y6mc/elastic-analysis-korean/public/elasticsearch-analysis-korean-1.3.0.zip https://dl-web.dropbox.com/spa/grpekzky9x5y6mc/elastic-analysis-korean/public/elasticsearch-analysis-korean-1.3.0.zip] -install analysis-korean === 환경 설정 === *환경 변수 :*bin/elasticsearch 환경변수 :*JAVA_OPTS :*ES_JAVA_OPTS, ES_HEAP_SIZE :*ES_MIN_MEM=256m, ES_MAX_MEM=1gb *환경 설정 방법 :*환경 설정 파일로 설정 vi /nas/appl/elasticsearch/config/elasticsearch.yml index: store: type: memory :*명령행 옵션으로 설정 elasticsearch -Des.index.store.type=memory :*REST API로 설정 curl -XPUT 'node201.hadoop.com:9200/customer/ -d ' index: store: type: memory ' *file descriptors 확인 :*max_file_descriptors curl 'node201.hadoop.com:9200/_nodes/process?pretty' *memory settings : disable swap :*한번만 적용 swapoff -a :*항상 적용 vi /etc/fstab #--- swap을 주석 처리 :*ElasticSearch 설정으로 처리 ulimit -l unlimited #--- root 사용자로 실행 mkdir /tmp/tmpJna vi config/elasticsearch.yml bootstrap.mlockall: true elasticsearch -Djna.tmpdir=/tmp/tmpJna === Service로 실행 === *환경 설정 변수 :*ES_USER, ES_GROUP :*ES_HEAP_SIZE, ES_HEAP_NEWSIZE, ES_DIRECT_SIZE :*MAX_OPEN_FILES :*MAX_LOCKED_MEMORY, MAX_MAP_COUNT :*LOG_DIR, DATA_DIR, WORK_DIR :*CONF_DIR, CONF_FILE :*ES_JAVA_OPTS, RESTART_ON_UPGRADE #--- /etc/init.d/elasticsearch #--- /etc/sysconfig/elasticsearch /sbin/chkconfig --add elasticsearch == Windows에서 ElasticSearch 설치 == <span style="color:#008000;"><span style="font-size:larger;">'''ElasticSearch 설치'''</span></span> ElasticSearch는 JDK 7 이상에서 실행되는 Java 기반의 애플리케이션으로 별도의 설치 과정 없이 소스를 다운로드 받아 실행하면 됩니다. [http://www.elasticsearch.org/download/ 다운로드 사이트(http://www.elasticsearch.org/download/)]에서 최신 버전(elasticsearch-1.3.2.zip)의 ElasticeSearch를 다운로드 합니다. 압축을 풀어 c:/appl/elasticsearch/ 폴더를 생성 합니다. <span style="color:#008000;"><span style="font-size:larger;">'''실행 및 확인'''</span></span> bin/ 폴더에서 elasticsearch.bat 파일을 실행 합니다. 브라우저에서 [http://localhost:9200/ http://localhost:9200/] 로 접속하여 확인 합니다. http://www.jopenbusiness.com/mediawiki/images/e/e1/ElasticSearch_Install_Windows_001.png == Plugin 설치 == === 한글 형태소 분석기 Plugin === [https://github.com/chanil1218/elasticsearch-analysis-korean Korean Analysis for ElasticSearch (http://github.com/chanil1218/elasticsearch-analysis-korean)] 사이트에서 한글 형태소 분석기 Plugin을 설치 합니다. ElasticSearch용 한글 형태소 분석기 Plugin은 "루씬 한글분석기 오픈소스 프로젝트"를 가져와 작성이 되었습니다. 루씬 한글분석기 오픈소스 프로젝트 *카페 : [http://cafe.naver.com/korlucene http://cafe.naver.com/korlucene] *SourceForge : [http://sourceforge.net/projects/lucenekorean http://sourceforge.net/projects/lucenekorean] *SVN : [https://lucenekorean.svn.sourceforge.net/svnroot/lucenekorean https://lucenekorean.svn.sourceforge.net/svnroot/lucenekorean] *CVS : d:pserver:anonymous@lucenekorean.cvs.sourceforge.net:/cvsroot/lucenekorean <span style="color:#008000;"><span style="font-size:larger;">'''한글 형태소 분석기 Plugin 설치'''</span></span> {| cellspacing="1" cellpadding="1" style="font-size: 14px; color: rgb(37, 37, 37); font-family: sans-serif; line-height: 20.7999992370605px; width: 100%;" |- | style="background-color: rgb(241, 241, 241);" | bin/plugin -install chanil1218/elasticsearch-analysis-korean/1.3.0 만일 위 명령어로 설치시 오류가 발생하면 아래와 명령어로 설치를 다시 진행 합니다.<br/>bin/plugin -url [https://dl-web.dropbox.com/spa/grpekzky9x5y6mc/elastic-analysis-korean/public/elasticsearch-analysis-korean-1.3.0.zip https://dl-web.dropbox.com/spa/grpekzky9x5y6mc/elastic-analysis-korean/public/elasticsearch-analysis-korean-1.3.0.zip] -install analysis-korean |} 설치가 정상적으로 완료되면 plugins/analysis-korean/elasticsearch-analysis-korean-1.3.0.jar 파일을 확인할 수 있습니다. ---- *설치 후 확인 :*동작 확인 ::*korea 인덱스 삭제 curl -XDELETE 'node201.hadoop.com:9200/korea?pretty' ::*korea 인덱스 생성 #curl -XDELETE 'node201.hadoop.com:9200/korea?pretty' curl -XPUT 'node201.hadoop.com:9200/korea?pretty' -d '{ "settings": { "index": { "analysis": { "analyzer": { "kr_analyzer": { "type": "org.elasticsearch.index.analysis.KoreanAnalyzerProvider", "tokenizer": "KoreanTokenizer", "filter": [ "trim", "lowercase", "KoreanFilter" ] } } } } } }' ::*KoreanAnalyzer 동작 확인 ### curl -XGET 'node201.hadoop.com:9200/korea/_analyze?pretty&analyzer=kr_analyzer&text=이전 글에서 ElasticSearch와 Arirang 형태소 분석기를 살펴 보았습니다.' curl -XGET 'node201.hadoop.com:9200/korea/_analyze?pretty&analyzer=kr_analyzer&text=%EC%9D%B4%EC%A0%84%20%EA%B8%80%EC%97%90%EC%84%9C%20ElasticSearch%EC%99%80%20Arirang%20%ED%98%95%ED%83%9C%EC%86%8C%20%EB%B6%84%EC%84%9D%EA%B8%B0%EB%A5%BC%20%EC%82%B4%ED%8E%B4%20%EB%B3%B4%EC%95%98%EC%8A%B5%EB%8B%88%EB%8B%A4.' [http://node201.hadoop.com:9200/korea/_analyze?pretty&analyzer=kr_analyzer&text=이전%20글에서%20ElasticSearch와%20Arirang%20형태소%20분석기를%20살펴%20보았습니다 http://node201.hadoop.com:9200/korea/_analyze?pretty&analyzer=kr_analyzer&text=이전%20글에서%20ElasticSearch와%20Arirang%20형태소%20분석기를%20살펴%20보았습니다]. *elasticsearch-analysis-korean-1.3.0.jar 파일 구조 :*es-plugin.properties plugin=org.elasticsearch.plugin.analysis.kr.AnalysisKoreanPlugin :*packages org.apache.lucene.analysis.kr dic/ KoreanAnalyzer.java KoreanFilter.java KoreanTokenizer.java org.apache.solr.analysis.kr KoreanFilterFactory.java KoreanTokenizerFactory org.elasticsearch.index.analysis KoreanAnalysisBinderProcessor.java KoreanAnalyzerProvider.java KoreanFilterFactory.java KoreanTokenizerFactory.java org.elasticsearch.plugin.analysis.kr AnalysisKoreanPlugin.java *프로그램 호출 구조 :*AnalysisKoreanPlugin.java : AnalysisModule로 KoreanAnalysisBinderProcessor 등록 :*KoreanAnalysisBinderProcessor.java : Analyzer, Tokenizer, Filter 등록 ::*KoreanAnalyzerProvider.java (kr_analyzer) -> KoreanAnalyzer ::*KoreanTokenizerFactory.java (kr_tokenizer) -> KoreanTokenizer ::*KoreanFilterFactory.java (kr_filter) -> KoreanFilter == ElasticSarch 폴더 구조 == {| border="1" cellspacing="0" cellpadding="2" style="width: 100%;" |- | style="text-align: center; background-color: rgb(204, 204, 204);" | 폴더 | style="text-align: center; background-color: rgb(204, 204, 204);" | 설정 변수 | style="text-align: center; background-color: rgb(204, 204, 204);" | 상세 |- | style="text-align: center;" | bin | style="text-align: center;" | <br/> | *윈도우용 실행 파일 **elasticsearch.bat : ElasticSearch 실행 **service.bat : Service 형태로 ElasticSearch 실행<br/>service.bat install | remove | start | stop | manager [SERVICE_ID] **plugin.bat : Plugin Manager 실행 *Linux용 실행 파일 **elasticsearch : ElasticSearch 실행 **plugin : Plugin Manager 실행 |- | style="text-align: center;" | config | style="text-align: center;" | path.conf | *설정 파일 폴더 *elasticsearch.yml : ElasticSearch 설정 파일 *logging.yml : 로그 설정 파일 |- | style="text-align: center;" | data | style="text-align: center;" | path.data | *데이터와 인덱스를 저장하는 폴더 |- | style="text-align: center;" | lib | <br/> | *ElasticSearch용 라이브러리 **<font color="#333333">[[Lucene|Lucene]] 검색 엔진 라이브러리</font> **<font color="#333333">[[Sigar|Sigar]] 라이브러리 : CPU, Memory, Disk 등을 모니터링</font> |- | style="text-align: center;" | logs | style="text-align: center;" | path.logs | *로그 폴더 |- | style="text-align: center;" | plugins | style="text-align: center;" | path.plugins | *ElasticSearch 플러그인 폴더 |- | style="text-align: center;" | work | style="text-align: center;" | path.work | *임시 작업용 폴더 |} *path.home : ElasticSearch가 설치된 폴더를 지정하는 설정 변수 == Java 개발 환경 구성 == === ElasticSearch Java 환경 구성 === *[http://www.elasticsearch.org/download/ ElasticSearch 다운로드] 사이트에서 elasticsearch-1.2.1.zip 파일을 다운로드 합니다. :*lib/elasticsearch-1.2.1.jar *[https://github.com/elasticsearch/elasticsearch/ ElasticSearch github] 사이트에서 elasticsearch-master.zip 파일을 다운로드 합니다. :*src/main/java/ 폴더 아래의 소스 파일을 사용 합니다. === Lucene Java 환경 구성 === *[http://lucene.apache.org/ Lucene] 사이트에서 "DOWNLOAD" 버튼을 눌러 lucene-4.8.1.zip 파일을 다운로드 합니다. :*core/lucene-core-4.8.1.jar *[http://lucene.apache.org/ Lucene] 사이트에서 "DOWNLOAD" 버튼을 눌러 lucene-4.8.1-src.tgz 파일을 다운로드 합니다. :*core/src/java/ 폴더 아래의 소스 파일을 사용 합니다. === Arirang Java 환경 구성 === *[https://lucenekorean.svn.sourceforge.net/svnroot/lucenekorean/ SVN 저장소]에서 소스를 다운로드 합니다. :*arirang.morph 소스를 먼저 받아 mvn install 진행 *[http://cafe.naver.com/korlucene/1102 http://cafe.naver.com/korlucene/1102] *[http://svn.apache.org/repos/asf/lucene/dev/branches/lucene4956/lucene/analysis/arirang/ http://svn.apache.org/repos/asf/lucene/dev/branches/lucene4956/lucene/analysis/arirang/] *사전 구성 및 사용법 :*[http://cafe.naver.com/korlucene/6 http://cafe.naver.com/korlucene/6] :*[http://cafe.naver.com/korlucene/877 http://cafe.naver.com/korlucene/877] [[File:Arirang 사전.zip|파일:Arirang 사전.zip]] [http://www.jopenbusiness.com/mediawiki/images/5/54/Arirang_사전.zip http://www.jopenbusiness.com/mediawiki/images/5/54/Arirang_사전.zip] ==REST API== ===기본 구조=== *REST API 형식 :*http://node201.hadoop.com:9200/index/type/id :*http://node201.hadoop.com:9200/[index/][type/]action :*curl -X<REST Verb> <Node>:<Port>/<Index>/<Type>/<ID> ::*curl 'node201.hadoop.com:9200/index/type/id' ::*curl 'node201.hadoop.com:9200/[index/][type/]action' :*index, type, id를 여러개 지정할 경우 ","를 사용하여 구분. * 사용 가능 :*공통 parameter ::*pretty : 반환 값이 있다면 JSON response를 표시 ::*v : verbose. 상세 정보 표시 ::*help : 사용 가능한 컬럼 정보 표시 ::*h=컬럼1,컬럼2 : headers. 컬럼 표시 ::*bytes=b : 1kb 대신에 1024와 같이 숫자를 표시 *curl REST Verb (curl -X???) {|cellspacing="0" cellpadding="2" border="1" width="100%" bgcolor="#FFFFFF" align="center" |- |width="20%" align="center" valign="middle" style="background-color:#eee;"|등록<br/>(POST, PUT) |width="80%"| *customer 인덱스 생성 curl -XPUT 'node201.hadoop.com:9200/customer?pretty' curl -GET 'node201.hadoop.com:9200/_cat/indices?v' *external 타입으로 문서 추가 :*문서 번호는 자동으로 생성 curl -XPOST 'node201.hadoop.com:9200/customer/external?pretty' -d ' { "name": "Mountain Lover" }' curl -XGET 'node201.hadoop.com:9200/customer/external/1lz2jL6CQui07FnZGd_R9w?pretty' *external 타입으로 1번 문서 추가 curl -XPUT 'node201.hadoop.com:9200/customer/external/1?pretty' -d ' { "name": "Mountain Lover" }' curl -XGET 'node201.hadoop.com:9200/customer/external/1?pretty' |- |align="center" valign="middle" style="background-color:#eee;"|수정<br/>(POST, PUT) | *external 타입으로 1번 문서 수정 curl -XPOST 'node201.hadoop.com:9200/customer/external/1/_update?pretty' -d ' { "doc": { "name": "Mountain Lover!", "age": 20 } }' curl -XGET 'node201.hadoop.com:9200/customer/external/1?pretty' *external 타입으로 1번 문서 수정 curl -XPUT 'node201.hadoop.com:9200/customer/external/1?pretty' -d ' { "name": "Mountain Lover!" }' curl -XGET 'node201.hadoop.com:9200/customer/external/1?pretty' |- |align="center" valign="middle" style="background-color:#eee;"|삭제<br/>(DELETE) | *문서 삭제 curl -XDELETE 'node201.hadoop.com:9200/customer/external/1?pretty' curl -XGET 'node201.hadoop.com:9200/customer/external/1?pretty' curl -XDELETE 'node201.hadoop.com:9200/customer/external/_query?pretty' -d ' { "query": { "match": { "name": "Mountain Lover!" } } }' curl -XGET 'node201.hadoop.com:9200/customer/external/1?pretty' *customer 인덱스 삭제 curl -XDELETE 'node201.hadoop.com:9200/customer?pretty' curl -GET 'node201.hadoop.com:9200/_cat/indices?v' |- |align="center" valign="middle" style="background-color:#eee;"|조회<br/>(GET) | *조회 curl -GET 'node201.hadoop.com:9200/_cat/indices?v' curl -XGET 'node201.hadoop.com:9200/customer/external/1?pretty' *조회되는 데이터 구조 :*_index :*_type :*_id :*_version : 1, 2, 3, ... :*_source : { name1: value1, name2: value2 } |- |align="center" valign="middle" style="background-color:#eee;"|검색<br/>(GET, POST) | *REST request URI curl -XGET 'node201.hadoop.com:9200/customer/_search?q=*&pretty' *REST request body curl -XPOST 'node201.hadoop.com:9200/customer/_search?pretty' -d ' { "query": { "match_all": {} } }' |} ===Document API=== *index api : -XPUT : 등록, -XPOST : 등록 (id 자동 생성) :*/_create ::*?op_type=create : 이미 데이터가 있으면 오류 :*?routing=~ : routing에 지정한 값의 해쉬값을 사용하여 작업할 node 지정 :*?version=n :*?parent=~ :*?timestamp=2014-11-15T14%3A12%3A12 :*?ttl=34 : time to live (milliseconds) :*?consistency=one, quorum, all :*?replication=async, sync :*?refresh=true :*?timeout=5m *get api : -XGET :*?fields=~,~ :*?routing=~ : routing에 지정한 값의 해쉬값을 사용하여 작업할 node 지정 :*?version=n :*?realtime=false :*/_source : _source 필드만 반환 (-XHEAD 사용 가능) :*?_source=false : _source 필드를 반환하지 않음 ::*?_source_include, _source_exclude :*?preference=_primary, _local, ~ :*?refresh=true *delete api : -XDELETE :*?routing=~ : routing에 지정한 값의 해쉬값을 사용하여 작업할 node 지정 :*?version=n :*?parent=~ :*?consistency=one, quorum, all :*?replication=async, sync :*?refresh=true :*?timeout=5m *update api : -XPUT :*/_update :*"script" 필드 사용법 ::*ctx._source.필드명 "script" : "ctx._source.counter += count", "params" : { #--- script에 인자 전달 "count" : 4 } ctx._source.remove(\"text\") #--- 필드 삭제 ctx._source.tags.contains(tag) ? (ctx.op = \"delete\") : (ctx.op = \"none\") if (ctx._source.tags.contains(tag)) { ctx.op = \"none\" } else { ctx._source.tags += tag } :*"upsert" : 필드가 있으면 수정, 없으면 등록 :*"doc_as_upsert": true : 문서가 있으면 수정, 없으면 등록 :*?routing=~ : routing에 지정한 값의 해쉬값을 사용하여 작업할 node 지정 :*?parent=~ :*?replication=async, sync :*?timeout=5m :*?consistency=one, quorum, all :*?refresh=true :*?fields=~,~ :*?version=n :*?version_type :*?timestamp=2014-11-15T14%3A12%3A12 ::*ctx._timestamp :*?ttl=34 : time to live (milliseconds) ::*ctx._ttl *multi get api : -XGET, /_mget curl -XGET 'node201.hadoop.com:9200/_mget' -d '{ "docs": [ { "_index": "~", "_type": "~", "_id": "~" } } }' curl -XGET 'node201.hadoop.com:9200/customer/external/_mget' -d '{ "ids": ["~", "~"] }' :*"_source" "_source": false "_source": [ "field1", "field2" ] "_source": { "include": [ "~" ], "exclude": [ "~", "~" ] } :*"fields": [ "~", "~" ] :*"_routing": "~" *bulk api : /_bulk :*requests 파일 #--- index, create, update, delete { "index": { "_index": "~", "_type": "~", "_id": "~" } } { "field1": "value1" } { "update": { "_index": "~", "_type": "~", "_id": "~" } } { "doc": { "field1": "value1" }, "doc_as_upsert": true } #--- upsert, doc_as_upsert, script, params, lang 파라메터 지원 :*bulk api curl -s -XPOST 'node201.hadoop.com:9200/_bulk --data-binary @requests :*_version, _routing, _parent, _timestamp, _ttl, _consistency :*?refresh=true *delete by query api : -XDELETE, /_query curl -XDELETE 'node201.hadoop.com:9200/customer/external/_query?q=user:~' #--- q : query #--- df : default field #--- analyzer : query analyzer #--- default_operator : OR (default), AND curl -XDELETE 'node201.hadoop.com:9200/customer/external/_query' -d '{ "query": { "term": { "user": "~" } } '} :*?routing=~ : routing에 지정한 값의 해쉬값을 사용하여 작업할 node 지정 :*?replication=async, sync :*?consistency=one, quorum, all *bulk udp api :*설정 bulk.udp.enabled: true bulk.udp.bulk_actions: 1000 bulk.udp.bulk_size: 5m #-- 5MB bulk.udp.flush_interval: 5s bulk.udp.concurrent_requests: 4 bulk.udp.host: #--- network.host에 지정된 값이 default임 bulk.udp.port; 9700-9800 bulk.udp.receive_buffer_size: 10mb :*사용법 cat requests | nc -w 0 -u node201.hadoop.com 9700 *term vectors api curl -XGET 'node201.hadoop.com:9200/customer/external/1/_termvector?pretty=true&fields=~,~" *multi termvectors api curl -XGET 'node201.hadoop.com:9200/_mtermvectors' -d '{ "docs": [ { "_index": "~", "_type": "~", "_id": "~", "term_statistics": true } ] '} ===Search API=== *http://www.elasticsearch.org/guide/en/elasticsearch/reference/current/_the_search_api.html *http://www.elasticsearch.org/guide/en/elasticsearch/reference/current/query-dsl.html *REST request uri search :*q : [http://www.elasticsearch.org/guide/en/elasticsearch/reference/current/query-dsl-query-string-query.html Query String Query] :*analyzer :*default_operator : OR (default), AND :*_source = false, _source_include, _source_exclude :*df : 디폴트 필드 지정 :*fields : 필드 지정 :*sort : field:asc, field:desc :*explain :*track_score = true :*timeout :*from : 반환할 레코드의 시작 인덱스 (0, 1, 2, ...) :*size : 반환할 레코드 수 (디폴트는 10) :*search_type : query_then_fetch (default), dfs_query_the_fetch, dfs_query_and_fetch, query_and_fetch, count, scan :*lowercase_expanded_terms :*analyze_wildcard : false (default), true :*scroll=5m :*preference : _primary, _primary_first, _local, _only_node:xyz, _prefer_node:xyz, _shards:2,3 curl -XGET 'node201.hadoop.com:9200/customer/_search?q=*&pretty' curl -XGET 'node201.hadoop.com:9200/customer/_search?pretty&q=user:kimchi' *REST request body search :*_all : 모든 인덱스를 가르키는 예약어 :*?routing=~ : routing에 지정한 값의 해쉬값을 사용하여 작업할 node 지정 :*"from" : 0 :*"size" : 10 :*"sort" : [ { "post_date" : {"order" : "asc"}}, "_score" ] :*"_source": false :*"_source": { "include": [ "obj1.*", "obj2.*" ], "exclude": [ "*.description" ] } :*"fields" : ["user", "postDate"] :*"script_fields" : 계산을 통하여 새로운 필드 생성 :*"fielddata_fields" : ["test1", "test2"] :*"post_filter" : { "term" : { "tag" : "green" } } :*"highlight" : 결과에 highlight 추가 :*"rescore" : _score 계산 규칙 조정 :*"explain": true :*"version": true curl -XGET 'node201.hadoop.com:9200/customer/_search?pretty' -d ' { "query": { "match_all": {} }, "sort": { "balance": { "order": "desc" } }, #--- 정렬 "from": 10, #--- 10번째까지 skip "size": 10, #--- 10개의 데이터 반환 "_source": [ "account_number", "balance" ] #--- 반환할 필드 지정 }' *query curl -XGET 'node201.hadoop.com:9200/customer/_search?pretty' -d ' { "query": { "term": { "user": "kimchi" } } }' *match_all query curl -XGET 'node201.hadoop.com:9200/customer/_search?pretty' -d ' { "query": { "match_all": {} } }' *match query curl -XPOST 'node201.hadoop.com:9200/customer/_search?pretty' -d ' { "query": { "match": { "account_number": 20 } } }' *match_phrase query curl -XPOST 'node201.hadoop.com:9200/customer/_search?pretty' -d ' { "query": { "match_phrase": { "address": "mill lane" } } }' *bool query curl -XPOST 'node201.hadoop.com:9200/customer/_search?pretty' -d ' { "query": { "bool": { #--- "must" : AND, "should" : OR, "must_not" : NOT (~ AND ~) "must": [ { "match": { "address": "mill" } }, { "match": { "address": "lane" } } ], "must_not": [ { "match": { "state": "ID" } } ] } } }' *filtered query curl -XPOST 'node201.hadoop.com:9200/customer/_search?pretty' -d ' { "query": { "filtered": { "query": { "match_all": {} }, "filter": { "range": { #--- range filter "balance": { "gte": 20000, "lte": 30000 } } } } } }' *aggregation curl -XPOST 'node201.hadoop.com:9200/customer/_search?pretty' -d ' { "size": 0, "aggs": { "group_by_state": { #--- count(state) 반환 "terms": { "field": "state" } } } }' curl -XPOST 'node201.hadoop.com:9200/customer/_search?pretty' -d ' { "size": 0, "aggs": { "group_by_state": { #--- state별 avg(balance) 반환 "terms": { "field": "state", "order": { "average_balance": "desc" } }, "aggs": { "average_balance": { "avg": { "field": "balance" } } } } } }' *search shards api : search 문이 어떤 노드의 shards에서 처리되었는지 정보 반환 curl -XGET 'node201.hadoop.com:9200/customer/_search_shards' *search template : Template를 사용하여 search문 구성 curl -XGET 'node201.hadoop.com:9200/customer/_search/template?pretty' -d '{ "template" : { "query": { "match" : { "{{my_field}}" : "{{my_value}}" } }, "size" : "{{my_size}}" }, "params" : { "my_field" : "foo", "my_value" : "bar", "my_size" : 5 } }' ====facets==== *search에 결과에 대한 aggregation 처리나 통계 처리 :*terms : 필드에 대한 통계 처리 curl -XPOST 'node201.hadoop.com:9200/customer/_search?pretty=true' -d '{ "query" : { ~ }, "facets": { "terms": { "field": "~" } } }' *facets global 설정 :*main : 현재 search문에만 적용 :*global : 모든 search문에 적용 curl -XPOST 'node201.hadoop.com:9200/customer/_search?pretty=true' -d '{ "facets": { "myFacets": { "terms": { "field": "~" }, "global": true } } }' *facet filter curl -XPOST 'node201.hadoop.com:9200/customer/_search?pretty=true' -d '{ "facets": { "myFacets": { "terms": { "field": "~" } }, "facet_filter" { "terms": { "user": "kimchi" } } } }' *terms facet : 빈도수가 높은 10개의 terms을 반환 :*"all_terms" : true :*"exclude" : ["term1", "term2"] :*"regex" : "_regex expression here_", "regex_flags" : "DOTALL" :*"script" : "term + 'aaa'" :*"script" : "term == 'aaa' ? true : false" :*"script_field" : "_source.my_field", curl -XPOST 'node201.hadoop.com:9200/customer/_search?pretty=true' -d '{ "query" : { ~ }, "facets": { "필드": { "terms": { "field": "~", "size": 10, "order": "count" #--- count (default), term, reverse_count, reverse_term } } } }' ===APIs=== {|cellspacing="0" cellpadding="2" border="1" width="100%" bgcolor="#FFFFFF" align="center" |- |width="20%" align="center" valign="middle" style="background-color:#eee;"|API |width="80%" align="center" valign="middle" style="background-color:#eee;"|상세 |- |align="center" valign="middle"|_cat API | *http://www.elasticsearch.org/guide/en/elasticsearch/reference/current/cat.html *Cluster health check : http://node201.hadoop.com:9200/_cat/health?v *Node information : http://node201.hadoop.com:9200/_cat/nodes?v *Index information : http://node201.hadoop.com:9200/_cat/indices?v :*http://node201.hadoop.com:9200/_cat/indices/인덱스명?v *Master information : http://node201.hadoop.com:9200/_cat/master?v *Shards information : http://node201.hadoop.com:9200/_cat/shards?v :*http://node201.hadoop.com:9200/_cat/shards/샤드명?v *Alias information : http://node201.hadoop.com:9200/_cat/aliases?v *Distk 할당 정보 : http://node201.hadoop.com:9200/_cat/allocation?v *전체 문서 개수 : http://node201.hadoop.com:9200/_cat/count?v :*인덱스의 문서 개수 : http://node201.hadoop.com:9200/_cat/count/인덱스명?v *Node별 로드된 필드 데이터 정보 : http://node201.hadoop.com:9200/_cat/fielddata?v *http://node201.hadoop.com:9200/_cat/fielddata/필드1,필드2?v *http://node201.hadoop.com:9200/_cat/fielddata?v&fields=필드1,필드2 *Pending tasks information : http://node201.hadoop.com:9200/_cat/pending_tasks?v *Plugin information : http://node201.hadoop.com:9200/_cat/plugins?v *Recovery information : http://node201.hadoop.com:9200/_cat/recovery?v *Thread pool information : http://node201.hadoop.com:9200/_cat/thread_pool?v |- |align="center" valign="middle"|_nodes API | *http://www.elasticsearch.org/guide/en/elasticsearch/reference/current/cluster.html *Node명 지정 방법 :*_nodes/_local : 로컬 node :*_nodes/IP1,IP2 :*_nodes/노드명 :*_nodes/노드속성 |- |align="center" valign="middle"|_cluster API | *http://www.elasticsearch.org/guide/en/elasticsearch/reference/current/cluster-health.html *Cluster health check : http://node201.hadoop.com:9200/_cluster/health?pretty=true :*http://node201.hadoop.com:9200/_cluster/health/인덱스1,인덱스2?pretty=true |- |align="center" valign="middle"| | |- |align="center" valign="middle"| | |- |align="center" valign="middle"| | |- |align="center" valign="middle"| | |- |align="center" valign="middle"| | |- |align="center" valign="middle"| | |- |align="center" valign="middle"| | |- |align="center" valign="middle"| | |} *참고 문헌 :*[http://www.elasticsearch.org/guide/en/elasticsearch/reference/current/query-dsl.html Query DSL] :*http://www.querydsl.com/ ===Basic API=== *Node curl -X GET http://node201.hadoop.com:9200/_status #--- 상태 확인 *Index 관리 (데이터베이스) :*_all : 모든 index 적용 curl -X POST http://node201.hadoop.com:9200/index001 #--- index 생성 curl -X DELETE http://node201.hadoop.com:9200/index001 #--- index 삭제 curl -X GET http://node201.hadoop.com:9200/index001/_mapping #--- Mapping 조회 curl -X GET http://node201.hadoop.com:9200/index001/_status #--- 상태 확인 curl -X GET http://node201.hadoop.com:9200/index001/_search #--- 검색 curl -X GET http://node201.hadoop.com:9200/_all/_search #--- 검색 *Type 관리 (테이블) #--- type 생성, _id는 자동으로 생성됨 curl -X POST http://node201.hadoop.com:9200/index001/type001 -d '{ title: "Greeting", body: "Hello World!" }' curl -X DELETE http://node201.hadoop.com:9200/index001/type001 #--- type 삭제 curl -X GET http://node201.hadoop.com:9200/index001/type001/_mapping #--- Mapping 조회 curl -X GET http://node201.hadoop.com:9200/index001/type001/_status #--- 상태 확인 curl -X GET http://node201.hadoop.com:9200/index001/type001/_search #--- 검색 http://node201.hadoop.com:9200/index001/type001/_search?q=title:Gre*ting *Mapping 관리 (테이블 스키마) #--- Mapping 생성 curl -X PUT http://node201.hadoop.com:9200/index001/type001/_mapping -d '{ type001: { properties: { title: { type: "string", index: "not_analyzed" } } } }' curl -X GET http://node201.hadoop.com:9200/index001/type001/_mapping #--- Mapping 조회 *Document 관리 (레코드) #--- document 생성 curl -X POST http://node201.hadoop.com:9200/index001/type001/data001 -d '{ title: "Greeting", body: "Hello World!" }' curl -X POST http://node201.hadoop.com:9200/index001/type001/data001/_update -d '{ title: "Greeting", body: "Hello World!" }' curl -X DELETE http://node201.hadoop.com:9200/index001/type001/data001 #--- data001 데이터 삭제 curl -X GET http://node201.hadoop.com:9200/index001/type001/data001 #--- data001 데이터 조회 #--- document 검색 curl -X GET http://node201.hadoop.com:9200/index001/type001/_search -d '{query: {text: {_all: "Hello"}}}' *Search :*q : 검색어, fieldName:fieldValue :*default_operator=OR : 기본 연산자, AND, OR :*fields=_source : 반환할 필드 :*sort : 정렬, field:asc, field:desc :*timeout : 검색 수행 타임아웃, default는 무제한 :*size=10 : 반환할 데이터의 개수 http://node201.hadoop.com:9200/index001/type001/_search?q=title:Gre*ting curl -X POST http://node201.hadoop.com:9200/index001/type001/_search -d '{ query: {term: {title: "Greeting"}} }' curl -X POST http://node201.hadoop.com:9200/index001/type001/_search -d '{ query: {bool: {must: {match: {title: "Greeting"}}}} }' *Prefix query :*scoring_boolean :*constant_score_boolean : score를 계산하지 않음 :*constant_score_filter : filter를 사용 :*top_terms_n : scoring_boolean과 유사하나 n개의 결과만 반환 :*top_terms_boost_n : top_terms_n과 유사하지만 boost에 대해서 score 계산 curl -X GET 'http://node201.hadoop.com:9200/index001/type001/_search?pretty' -d '{ "query": { "prefix": { "name": "j", #--- j로 시작하는 단어 검색 "rewrite": "constant_score_boolean" } } }' *Rescore { "fields" : ["title", "available"], "query" : { "match_all" : {} }, "rescore" : { "query" : { "rescore_query" : { "custom_score" : { "query" : { "match_all" : {} }, "script" : "doc['year'].value" } } } } } :*window_size :*query_weight :*rescore_query_weight :*rescore_mode = total , max , min , avg , and multiply ::*total : original_query_score * query_weight + rescore_query_score * rescore_query_weight ===Bulk API=== *Bulk로 문서 등록, 수정, 삭제 curl -XPOST 'node201.hadoop.com:9200/customer/external/_bulk?pretty' -d ' {"index":{"_id":"1"}} {"name": "John Doe" } {"index":{"_id":"2"}} {"name": "Jane Doe" } ' curl -XPOST 'node201.hadoop.com:9200/customer/external/_bulk?pretty' -d ' {"update":{"_id":"1"}} {"doc": { "name": "John Doe becomes Jane Doe" } } {"delete":{"_id":"2"}} ' *documents.json 파일을 사용하여 Bulk indexing curl -XPOST http://node201.hadoop.com:9200/customer/external/_bulk?pretty --data-binary @documents.json *Multi Get curl http://node201.hadoop.com:9200/library/book/_mget?fields=title -d '{ "ids" : [1,3] }' *MultiSearch curl http://node201.hadoop.com:9200/library/books/_msearch?pretty --data-binary ' { "type" : "book" } { "filter" : { "term" : { "year" : 1936} }} { "search_type": "count" } { "query" : { "match_all" : {} }} { "index" : "library-backup", "type" : "book" } { "sort" : ["year"] } ' *Sort { "query" : { "terms" : { "title" : [ "crime", "front", "punishment" ], "minimum_match" : 1 } }, "sort" : [ { "section" : "desc" } #-- {"release_dates" : { "order" : "asc", "mode" : "min" }} #-- min, max, avg, sum ] } ===Indexing data=== *REST API :*[heep://curl.haxx.se curl]을 사용하여 테스트 가능 curl -XPUT http://localhost:9200/blog/article/1 -d '{~}' *bulk API *UDP bulk API *river plugin ===User Query DSL=== *[[Lucene#Lucene_Query_language|Lucene Query language]] *TF/IDF (Term Frequency / Inverse Document Frequency) :*Document boost :*Field boost :*Coord :*Inverse document frequency :*Length norm :*Term frequency :*Query norm [[파일:LuceneScore01.png|700px]] [[파일:LuceneScore02.png|700px]] :*q : Query :*d : Document *Query type :*custom_boost_factor :*constant_score :*custom_score ==JAVA API== ===Client=== import static org.elasticsearch.node.NodeBuilder.nodeBuilder; import org.elasticsearch.client.Client; import org.elasticsearch.client.transport.TransportClient; import org.elasticsearch.common.settings.ImmutableSettings; import org.elasticsearch.common.settings.Settings; import org.elasticsearch.common.transport.InetSocketTransportAddress; import org.elasticsearch.node.Node; private Boolean getTransportClient() { Settings settings = null; settings = ImmutableSettings.settingsBuilder().put("cluster.name", CLUSTER_NAME).build(); client = new TransportClient(settings).addTransportAddress(new InetSocketTransportAddress(HOST, PORT)); return true; } //--- elasticsearch.yml //--- cluster.name=~ private Boolean getNodeClient() { node = nodeBuilder().clusterName(CLUSTER_NAME).client(true).local(true).node(); client = node.client(); return true; } ===index java api=== import static org.elasticsearch.common.xcontent.XContentFactory.jsonBuilder; import org.elasticsearch.action.index.IndexResponse; json = jsonBuilder().startObject() .field("name", "value") .endObject().string(); res = client.prepareIndex("index", "type", "id").setSource(json).execute().actionGet(); UtilLogger.info.print(logCaller, "_index : " + res.getIndex()); UtilLogger.info.print(logCaller, "_type : " + res.getType()); UtilLogger.info.print(logCaller, "_id : " + res.getId()); UtilLogger.info.print(logCaller, "_version : " + res.getVersion()); UtilLogger.info.print(logCaller, "_index : " + res.getIndex()); ===get java api=== ==관리자 매뉴얼== ===elasticsearch.yml=== *index.query.bool.max_clause_count ===오류 처리=== *Heap 메모리 부족시 :*vi /nas/appl/elasticsearch/bin/elasticsearch.in.sh #ES_MIN_MEM=256m #ES_MAX_MEM=1g ES_MIN_MEM=4g ES_MAX_MEM=4g *많은 Client에서 접속하여, 파일 개수 부족으로 오류 발생시 :*오류 메시지 org.elasticsearch.common.netty.channel.ChannelException: Failed to create a selector. Caused by: java.io.IOException: Too many open files :*조치 방법 ulimit -n vi /etc/security/limits.conf hduser soft nofile 999999 hduser hard nofile 999999 ==참고 문헌== *[[RegExp]] *[[Nutch]] *[[Lucene]] / [[Solr]] *[[Sigar]] *http://guruble.wordpress.com/tag/elasticsearch/ *http://www.youtube.com/watch?v=6qpVJPNEkWc *https://www.found.no/tag/Elasticsearch/ :*https://www.found.no/search/#search/query=ElasticSearch :*https://www.found.no/foundation/elasticsearch-internals/ :*[https://code.google.com/p/google-guice/ Guice] :*[http://en.wikipedia.org/wiki/Dependency_injection Dependency injection] :*[http://www.jamesshore.com/Blog/Dependency-Injection-Demystified.html Dependency Injection Demystified, 2006.03] *http://jjeong.tistory.com/ :*[http://jjeong.tistory.com/m/post/958 Elasticsearch: lucene arirang analyzer plugin, 2014.04] :*[http://jjeong.tistory.com/957 lucene: arirang maven build 하기, 2014.04] :*[http://jjeong.tistory.com/m/post/818 Elasticsearch: Plugins - site 플러그인과 custom analyzer 플러그인 만들기, 2013.04] :*[http://jjeong.tistory.com/743 elasticsearch 한국어 형태소분석기 분석의 이해, 2013.01] *http://cafe.naver.com/korlucene *Helloworld naver :*http://helloworld.naver.com/helloworld/645609 :*[http://helloworld.naver.com/helloworld/273788 elasticsearch로 로그 검색 시스템 만들기, 2013.02] *[http://www.sejong.or.kr/ 21세기 세종계획] *[http://nlp.postech.ac.kr/Course/CS730b/2005/ Statistical Natural Language Processing] :*[http://hegel.postech.ac.kr:5000/Research/POSTAG/sejong/postag_sejong_k.php POSTAG_SEJONG/K] *http://elasticsearch-kr.github.io *https://github.com/imotov/elasticsearch-facet-script *https://www.found.no/foundation/writing-a-plugin/ *http://en.wikipedia.org/wiki/ElasticSearch *[http://socurites.com/122 로그 파일에 대해 Elasticsearch 사용하기, 2012.10] *[http://misoin.tistory.com/27 elasticsearch (검색엔진) 설치 – 한글형태소분석기 적용, 2012.12] *[http://www.mimul.com/pebble/default/2012/02/23/1329988075236.html ElasticSearch 설치 및 샘플 사용기, 2012.02] *[http://helloworld.naver.com/helloworld/273788 elasticsearch로 로그 검색 시스템 만들기, 2013.02] *[https://gist.github.com/rajraj/1556657 Install ElasticSearch on CentOS 6] *[http://misoin.tistory.com/m/27 elasticsearch cluster 설치 + 한글형태소분석기, 2012.12] *ElasticSearch (http://guruble.wordpress.com/tag/elasticsearch/) :*[http://guruble.wordpress.com/2014/02/23/elasticsearch-1-%EC%8B%9C%EC%9E%91%ED%95%98%EA%B8%B0/ Elasticsearch - 1. 시작하기] :*[http://guruble.wordpress.com/2014/02/23/elasticsearch-2-shard-replica/ Elasticsearch - 2. Shard & Replica] :*[http://guruble.wordpress.com/2014/02/24/elasticsearch-3-node-discovery/ Elasticsearch - 3. Node Discovery] *http://blog.naver.com/PostView.nhn?blogId=sung487&logNo=10164948506 *MeCab (C++로 작성) :*https://bitbucket.org/eunjeon/mecab-ko-lucene-analyzer/raw/master/elasticsearch-analysis-mecab-ko/ (최신) :*https://github.com/bibreen/mecab-ko-lucene-analyzer (예전 버전) ::*https://github.com/bibreen/mecab-ko-lucene-analyzer/tree/master/elasticsearch-analysis-mecab-ko [[Category:Search]] [[Category:BigData]]
ElasticSearch
문서로 돌아갑니다.
둘러보기 메뉴
개인 도구
로그인
이름공간
문서
토론
변수
보기
읽기
원본 보기
역사 보기
더 보기
검색
주요 메뉴
오픈소스 컨설팅
오픈소스
오픈소스 라이선스
오픈소스 커뮤니티
오픈소스 종류
오픈소스 현황
오픈소스 한글화
문자셋과 인코딩
Storage
Network
보안
고가용성
모니터링
오픈 API
오픈 서비스
Cloud
BigData
Android
산사랑 노트
둘러보기
인기 문서
최근 수정 문서
모든 문서
모든 분류
임의 문서
위키 사용법
자매 사이트
CMS
오비컨 홈페이지
오비컨 CMS
블로그
데모 - SuiteCRM
산사랑의 Twitter
산사랑의 Facebook
친구 사이트
공개SW 포털
OLIS
한국공개소프트웨어협회
AppCenter 지원본부
OLC
PSEG
개발자 블로그
블로터
개인 메뉴
메뉴 수정
양식함
도구
여기를 가리키는 문서
가리키는 글의 최근 바뀜
특수 문서 목록
문서 정보