다행히 개발용으로 사용하는 드라이브라 개발환경만 다시 세팅했고, 폴더공유 방화벽 설정과 net share해서 나오는 공유 삭제 조치
---
사진 내 내용 원문
ALL YOUR DOCUMENTS PHOTOS DATABASES AND OTHER IMPORTANT FILES HAVE BEEN ENCRYPTED! ==================================================================================================== Your files are NOT damaged! Your files are modified only. This modification is reversible.
The only 1 way to decrypt your files is to receive the private key and decryption program.
Any attempts to restore your files with the third party software will be fatal for your files! ==================================================================================================== To receive the private key and decryption program follow the instructions below:
1. Download "Tor Browser" from https://www.torproject.org/ and install it.
2. In the "Tor Browser" open your personal page here:
Note! This page is available via "Tor Browser" only. ==================================================================================================== Also you can use temporary addresses on your personal page without using "Tor Browser":
Kibana는 Elasticsearch와 함께 작동하도록 설계된 오픈 소스 분석 및 시각화 플랫폼입니다. Kibana를 사용하여 Elasticsearch 색인에 저장된 데이터를 검색하고보고 상호 작용할 수 있습니다. 고급 데이터 분석을 쉽게 수행하고 다양한 차트, 테이블 및 맵에서 데이터를 시각화 할 수 있습니다.
2. 설치 및 실행
환경 : Windows 7, Elasticsearch 6.5.4, Kibana 6.5.4, JDK 1.8
설치파일 다운로드
https://www.elastic.co/kr/downloads/kibana
압축 해제로 설치 후 디렉터리 구조
설치 완료 후 %KIBANA_HOME%/bin/kibana.bat을 실행하여 kibana 실행
- Elasticsearch가 실행 중 이여야 합니다.
Status changed from yellow to green - Ready 문구가 보이면 성공 !!
※ 환경설정
%KIBANA_HOME%/config/kibana.yml을 통해 환경설정이 가능합니다.
아래는 기본 환경설정파일의 일부이며 Default 설정이 주석으로 적혀 있습니다.
# Kibana is served by a back end server. This setting specifies the port to use.
..
#server.port: 5601
#server.host: "localhost"
#elasticsearch.url: "http://localhost:9200"
...
3. 기본 사용법
3.1 Main
브라우저로 localhost:5601(default) 접근 시 메인화면
현재 Elasticsearch에 저장된 데이터가 없기 때문에 kibana에서 제공하는 sample data를 추가하여 사용합니다.
적당한 데이터를 선택
Sampel을 추가하면 Elasticsearch에 해당 데이터셋이 저장되고 저장한 데이터를 kibana를 통해 시각화할 수 있습니다.
아래와 같이 추가된 Sample data를 확인할 수 있습니다.
- kibana
메인 > Management >Kibana > Index Patterns
kibana_sample_data_logs의 pattern 확인 !!
- Elasticsearch
elasticsearch index 확인 명령어(curl 사용)
curl -XGET 'localhost:9200/_cat/indices?v&pretty'
kibana_sample_data_logs의 index 확인 !!
3.2 Discover
데이터 셋을 raw한 json 형태로 확인할 수 있습니다.
3.3 Visualize
데이터 셋을 시각화 자료 추가 및 기존 시각화 자료 확인이 가능합니다.
기존의 시각화 자료
3.4 Dashboard
Visualize한 데이터를 토대로 자유롭게 커스터마이징 할 수있는 Dashboard입니다. Dashboard는 각각의 Panel로 이루어져 있습니다.
4. Reference
위 데이터 셋 및 시각화 자료는 Kibana에서 제공하는 Sample입니다.
직접 자신의 데이터셋을 시각화 하고싶다면 아래 kibana user guide를 참고하시기 바랍니다.
Elastic kibana user guide : https://www.elastic.co/guide/en/kibana/6.5/index.html
Logstash는 실시간 파이프라인 기능을 가진 오픈소스 데이터 수집 엔진입니다. Logstash는 서로 다른 소스의 데이터를 탄력적으로 통합하고 사용자가 선택한 목적지로 데이터를 정규화할 수 있습니다. 다양한 고급 다운스트림 분석 및 시각화 활용 사례를 위해 모든 데이터를 정리하고 대중화합니다.
logstash는 아래와 같은 아키텍처를 가지고 있습니다.
Input을 받아 커스텀 가능한 Filters로 가공하여 Output으로 내보내는 역할을 수행합니다. Logstash는 Elasticsearch와 연동하여 많이 사용되며 이 경우 Logstash의 Output이 Elasticsearch의 Input이 되어 동작합니다.
Filters
필터는 아래와 같은 config 형식을 사용하여 커스텀이 가능합니다.
input {
...
}
filter {
...
}
output {
...
}
2. 설치 및 실행
환경 : Windows 7, logstash 6.5.4, JDK 1.8
https://www.elastic.co/kr/downloads/logstash
ZIP 파일 다운로드 후 압축 해제로 간단하게 설치되며, 아래와 같은 디렉터리 구조 확인 가능
압축 해제한 폴더의 bin 아래의 logstash 실행파일을 CLI로 config 설정과 함께 실행
Elasticsearch는 Elastic에서 제공하는 확장성이 뛰어난 오픈 소스 텍스트 검색 및 분석 엔진입니다. 대량의 데이터를 신속하고 거의 실시간으로 저장, 검색 및 분석 할 수 있습니다. 일반적으로 복잡한 검색 기능과 요구 사항이 있는 응용 프로그램을 구동하는 기본 엔진 / 기술로 사용됩니다.
2. 기본 개념
DB와 컨셉은 유사하고 DB와 비교하여 이해하면 이해하기 용이하다.
ElasticSearch
DB
Index
Database
Type
Table
Document
Row
Field
Column
Mapping
Schema
다만 저장 방식은 DB와 차이를 보인다.
RDB의 경우 document=Item로 저장되어, 특정 Item을 검색하기 위해서는 모든 document를 조회하며 조건에 맞는 Item을 검색하는 반면,
Elasticsearch의 경우 Item=document의 방식으로 저장되어, 특정 Item을 가지는 document가 이미 저장 되어있어 검색시 매우 빠른 속도를 가진다.
또한 Elasticsearch는 REST API를 기본으로 동작한다.
3. 설치 및 실행
환경 : Windows 7, Elasticsearch 6.5.4, JDK 1.8
3.1 설치파일 다운로드
https://www.elastic.co/downloads/elasticsearch
3.2 알집 해제
3.3 elasticsearch.bat 실행
started 문구가 보이면 실행 성공!
3.4 확인
브라우저 접속 후 localhost:9200 접근 ( Elasticsearch Default port : 9200 )
4. 기본 동작
curl을 사용하여 CRUD 기본동작을 검증 ( Window에선 curl 사용을 위해선 추가 설치가 필요하며 본 과정에서는 Git Bash를 활용 )