WPF 공부하기 24 - 상수

 

이번글은 WPF - 상수에 대해 설명드리겠습니다. 많은 도움 되시길 바랍니다.

 

 

상 수

 

- 항상 고정된 데이터형식과 값을 가지는 것

   예) 원주율 PI는 프로그램을 통틀어 고정된다.

 

- 변수선언과거의 동일하고, 앞에 const를 붙여주는 것만으로 상수가 된다. 상수는 선언시 값을 지정해 주어야 한다.

   예) const double PI=3.14159;

 

- 선언 시 할당하지 않으면 에러 발생

 

- 선언 후 다른 값을 할당해도 에러 발생

 

- 상수는 주로 대문자를 사용한다. 그리고 변수명과 같은 이름을 사용할 수 없다.

 

 

 

 

 

더 많은 공부를 원하시면 위에 공부하기 버튼을 눌러주세요 ^^

 

빅데이터 공부하기25 . Data 읽기, Data 쓰기

 

 

빅데이터 공부하기 25번째 글입니다.^^

이번글도 열심히 공부해볼까요?!

Data 읽기

 

1. 클라이언트는 먼저 NameNode와 통신하여 해당 파일의 데이터 블록 위치 리스트 (DataNode와 블록ID)를 얻음

 

2. 클라이언트는 DataNode들과 직접 통신하여 블록데이터들을 차례대로 읽어들임.

 

Data 쓰기

1. 클라이언트는 HDFS 파일을 생성하고자 하면 먼저 로컬파일시스템에 파일을 생성해야함

 

2. 파일 생성이 끝나거나 크기가 데이터블록의 크기보다 커지면 이때 NameNode를 컨택. NameNode는 파일생성요청을 메모리메타정보와 EditLog에 저장.

 

3. NameNode는 Replication factor만큼의 DataNode와 블럭 ID를 클라이언트에게 전송.

 

4. 클라이언트는 이중 첫번째 DataNode에 데이터를 쓰면서 replication이 벌어져야 하는 나머지 DataNode들의 리스트를 같이 넘긴다.

 

5. 첫번째 DataNode는 데이터를 복제받으면서 두번째 DataNode로 복제를 시작한다.

 

6. 마지막 DataNode에서 블록의 복제가 완료되면 이 시점에서 해당 데이터블록의 생성은 완료된 것으로 간주됨. 이 프로세스를 Replication pipelining이라함.

 

7. 클라이언트에서 파일에 써야할 데이터(데이터의 크기가 블록크기가 되거나 파일생성이 끝날때까지 기다림)가 더 있으면 다시 3으로 가서 반복.

 

 

 

빅데이터 오프라인교육은 아래를 클릭!!

↓↓

빅데이터 공부하기25 . Data 읽기, Data 쓰기

 

빅데이터 공부하기 24-1 NameNode

 

지난시간에 이어 빅데이터 공부하기 24-1 에서도

NameNode에 대하여 공부하도록 하겠습니다.

IT온라인 공부는 ORACLEJAVA  IT공부하자 티스토리에서~ ♪♪

IT오프라인 공부는 오라클자바교육센터에서 ~~♬

 

 

NameNode

 

- A single point of failure.
    * NameNode는 메타정보(HDFS namespace와 파일블록맵핑)를 메모리에

      유지하며 또한 모든 HDFS 클라이언트와의 트랜잭션을 EditLog라는 파일에

      수록함(문제시 복구목적).


    * Checkpoint: 이 작업이 시작되면 NameNode의 메타정보를 FsImage라는

      디스크파일로 쓰고 EditLog 파일을 리셋함. 


        - Secondary Name Node는 주기적으로 이 checkpoint를 요청하고 FsImage

          를 백업. 하지만 NameNode에 문제가 생길 경우 이를 바로 대체할 수 있는

          것은 아님.


    * Hadoop HA (High Availability)의 주요 개선 포인트 (Introduction of standby

      NameNode) - Hadoop 0.23 or Hadoop 2.0



- 세이프 모드 (Safe Mode)
    * 처음 스타트업시 NameNode는 마지막으로 저장된 FsImage를 읽어들이고

      다음으로 EditLog의 내용을 리플레이한다. 


    * 그 다음으로 클러스터내의 DataNode들로부터 상태와 보유블럭리스트를

      받아서 자신이 갖고 있는 정보와 맞춰본 다음에 replication factor들이 보장

      되고 있는지 확인하는데 이 과정 중에는 외부 요청에 반응하지 않음. 이 모드를

      세이프 모드라고 함.

 

빅데이터 공부하기 24-1 NameNode

빅데이터공부하기 24. NameNode

 

빅데이터공부하기 24번째 글은  NameNode에 대해 공부하겠습니다.

 

오늘하루도 기분 좋은하루보내시고~~ 열공해봅시다 ~! >0<

 

 

 

NameNode

 

HDFS마다 단 하나만 존재(Hadoop 1.X나 이전버전)

 

HDFS의 마스터 노드로 저장되는 각종파일들의 메타정보를 관리하고 실제 데이터는 다수의 Data Node에 분산 저장

- 파일이 블록단위(기본 64MB)로 나뉘어 저장되고 설정에 따라 보통 세 군데(replication factor)의 Data Node에 중복 저장

* 블록크기는 hdfs-site.xml의 dfs.block.size 파라미터로 조절가능

 

- Rack awareness : 중복저장시 Rack위치를 유념하여 한 rack에 모든 복제블록이 놓이지 않도록함.

 

Data Node들의 계속적으로 통신 (Hearbeat)

- 각 DataNode들로부터 현재 상태와 보유 데이터블록 리스트(블록리포트)를 체크

 

- 문제 Data Node가 감지되면 그 노드의 블록들을 다른 노드들에 복제 (replication factor를 유지 하려 시도)

 

- 기본적으로 둘간의 통신은 3초마다 일어나는데 이는 hdfs-site.xml의 dfs.heartbeat.interval 파라미터로 조절가능

 

 

HDFS의 내용은 앞글에서 공부했어요 ^^

확인하실분은 아래를 눌러주세요.

 

 빅데이터공부하기 23. HDFS 개요

 

 

 

 

빅데이터공부하기 24. NameNode

 

 

빅데이터공부하기 23. HDFS 개요

 

이번 23번째 빅데이터공부하기의 글은 HDFS의 개요입니다. ^^

 

빅데이터공부는 " ORACLEJAVA IT공부하자 " 티스토리 많이 애용해주세요

 

 

HDFS 개요

- 2003년 구글랩에서 발표된 The Google Filesystem이란 논문을 바탕으로 작성된 파일시스템.

 

- 이 시스템의 특징

* 파일을 여러개의 블록으로 나눠 저장 (기본 64MB)

* 하드웨어 고장에 견고

- 한 데이터블록을 보통 3군데 (Replication factor)에 저장하며 저장시 같은 rack에 있는 서버들에 두 개에 저장하고 다른 하나는 다른 rack에 있는 서버에 저장

 

* Write Once ReadMany

- Append작업은 가능하지만 내용을 바꾸기 위해서는 파일 전체를 새로 써야한다.

 

* 스트리밍 데이터 액세스

-  배치잡에 최적화

 

* MapReduce나 HBase와 같은 시스템의 기본구성블록으로 사용

* 계층구조의 파일시스템을 제공

 

 

 

빅데이터공부하기 23. HDFS 개요

 

빅데이터공부하기 22. 하둡공부

 

22번째 글입니다. 빅데이터공부하기 많은 애용바랍니다. ^^

 

 

빅데이터 온라인으로 공부가 힘드실 경우는 오프라인 강좌를

오라클자바교육센터에서 운영하고 있습니다.

 참고하시어 많은 신청바랍니다. ^---^

 

 

 

하둡 사용회사들

 

- http://wiki.apache.org/hadoop/PoweredBy/

 

- 대표적 회사들

국외: Facebook, Twitter, EBay, Linkedin, Yahoo, ...

국내: NHN, NCsoft, SDS

추세는 점점 빅데이터 하둡을 사용하고 있는 회사가 늘고 있습니다.

 

하둡의 문제점

 

- 너무나도 많은 버전과 부실한 서포트

* 3rd Party 배포판이 인기가 높은 이유..

 

- 셋업과 사용이 쉽지 않음

* 비용 / 시간이 들며 맞는 스킬셋을 가진 사람의 고용도 쉽지 않음.

 

- 하둡에 맞지 않는 작업도 존재

* 소규모이거나 대용량의 데이터처리가 필요하지 않다면 하둡으로 옮겨갈 이유가 없음..

 

빅데이터공부하기 21. 작업모델

 

21번째 빅데이터공부하기입니다.

 

하둡에대해서 계속계속 공부를 하도록 하겠습니다. 모두들 파이팅!!

 

 

작업모델

 

하둡자체는 아파치 소프트웨어 재단의 소유물

* 아파치 재단은 비영리조직

 

 

4가지 형태의 contribution이 가능

* 사용자(대부분)

* 컨트리뷰터 : 패치생성, 버그리포트, 문서 작성, ...

* 커미터 : 컨트리뷰터의 작업 반영 여부 결정.

* 프로젝트 관리 커미티 (PMC - Project Management Committee)

  : 새 릴리스와 커미터 선정 투표

 

 

 

하둡의 오프라인 강좌는 ---> 클릭을 눌러주세요 ^^

 

 

빅데이터공부하기 21. 작업모델

빅데이터공부하기 21. 하둡공부

 

주말 다들 잘 보내셨나요?? 이번주간도 힘차게 공부를 시작해보겠어요!!

이번 빅데이터공부하기 21번째글은 하둡에 대하여 공부를 해볼건데요.

첫번째는 Job Market에서의 하둡수요증대와 두번째는 하둡자격증에대해서

알아볼거에요^^

 

 

오라클자바교육센터와 함께하는 it공부하기 !! 시작해볼께요 ^^

 

1. Job Market에서의 하둡 수요 증대

- Hadoop Job trend from lndeed.com

Hadoop Job Trends

 

 

 

 

2. 하둡 라이센스

 

아파치 라이센스를 준수

- 무료 소프트웨어 라이센스

- 누구든 코드를 갖고 내부적으로 사용하거나 재배포하거나 심지어 파는

   것까지도 가능

- 단 Attribution이 필요함.

 

 

빅데이터공부하기 21. 하둡공부

 

 

+ Recent posts