본문 바로가기

Web & Mobile102

Flutter Study #2 Container와 Column / Row 비교 Flutter를 공부하다 보니 Widget 중에 Container와 Column, Row과 있고 이들의 특성을 지금 정리해두어야 나중에 안 헷갈릴거 같다. Container 1개의 Child Widget만 가질 수 있다. 다양하고 쓸만한 정렬 및 스타일 옵션들이 있다. Width 조절이 유연하다. 직접 style & 정렬을 Custom 하기에 사용하기 적합. Column / Row 다수의 Child Widget을 가질 수 있다. 정렬은 가능한데 스타일은 지정이 불가하다. 항상 Full Height Column / Full Width Row 이다. Widget들이 바로 옆에 위치하거나, 또는 위아래로 있거나 할때 무조건적으로 사용해야함. 그렇다고 이들이 서로.. 2021. 4. 13.
Flutter Study # 1 본인은 C언어를 주로 사용하여 Texas Instrument사의 DSP320F28335를 주로 사용하여 개발을 하는 임베디드 개발자이다. 잠시 웹개발자가 되려 일탈한 적이 있었지만, JAVA와 JSP등을 배워서 30넘어서 취직하는게 만만치 않았다. 취직할 수 있는 곳이야 있었지만, 받던 연봉보다 1000만원이나 아래로 떨어지게 되버리니 현타가 왔었다. 새로운 직무에 도전하면서 받던 연봉을 따지고 있다니 이 얼마나 한심한 자태인가 근데 나는 그게 포기가 안되었다. 그래서 당시 핫했던 React.js, Angular.js, Vue.js 3대장중에 React.js를 공부해서 웹 개발자가 되려 했었다. 그때쯤이 백수된지 6개월차에 접어들고 있을 때다. React.js를 공부하자니 모아둔 돈은 다 떨어져가고, 스.. 2021. 4. 13.
Lecture 94 - Python(11) WordCount Method hadoop에서 Python 사용하기 Project Assignment WordCounting in Python and Hadoop 1. python - 구글링 사이트 -> 워드카운트하는 프로그램 짜기 - 워드문서 - 소스 2. hadoop - standalone 사이트 -> 워드카운트 - 워드문서 -> 스크린샷 1. Python Word Count ''' Created on 2018. 10. 5. @author: kitcoop ''' import re with open('C:/Python/eclipse-workspace/AssignmentEx01/4300-0.txt', 'r', encoding='utf-8-sig') as file: data = file.read() # 정규식 사용 해당 문자를 공백화 .. 2019. 8. 14.
Lecture 93 - Hadoop(3) 3개 서버 연동하기 Hadoop 3개 서버 연동하기 1. namenode - secondary name node (backup) 2. datanode - 여러개 추가 가능 네트워크 네트마스크 : 255.255.255.0 게이트웨이 : 192.168.111.2 네임서버 : 192.168.111.2 1. 서버 (namenode) namenode ip : 192.168.111.131 2. 서버(slave1) secondary namenode datanode 1 ip : 192.168.111.132 3. 서버(slave2) datanode2 ip : 192.168.111.133 2, 3 데이터를 분산하여 가져옴(dfs) 방화벽 설정 CentOS 2개 복사한다. 나머지 slave1, slave2도 위와 같이 해준다. namenode.. 2019. 8. 13.
Lecture 92 - Hadoop(2) 기초, Yarn 서버 추가법 빅데이터 개념 : 3V 1. Volume(볼륨) : 데이터 크기(헥터바이트 이상의 크기가 나올때, 한개의 서버에 저장하지 못할때) 2. Velocity : 데이터 가공속도 (데이터 생성 속도) 3. Variety : 데이터의 다양성(데이터 내부에 생성되는 데이터의 종류가 다양함) +2가지를 추가한다. complexity value(데이터에 대한 가치성 - 비쥬얼라이제이션(시각화)) => 정규적인 형태의 데이터베이스에서는 처리 불가 => scale-out 형태의 병렬 처리구조(클러스터링) 형태의 데이터 처리구조가 나음(HDFS) => hadoop => 대용량(빅) 데이터를 분산(병렬) 처리할 수 있는 자바 기반의 오픈 소스 프레임워크(서버) => google - GFS, Map/Reduce 논문이 나옴 =.. 2019. 8. 12.
Linux CentOS에 Hadoop 설치 방법 Linux CentOS에 Hadoop을 설치해보자 2019. 8. 8.
Lecture 91 - Hadoop(1) 하둡 개념 및 기초 Hadoop : 복수의 서버를 묶어서 하나의 가상 서버로 사용할 수 있도록 하는 것. ■ 분산 파일 시스템과의 강한 연계를 통해, 높은 스루풋(Throughput) 처리를 실현하는 분산 처리 소프트웨어 : Hadoop은 크게 두 가지 구성 요소로 이루어져 있다. 하나는 분산 파일 시스템으로, 대용량 데이터를 복수의 서버에 저장하는 구조다. 복수의 서버를 조합해서 사용자에게 하나의 큰 파일 시스템을 제공한다. 다른 하나는 병렬 분산 처리를 실현하는 프레임워크다. 이것은 하나의 큰 처리(잡, job)를 복수의 단위(태스크, task)로 분할해서 실행하는 구조다. 이 분산 파일 시스템과 병렬 분산 처리 프레임워크가 공고히 연계되며, 높은 스루풋의 데이터 처리를 실현한다. 기술적인 관점에서 Hadoop을 한마디.. 2019. 8. 7.
Lecture 90 - Python(10) xml, html, json 처리법, 정규식 사용법 원격데이터 xml html(웹페이지) json * csv 문자열 중심(X) https://docs.python.org/3/library/markup.html https://wikidocs.net/42 => 위키독스에서 7장 파이썬도구들 -> 파이썬으로 XML처리하기 -> XML문서생성하기에서 저 내용 복사해서 이클립스에서 복사붙여넣기 파이썬으로 XMl 처리하기 XML 문서 생성하기 DataEx01.note.xml Tove Jani ''' parser = HTMLParser() parser.feed(html.strip()) print(parser.get_starttag_text()) parser.close() 콜 백 자동적으로 문서를 분석해줌 from html.parser import HTMLParser .. 2019. 8. 6.