전체 글
-
-
Backend 정리CS 면접 2021. 1. 29. 21:39
______________________________________________________________________________________________________________________________ 1. Hadoop - What is Hadoop? [m.blog.naver.com/PostView.nhn?blogId=acornedu&logNo=220957220179&proxyReferer=https:%2F%2Fwww.google.com%2F] HDFS : 하둡은 여러개의 컴퓨터를 하나로 묶어 대용량데이터를 처리하는 기술로 , 수천대의 분산된 x86장비에 대용량 파일을 저장할 수 있는 기능을 제공하는 분산파일 시스템과, MapReduce : 저장된 파일을 분산된 서버의 CPU와 ..
-
CH1. 특별메서드Python Study 2020. 7. 21. 14:08
200721 제목 1 1. 특별 메서드 (예시) __len()__ : 길이를 return __getitem()__ : obj[key] 형태의 호출을 지원 hello Class FrenchDeck: def __getitem__(self, position): return self._cards[position] 위에서 처럼 __getitem__의 return이 List로 재정의 된 경우, Object를 상속받았음에도 불구하고 instance는 표준 파이썬 List처럼 행동한다. 따라서 reversed(), choice(), sorted() 등을 사용할 수 있게 된다. 아래 4가지 예시를 보자 deck = FrenchDeck() # EX 1 : Random Choice from random import choi..
-
ALBERT(ICLR2020) 리뷰Paper Review 2020. 7. 9. 16:59
최근 GLUe, RACE, SQuAD에서 top rank에 사용된 ALBERT에 대해 리뷰를 해보려 합니다. BERT에 비해 param 수도 적고 training speed도 빠르다는게 특징입니다. 단순 비교를 해보면 ALBERT-Large는 BERT-Large에 비해 param 수가 18x 적고 training은 1.7x 빠릅니다. 1. Factorized embedding parameterization V : Vocab size E : Embedding size H : Hidden size BERT에서는 E와 H를 같게 했다. ALBERT에서는 vocab one-hot vector를 hidden layer로 직접 투사시키보다는 중간에 embedding layer를 두어서 parameter를 효과적으로..
-
Effective Approaches to Attention-based Neural Machine Translation 리뷰Paper Review 2020. 5. 17. 00:09
[Abstraction] 1. NMT 연구에서 attention 구조에 대한 비교 연구가 없었다. (2015년 기준. transformer가 2017년에 나옴) 2. Global attention model과 Local attention model을 비교할 것이다. [3. Attention-based Models] decoder의 h_t와 input sequence의 context를 나타내는 c_t를 concat한 뒤 선형/비선형 layer를 거쳐 context를 고려한 ~h_t를 만든다. c_t를 생성하는 방법에 따라 global/local attention으로 나뉜다. [3.1 Global Attention] - Alignment weight vector a_t가 새로 등장한다. global atte..
-
CS 분야 회사 면접 대비 - Quick NOTECS 면접 2020. 4. 13. 16:46
* NAVER, KAKAO 등 CS 관련 회사 면접 대비 자료입니다. * 이미 관련 분야 지식이 있으나, Remind를 위한 목적으로 작성되었습니다. * Keyword 별로 정리해두었습니다. * 1 page에 모든 것을 끝낼 생각입니다. * 미작성, 보강, 완료 [Log] 20/04/13 : First Commit [목차] 1. 딥러닝 2. 컴퓨터 조직론 3. OS 4. DB 5. 컴파일러 6. 네트워크 7. 알고리즘 8. 자료구조 9. OOP 10. 예상 질문 [딥러닝] SGD, Saddle Point Activation Function(Relu, Leaky Relu. Why Relu?) Optimizer( ADAM, RMSProp, Adagrad, Momentum, ADADelta) Generaliz..
-
0. JAVA 기초 (11)JAVA Spring 2020. 3. 9. 00:51
- Stream - inputstream package stream.inputstream; import java.io.IOException; public class SystemInTest { public static void main(String[] args) { System.out.println("입력:"); try { int i = System.in.read(); // byte 단위로 읽는다. EOF면 -1을 출력 System.out.println(i); System.out.println((char)i); } catch (IOException e) { e.printStackTrace(); } } } - 줄 단위로 입력 package stream.inputstream; import java.io.IOE..
-
0. JAVA 기초 (10)카테고리 없음 2020. 3. 8. 21:50
package innerClass; import java.io.FileInputStream; import java.io.FileNotFoundException; public class TestException { public static void main(String args[]) { FileInputStream fis = null; try { fis = new FileInputStream("a.txt"); } catch (FileNotFoundException e) { System.out.println(e); } finally { try { fis.close(); // file을 닫아주어야 한다. } catch (Exception e) { // file을 닫는 과정에서도 오류가 날 수 있으므로 try,..