Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- machine translation
- NMT
- 프로그래머를 위한 선형대수
- DataFrame
- pandas
- PPMI
- 데이터프레임
- 연립일차방정식
- 판다스
- 벡터간 유사도
- one-hot vector
- 자연어처리
- ReLU
- 역행렬
- 밑바닥부터 시작하는 딥러닝2 2장
- word embedding
- SVD
- word2vec
- Python
- sigmoid
- 동시발생 행렬
- 밑바닥부터 시작하는 딥러닝
- 신경망 학습
- Transformer
- RNN
- NLP
- 딥러닝
- Linear Algebra
- 선형대수학
- 정칙행렬
Archives
- Today
- Total
생각하는감자
Tags
- NLP
- Linear Algebra
- 선형대수학
- 프로그래머를 위한 선형대수
- pandas
- 자연어처리
- 판다스
- DataFrame
- 딥러닝
- Python
- 데이터프레임
- word embedding
- RNN
- 정칙행렬
- 신경망 학습
- 연립일차방정식
- ReLU
- word2vec
- machine translation
- 밑바닥부터 시작하는 딥러닝
- sigmoid
- NMT
- SVD
- 역행렬
- Transformer
- one-hot vector
- 밑바닥부터 시작하는 딥러닝2 2장
- PPMI
- 벡터간 유사도
- 동시발생 행렬
- 통계기반
- 머신러닝 통계
- 딥러닝 활용
- 딥러닝 고속화
- 밑바닥부터 시작하는 딥러닝 8장
- SimpleConvNet
- 밑바닥부터 시작하는 딥러닝 7장
- 신경망 구현 코드
- CNN구현하기
- 밑바닥부터 시작하는 딥러닝 4장
- 신경망 클래스 구현
- 가중치매개변수
- 밑바닥부터 시작하는 딥러닝 3장
- 입력층 은닉층 출력층
- 퍼셉트론 한계
- 논리회로 구현
- 딥러닝 공부
- 요르단표준형 구하기
- 요르단표준형 성질
- 요르단표준형
- 고윳값 성질
- 고윳값 구하기
- LU분해로 연립일차방정식 풀기
- LU분해로 행렬식 구하기
- LU분해 순서
- 정칙성
- 차원정리
- 특이행렬
- 성질이 나쁜경우
- 역행렬의 계산
- 성질이 좋은 경우
- 부피확대율
- 확대율
- 데이터그룹화
- 데이터 수정 삭제 생성
- df.to_csv
- 데이터프레임 생성
- nmt의 한계점
- smt의 한계점
- mnmt
- statistical machine translation
- top p sampling
- top k sampling
- decoding strategy
- gpt1
- gpt 구조
- 선형독립
- self supervised pretraining
- pretraining tasks
- masked language model
- input representation
- pre training of deep bidirectional transformers
- masked multi head attention
- scaled dot product attention
- byte pair encoding
- subword based tokenizer
- subword
- character based tokenizer
- word based tokenizer
- sequence to sequence model
- nlp attention
- attention model
- gru 구조
- lstm 구조
- LSTM Network
- named entity recognition
- coaccurrence
- word2vec algorithm
- 자연어처리과정
- nlp overview
- nlp pipeline
- random sampling
- data centric AI
- next sentence prediction
- gpt2
- gated recurrent unit
- Fine Tuning
- self attention
- 딥러닝 학습
- 다층퍼셉트론
- Image captioning
- Language model
- 오차제곱합
- 합성곱
- 선형종속
- to_csv
- fillna
- Beam Search
- Alexnet
- lenet
- CBOW
- Skip-gram
- GRU
- LU분해
- Positional Encoding
- 합성곱 연산
- 하이퍼파라미터
- 큰 수의 법칙
- 수리통계학
- 오차역전파법
- 시험데이터
- 교차엔트로피오차
- 순전파
- GPT3
- multi head attention
- TF-IDF
- 차원축소
- layer normalization
- 전치행렬
- 고윳값
- 대각화
- AdaGrad
- 배치 정규화
- Tokenization
- Eigendecomposition
- 특이값분해
- dqn
- 훈련데이터
- GoogLeNet
- bag of words
- BERT
- 딥러닝 입문
- 활성화함수
- 퍼셉트론
- ResNet
- VGG
- seq2seq
- Text generation
- Long Short Term Memory
- LSTM
- 데이터중복
- 손실함수
- 오버피팅
- Neural Machine Translation
- 강화학습
- Preprocessing
- 대각행렬
- 영행렬
- 드롭아웃
- 연쇄법칙
- 역전파
- groupby
- 기계번역
- 파일생성
- softmax
- 행렬식
- 단위행렬
- 정방행렬
- 중심극한정리
- 고유벡터
- chain rule
- 모멘텀
- decoding
- Bow
- Hogg
- 최적화기법
- nan
- none
- 기저
- Similarity
- sentiment
- Singular Value Decomposition
- Ner
- 신경망
- NAND
- null
- Glove
- GPT
- duplicate
- greedy
- 복습
- decoder
- Elmo
- 풀링
- 시소러스
- 사상
- series
- 벡터
- 행렬
- 데이터처리
- 종속
- Encoding
- 논리회로
- SMT
- Adam
- data
- 차원
- drop
- xor
- or
- and
- pmi
- 랭크
- PD
- 공간
- Filter
- attention
- classification
- CNN
- 독립
- 통계