전체 글

지니의 공부 아카이브
🔨 Trial and Error Log

[Pytorch] 파이토치 TIL 모음

Pytorch를 사용하면서 알게된 내용들, 정확히 이해하려는 코드들을 모아놓습니다. Updated 21.10.07 1. TensorDataset의 사용 torch.tensor -> TensorDataset -> DataLoader 의 과정으로 깔끔한 코드를 작성한다. from torch.utils.data import (DataLoader, TensorDataset) TensorDataset은 ds = TensorDataset(x,y) 뿐만 아니라 여러개의 데이터를 넣을 수도 있다. # 보통 사용 ds = TensorDataset(x,y) # 여러개 묶음 사용 train_features = TensorDatast(input, input_lengths, label, left_feature, right_fe..

🔨 Trial and Error Log

vs code snippet(스니펫) 공유 - 데이터분석, python

데이터분석을 위한 vs code snippet(스니펫), 파이썬 코드 공유 2021.06.04 - [[ 삽질로그 ]] - [기본 코드] 주피터노트북 디폴트 코드 [기본 코드] 주피터노트북 디폴트 코드 보통 데이터 로드나 간단한 시각화, EDA를 할때 내가 항상 거의 디폴트로 설정해놓는 코드이다. 가장 먼저 적고 시작한다. # ready import json import os import pandas as pd import numpy as np from tqdm.note.. jxnjxn.tistory.com 예전에 주피터노트북에서 미리 적고 시작하는 코드라고 공유한 적이 있다. 주피터노트북이나 Google Colab에서는 그렇게 복붙 하고는 하지만, vscode 는 스니펫(코드조각)을 만들어서 사용할 수 ..

🤖 Today-I-Learned ]/Deep Learning

비선형 활성화 함수의 사용 (Non-linear Activation Function)

Non-linear Activation Function 과제 중 조사했던 비선형 활성화 함수의 사용 정리 1. 비선형 activation function을 통한 vanishing gradient 해결 ReLU activation function(Rectifed Linear Unit)은 이러한 vanishing gradient 문제를 activation function으로 해결 한다. x가 0보다 작을땐 0을, 0보다 클 땐 그 값을 그대로 출력(y=x)함으로써 vanishing gradient 문제를 해결한다. 따라서 함수식은 ReLU(x) = max(0,x) 가 되고 도함수는 0또는 1이 된다. 2. Activation function의 정의와 역할 뉴럴네트워크를 생물학적 뉴런에 빗대어서 볼 때 활성화..

🔨 Trial and Error Log

파이썬 @ 연산자

Python @ 연산자는 행렬 및 벡터의 matmul 함수와 동일, 행렬곱 @ = matmul (np.matmul) matmul(@), *(원소곱), dot 다르니 유의할 것

🤖 Today-I-Learned ]/Deep Learning

Few-shot Learning (metric-based)

작성자 : 이예진 이번 시간에는 Few-shot learning 중에서도 Non-Parametric 방법에 대해서 공부해보겠습니다. stanford 대학의 cs330(Multi-Task and Meta-Learning) 강의 중에 Lecture4.Non-Parametric Meta-Learners 에 해당합니다. (세미나 벨로그 글) 학습목표 많은 방법들의 흐름을 파악하고 비교를 할 수 있다. 해다 용어는 알고 있어서 추후에 구글링 해 볼 수 있다. 관련된 용어는 알고 있어서 추후에 논문 읽기에 도움이 될 수 있다. Contents 0. Intro Transfer learning, Multi-task learning, Meta-learning, Few-shot Learning (,Semi-supervis..

지니티토리
지니티토리