-
All-pairs Shortest paths
Contents SSSP(single source shortest path) algorithm 사용하는 방법 Floyd-Warshall algorithm Transitive closure of a directed graph All-pairs Shortest paths ✏️ Minimum Spanning Tree에서는 모든 노드를 연결하는 최소 cost인 tree 찾는것이 목표였고, 이전에 본 Dijkstra는 single source 에 대해 shortest path. 이번 post에서는 임의의 두 node사이의 shortest path 찾는 all-pair shortest path를 찾... Read More
-
Single-Source Shortest Path
Contents Definition Dijkstra’s algorithm The Bellman-Ford algorithm Single-sorce shortest paths in directed acrylic graphs Single-Source Shortest Path ✏️ 이전 Minimum Spanning Tree에서는 모든 노드를 연결하는 최소 cost인 tree 찾는것이 목표였음. 이번 post에서는 전체 tree가 아닌 path 찾는것이 목표. Definition 사용하는 개념들 정리 Edge weight : 특정 edge의 가중치 Path weight : Path에 있는... Read More
-
Minimum Spanning Trees
다루는 algorithms Generic MST Prim’s Algorithm Kruskal’s Algotrithm Minimum Spanning Trees 이전까지 기본적인 Graph 알고리즘 (DFS, BFS 두가지) 봤었음. Weighted Undirected Graphs 도로망, network 등 isolation 없는 connectivity를 보기 위한 알고리즘인 경우가 많아($\because$ application이 보통) 보통 undirected graph Weighted undirected graph $G=(V,E)$ 각 edge $(u,v)\... Read More
-
Elementary Graph Algorithms part3:Applications of depth-first search, Topological sort
Contents Graphs(part1) Graph basics Graph representation Adjacency-list representation Adjacency-matrix representation Searching a graph (part2) Breadth-first search Depth-first search Applications of depth-first search(part3) Topolog... Read More
-
Elementary Graph Algorithms part2:Searching a graph
Contents Graphs(part1) Graph basics Graph representation Adjacency-list representation Adjacency-matrix representation Searching a graph (part2) Breadth-first search Depth-first search Applications of depth-first search(part3) Topolog... Read More
-
Elementary Graph Algorithms part1:Graphs
Contents Graphs(part1) Graph basics Graph representation Adjacency-list representation Adjacency-matrix representation Searching a graph (part2) Breadth-first search Depth-first search Applications of depth-first search(part3) Topolog... Read More
-
Random 3D
Random box and pipe (with rhino6 grasshopper) 한동안의 grashopper로 만드는 것들은, 수직 양식장 디자인과 관련 있을 것 같다. 일정한 규칙을 만들고, 나머지는 랜덤하게 생성하여 매스 디자인. 초안은, 물고기가 수직이동을 안한다는 점에서 시작. 수직으로의 이동 또한 물고기 움직임의 특성인 일정 각도(예를 들어 30도) 이하의 각을 가진 이동을 하며 긴 수평이동을 통해 수직의 이동이 이루어져있다는 점에 착안. 출처: https://www.youtube.com/watch?v=JJGRyC1JHHE Read More
-
Grasshopper(Rhino6) basic
Basic in Grasshopper Extensions 보통 food4rhino에서 extension압축파일을 받는 경우가 많다. 이때 압축파일의 설치 방법이 나와 있는 텍스트 파일 등에서 압축폴더에서 특정 폴더를 'User Object Folder'로 복사해라와 같은 내용이 있기도 하다. 참고) extension중 wasp의 설치 가이드의 일부: - Copy the folder "wasp" in the Grasshopper Libraries folder (File -> Special Folder -> Components) - Copy the CONTENT of the UserObjects ... Read More
-
e-01 in terminal
터미널에서 숫자 표현 CLIP의 zero-shot 코드를 돌려보면 output으로 각 class별 확률이 나온다. CLIP text = clip.tokenize(["alder flycatcher", "acorn woodpecker", "white ibis"]).to(device) with torch.no_grad(): image_features = model.encode_image(image) text_features = model.encode_text(text) logits_per_image, logits_per_text = model(image, text) prob... Read More
-
Data Structures for Disjoint Sets
Contents Disjoint-sets Disjoint-set operations An application of disjoint-set data structures Disjoint-set data structures Disjoint-sets : 교집합이 없으면 “disjoint” 하다고 함 두 set A와 B가 disjoint 하다 = 두 set의 교집합이 없다 Ex. $ A = {1,2}, B={3,4}$ Set들 $S_1, S_2,…,S_k$가 disjoint 하다 = 모든 두 set $S_i, S_j$가 disjoint. Ex.... Read More
-
Amortized Analysis_Dynamic Table (4/4)
Amortized Analysis 이전까지 operation의 asymptotic boundary 구했음. (e.g. sort 비교횟수-> boundary) 이 chapter에서는, push-pop 할때 push와 pop 수행시간 각각 구해서 합하는게 아닌, push, pop 합해서 n번 발생했을 때 전체 cost 구하는 것. = 독립적으로 시간복잡도 구하는 것이 아닌, 여러 operation의 시퀀스 한꺼번에 시간복잡도 분석. (최악의 경우를 과하게 잡지 않도록) 특정 일을 할 때 100번 진행하는 경우 99번 1분이 걸리고, 1번정도 10분이 걸린다. 이때 최악의 경우 10분으로 잡고 이 일을... Read More
-
Amortized Analysis_Potential method (3/4)
Amortized Analysis 이전까지 operation의 asymptotic boundary 구했음. (e.g. sort 비교횟수-> boundary) 이 chapter에서는, push-pop 할때 push와 pop 수행시간 각각 구해서 합하는게 아닌, push, pop 합해서 n번 발생했을 때 전체 cost 구하는 것. = 독립적으로 시간복잡도 구하는 것이 아닌, 여러 operation의 시퀀스 한꺼번에 시간복잡도 분석. (최악의 경우를 과하게 잡지 않도록) 특정 일을 할 때 100번 진행하는 경우 99번 1분이 걸리고, 1번정도 10분이 걸린다. 이때 최악의 경우 10분으로 잡고 이 일을... Read More
-
Amortized Analysis_Accounting method (2/4)
Amortized Analysis 이전까지 operation의 asymptotic boundary 구했음. (e.g. sort 비교횟수-> boundary) 이 chapter에서는, push-pop 할때 push와 pop 수행시간 각각 구해서 합하는게 아닌, push, pop 합해서 n번 발생했을 때 전체 cost 구하는 것. = 독립적으로 시간복잡도 구하는 것이 아닌, 여러 operation의 시퀀스 한꺼번에 시간복잡도 분석. (최악의 경우를 과하게 잡지 않도록) 특정 일을 할 때 100번 진행하는 경우 99번 1분이 걸리고, 1번정도 10분이 걸린다. 이때 최악의 경우 10분으로 잡고 이 일을... Read More
-
Amortized Analysis_Aggregation analysis (1/4)
Amortized Analysis 이전까지 operation의 asymptotic boundary 구했음. (e.g. sort 비교횟수-> boundary) 이 chapter에서는, push-pop 할때 push와 pop 수행시간 각각 구해서 합하는게 아닌, push, pop 합해서 n번 발생했을 때 전체 cost 구하는 것. = 독립적으로 시간복잡도 구하는 것이 아닌, 여러 operation의 시퀀스 한꺼번에 시간복잡도 분석. (최악의 경우를 과하게 잡지 않도록) 특정 일을 할 때 100번 진행하는 경우 99번 1분이 걸리고, 1번정도 10분이 걸린다. 이때 최악의 경우 10분으로 잡고 이 일을... Read More
-
Greedy Algorithms
Contents Introduction An activity selection problem Elements of the greedy strategy Huffman codes Greedy Algorithms 그 순간순간 가장 좋다고 생각하는 결정을 내리는 알고리즘 locally optimal이 global optimal solution으로 이끌 것이라는 희망을 가지고 선택 ❓subproblem이 해결되기 전에 결정 내림 An activity selection problem 다양한 activity들이 있을 때 가장 많은 수의 activity 넣기 한개의 강의실에 n개의 lect... Read More
-
Basic SQL
Introduction SQL은 high-level language “어떻게 할지”가 아닌 “무엇을 할지”를 표현. DBMS는 쿼리를 수행할 “best” way를 찾음. = query optimization SQL SQL문의 종류중 두가지 Data Definition Language (DDL) = 데이터 정의어 데이터의 전체적인 골격 결정하는 역할 DB관리자나 설계자가 주로 사용 schema, table, view, index를 정의, 변경, 삭제 시 사용하는 언어 ... Read More
-
Database Internals
Contents: Relational database design Normal forms Database Internals DB가 어떤 component로 구성되고, 각각이 어떤 기능을 가지고, 쿼리 던졌을 때 실행 순서… 결함없는 상태로 저장되도록. 이런 구조 가지고 있음. DB Core components 쿼리가 들어왔을 때, 군더더기 제거, sub쿼리는 풀어서 작성 등 전처리 해주고, -> 여러 plan 세움. plan들의 비용 계산, 비교. 이후 비용적은 것 선택. -> storage 엔진에 일 시킴 Query Processing Steps Admission C... Read More
-
Database Design and Normalization
Contents: Relational database design Normal forms Entity Relationship Modeling Zoo data로 전에 봤던 entity relationship modeling ER Diagrams entity, attribute에 치중하느라 relationship 무시하면X $\because$ 1to n인지 n to n인지에 따라 table 하나 더 만들어야 하는 경우도 있음 관리자들 간에도, 관리자가 여러 관리자 관리할 수 도 있고 관리 당할수도 O -> recursive relationship double line: 빠지... Read More
-
Dynamic Programming_Matrix-chain multiplication (4/4)
Dynamic Programming : 알고리즘의 한 종류. (메모리를 좀 더 쓰고 대신 시간 절약하는 방법중 하나) 계산 결과를 저장해 두었다가 추후에 다시 사용. DP라는 이름과의 연관성 낮음 큰 문제를 작은 문제로 나눠 푸는 것. divide conquer와 비슷. 다만 작은 문제의 중복 유무가 큰 차이 dynamic programming은 작은 문제들이 반복 O Contents ➖ Assembly-line scheduling ➖ Rod cutting ➖ Longest common subsequence ☑️ Matrix-chain multiplication Matrix-ch... Read More
-
Advanced SQL
Key ideas : Advanced SQL SimpleDB Overview Contents: Fancy SQL Overview of SimpleDB Aliases(가명) and Ambiguity(애매모호함) : 쿼리를 명확히 적어라 SELECT name FROM keepers JOIN keeps ON id = kid JOIN cages on cageno= no JOIN animals on acageno=no WHERE species = 'bear' select name 부분어느 table인지도 모를 뿐아니라 animal, keepers 둘 다에 있음 아래처럼 수정 SELECT an... Read More
-
Dynamic Programming_Longest common subsequence (3/4)
Dynamic Programming : 알고리즘의 한 종류. (메모리를 좀 더 쓰고 대신 시간 절약하는 방법중 하나) 계산 결과를 저장해 두었다가 추후에 다시 사용. DP라는 이름과의 연관성 낮음 큰 문제를 작은 문제로 나눠 푸는 것. divide conquer와 비슷. 다만 작은 문제의 중복 유무가 큰 차이 dynamic programming은 작은 문제들이 반복 O Contents ➖ Assembly-line scheduling ➖ Rod cutting ☑️ Longest common subsequence ➖ Matrix-chain multiplication Longest c... Read More
-
Dynamic Programming_Rod cutting (2/4)
Dynamic Programming : 알고리즘의 한 종류. (메모리를 좀 더 쓰고 대신 시간 절약하는 방법중 하나) 계산 결과를 저장해 두었다가 추후에 다시 사용. DP라는 이름과의 연관성 낮음 큰 문제를 작은 문제로 나눠 푸는 것. divide conquer와 비슷. 다만 작은 문제의 중복 유무가 큰 차이 dynamic programming은 작은 문제들이 반복 O Contents ➖ Assembly-line scheduling ☑️ Rod cutting ➖ Longest common subsequence ➖ Matrix-chain multiplication Rod cutti... Read More
-
Dynamic Programming_Assembly-line scheduling (1/4)
Dynamic Programming : 알고리즘의 한 종류. (메모리를 좀 더 쓰고 대신 시간 절약하는 방법중 하나) 계산 결과를 저장해 두었다가 추후에 다시 사용. DP라는 이름과의 연관성 낮음 큰 문제를 작은 문제로 나눠 푸는 것. divide conquer와 비슷. 다만 작은 문제의 중복 유무가 큰 차이 dynamic programming은 작은 문제들이 반복 O Contents ☑️ Assembly-line scheduling ➖ Rod cutting ➖ Longest common subsequence ➖ Matrix-chain multiplication Assembly-line... Read More
-
Relational DB
Key ideas : Relational vs Other Data Models Advanced SQL Contents: Data models + history Hierarchical (IMS/DL1) - 1960’s Network (CODASYL) - 1970’s (그래프 DB) Relational - 1970’s and beyond Key ideas Data redundancy(and how to avoid it) Physical and logical data independence Relat... Read More
-
Database Systems Basics
Contents Relational Model + Schema Declarative Queries Query Optimization Efficient access and updates to data Recoverability Consistency What is a database? structured data collection Records Relationships DB가 다루는 데이터: entity와 그것의 관게 정의되어 있는 것 data 넣고, 사람들이 질문하면 응답 빠르고 정확하게 주... Read More
-
Merge Sort
Merge Sort : sort 된 두 key들의 list로 하나의 정렬된 list를 만드는 merge를 사용한 sorting 알고리즘 Pseudo Code 아래 pseudo code에서 의미하는 p, q, r : (전체 array가 A) MERGE(A,p,q,r){ n1 = q-p+1 n2 = r-q let L[1..n1+1] and R[1..n2+1] for i=1 to n1 L[i] = A[p+i-1] // 배열 A의 좌측 값들을 새로운 배열 L로 복사 for j=1 to n2 R[j] = A[q+j] // 배열 A... Read More
-
Insertion Sort
Sorting 문제란, Input: n개의 숫자의 시퀀스 $<a_1, a_2, a_3, … ,a_n>$ = keys Output: $a’_1 \le a’_2 \le … \le a’_n$을 만족하는 input 시퀀스의 재배열 Insertion Sort : insetion을 사용하는 정렬 알고리즘 insertion이란, key와 정렬된 list의 key들이 주어지고, 정렬 유지하며 list에 key를 넣는것 동작 예시 5 2 4 6 1 **5** 2 4 6 1 **2 5** 4 6 1 **2 4 5** 6 1 **2 4 5 6** 1 **1 2 4 5 6** Pseudo Code ... Read More
-
MATLAB 이미지 처리 기초
MATLAB 이미지 처리 기초 imread() 이미지 불러오기 이미지 업로드 없이 peppers 이미지 img = imread("peppers.png"); imshow(img); 첫째 줄 처럼 코드 작성 시 따로 이미지를 업로드 하지 않고 pepper 이미지를 사용할 수 있다. 찾아보니 MATLAB example data sets에서 peppers 뿐만 아니라 다양한 이미지와 다양한 확장자 형태의 데이터를 제공한다. https://kr.mathworks.com/help/matlab/import_export/matlab-example-data-sets.html#mw_d7b7b839-5281-47... Read More
-
Classification (2/2)
[Data Science]6 Classification PART 2 목차 (part1) What is classification? Issues regarding classification Classification by decision tree induction Random Forest (part2) Rule-based classification Associative classification Lazy learners (or learning from your neighbors)(k-NN classifiers) Accuracy and error measures, protocol... Read More
-
Classification (1/2)
[Data Science]6 Classification PART 1 목차 (part1) What is classification? Issues regarding classification Classification by decision tree induction Random Forest (part2) Rule-based classification Associative classification Lazy learners (or learning from your neighbors) Accuracy and error measures Ensemble methods Summar... Read More
-
ITE4005_DS > (9) 5.2 Data analysis and pre-processing part 2
[Data Science]2: Getting to Know Your Data part2 목차 (저번시간) Data Objects and Feature Types Basic Statistical Descriptions of Data (이번시간) Data Visualization Measuring Data Similarity and Dissimilarity Summary Graphic Displays of Basic Statistical Descriptions ![1][1] Histogram Analysis Bar 형태로 frequencies 나타냄. 각... Read More
-
ITE4005_DS > (8) 5.1 Data analysis and pre-processing part 1
[Data Science]2: Getting to Know Your Data part1 데이터의 특성, 데이터 전처리, 유용한 정보 찾기, 분포 등에대해 배움 Contents Data Objects and Feature Types Basic Statistical Descriptions of Data Data Visualization Measuring Data Similarity and Dissimilarity Summary Types of Data Sets Tabular 각 데이터는 Data matrix / table 로 표현될 수도 있 각 숫자가 ... Read More
-
-----DRAFT-----ITE4052_CV > 5_Image processing
전 시간에 이미지 퀄리티를 조절하는 부분 배웠었음! 이미지 밝기 높이기 위한 세 방법과 각 방법의 trade off들! 페이지 마지막 밝기 조절 3가지 이러한 이미지의 noise와 blur enhance 어떻게 하나? → Filtering의 motivation Noise Reduction 어떻게 노이즈를 제거할 수 있을까? 각 이미지 u는 노이즈 없는 이미지인 v에 노이즈n을 더한 값이라고 생각 따라서 각 이미지들은 $u_1 = v + n_1$ $u_2 = v + n_2$ 이런식으로 이루어져있음 이러한 노이즈를 줄이기 위해선, 이미지 평균을 낸다! 그렇게 되면 n~N(0,$\sigma$) → n... Read More
-
ITE4053_DL> 08 OptimizationAlgorithms
Exponentially weighted averages $\beta$ 값을 통해 과거 데이터에 기반해 smoothing 할 수 있다. ($\beta$ = 0.9 를 통해 과거 데이터에 더 많은 가중치. 현대 값에는 0.1의 가중치 준다.) 계산식은 위와 같음 Bias correction Exponentially weighted averages (지수가중평균)를 이용하면 초기 구간에 오차가 있다. 앞쪽의 값이 0에 가깝다는 문제. 아래 이미지의 좌측 하단을 보면 weight의 합이 1보다 훨씬 작음. 이 문제를 해결하기 위해서는 이미지에도 나와있듯, $v_t$를 $1-\beta^t$로 나눈다. ... Read More
-
ITE4053_DL> 11-2 Convolution
2D convolution은 affine transformation이다. 1D Convolution 전에 2차원 예시 봤었음. descrete한 도메인이 아닌 continuous 한 도메인에서도 가능 descrete 버전에선 수식이 $\sum$ 이었는데, continuous 에서는 $\int$ Computer vision problems 이미지 imput으로 받는 다양한 비전문제 잘 푼다고 알려져 있음 하지만 딥러닝에서 이미지 크기 커지면, 전통적인 뉴럴 네트워크로 다루기 힘들어진다. 저수준은 edge map 정도 얻어지는 것. 이를 non-linear 하고, 다시 추출, 또 non-line... Read More
-
ITE4052_CV > 2_Camera
Eye-Camera Analogy computer vision의 basic idea. Computer를 사용해 vision(human vision system) image? : 8bit의 integer matrix 각 숫자는 how strong the light is($\therefore$ 0-> 검, 255-> 흰) Pinhole Camera Camera Anatomy 3D -> 2D 변환 위해서 행렬 P에 무엇이 들어가야 하는가?에 대한 것 « 3D 이전에 2D에 대한 transformation 먼저! » 2D image transform Affine transf... Read More
-
-----DRAFT-----ITE4052_CV > 4_3D Vision
목차 2D -> 3D 변환 시 문제점, 해결방안 Stereo Inverse Perspective Transformation (single view image로) 2D -> 3D 변환 시 문제점: 이미지의 Z값을 위 사진의 빨간 선 중에서 확정 지을 수 없다는 ambiguity(모호성) 때문에 불가하다. (완벽히 3D recover 할 수 없다) 따라서 3D를 reconstruct하려면 multiple view가 필요함 (적어도 2개) Stereo 다른 viewpoint의 두 이미지가 있을 때, 어떻게 각 point의 depth(z) 계산하지? -> 키 아이디어는, 두 ... Read More
-
ITE4052_CV > 3_Light
목차 illuminasion != brightness 무엇이 pixel의 brightness 결정하는지 $L, \rho, V$ 사람 눈에 들어오는 빛인 illuminancy에 영향을 미치는 것들 $I(\lambda) = \rho(\lambda) L(\lambda)$ brightness / contrast Weber’s Law Photosensitive Cells Brightness Contrast and Constancy brightness contrast br... Read More
-
ITE4053_DL> 11-1 Convolution
What is Image Filtering? Image filtering: local image data로부터 새로운 값을 얻어내는 function. 굉장히 많은 방법이 있지만 심플한 것 배울것 Linear Image Filtering non linear 한 것도 많지만 이번 수업에선 단순한 linear 한것 볼것임 weighted sum 하는 것을 통해(가중 합) 값을 하나 얻을 수 있음. (convolution) → 단순한 연산 image filtering 으로 할 수 있는 것들: enhance image 노이즈 제거, smooth, increase contrast, ... Read More
-
ITE4053_DL > 10 Hyperparameter Tuning and Softmax
10 Hyperparameter Tuning and Softmax Hyperparameters 알파는 경사하강법 때 사용하고, 하이퍼파라미터 중 가장 중요한 것 베타는 smoothing 할 때 사용. 다른 값들과 함께 중요도 #2 하이퍼파라미터 하이퍼파라미터가 좀 더 많은 Adam사용 시 보통 디폴트 값 사용 hidden unit의 개수, mini-batch 크기도 베타와 함께 중요도 #2 하이퍼파라미터. 하이퍼파라미터는 depend to each other Try random values: Don’t use a grid 좌측 예시에서는 uniformed 되어있는 25개... Read More
-
Activation Function 쓰는 이유
활성화 함수 이전 layer의 값을 non-linear하게 변환하는 역할을 하고 이는 모델의 복잡도를 올린다. non-linear하지 않으면 아무리 layer 쌓아도 의미가 없다. ($ \because f(ax+by)=af(x) + bf(y)$ 성질) Regularization이 overfitting 막는 것과 연결되는 이유 결국 활성화 함수를 쌓아 non-linearlity를 이용해 복잡도를 올리는 것은 overfitting을 발생시킬 수 있는 것이다. 위의 tanh 함수를 보면 x값을 정규화 해준다면 0에 값이 가까워질것이다. 수식으로 보면, $\lambda \uparrow \Rightarro... Read More
-
-----DRAFT-----ITE4005_DS> (5-2) 3.4.2 Association Rules
지금까지, 많은 pattern mining 공부. ex) basic apriori & its extensions(sampling, partition, hash base method … ), FP-growth algorithm 이번 챕터, Apriori와 관련된 더 많은 extension,(이전 post) Association rule mining과 관련된 더 많은 concept에 대해 목차 Mining multilevel association Mining multidimensional association Mining quantitative association Mining i... Read More
-
ITE4005_DS > (5-1) 3.4.1 Maxminer, CLOSET, CHARM
지금까지, 많은 pattern mining 공부. ex) basic apriori & its extensions(sampling, partition, hash base method … ), FP-growth algorithm 이번 챕터, Apriori와 관련된 더 많은 extension, Association rule mining과 관련된 더 많은 concept에 대해 (다음 post) Extension 1: MaxMiner MaxMiner: Mining Max-patterns 복습) max pattern Item X가 max pattern 되려면, (1) X가 frequent, (2... Read More
-
ITE4053_DL> 07-2 Batch Normalization
Batch Normalization : 굉장히 유명한 approach data augmentation 누구나 쓰듯 이것도! 하이퍼파라미터가 problem search 하는데 훨씬 쉽게함 Quick & better NN hyperparameter에따른 결과 차이 크지 않게 함. ex) learning rate 0.1이나 0.2나 차이 크면 곤란 but 이것 넣으면 차이 감소 What is batch? $X = [x^{1} x^{2} x^{3} … x^{m} ]$ size (n,m) $Y = [y^{1} y^{2} y^{3} … y^{m} ]$ size (1,m) ... Read More
-
ITE4053_DL > Practice#1-3 Binary classification using logistic regression
Deep learning & applications Practice#1-3 Task: Binary classification using logistic regression (loss = binary cross entropy loss) Input: 2-dim vector, x={x1,x2} Output: label of the input, y∈{0,1} STEP 1: Generate 10000(=m) train samples m은 training 데이터의 크기. for문에서 2dim vector를 m개 생성. x_train의 size : 5000(=m) x2 vectorization ... Read More
-
f-string
파이썬 f-string 포멧팅 %연산자나 함수가 아니라 새로본 포멧팅 방식 사용 예시 epoch = 0 loss = 1 print(f"Loss after epoch {epoch}: {loss}") 위와 같이 작성하면 Loss after epoch 0: 0.70199928 -> 이런 형태로 나온다. 딥러닝 수업에서 100 epoch 마다 weight나 bias, loss등을 출력하는데 깔끔하게 쓰기 좋았다. 다른 효과 변수명 간단히 쓰기 아래와 같이 중괄호 안에 변수와 =을 붙이면, {bugs=}를 쓰면 출력 시 입력한 것과 그 값이 옆에 나온다. >>> print... Read More
-
ITE4053_DL > 07-1 Problem Settings
목차 Problem Setup Bias/Variance Tips Problem Setup Applied ML is a highly iterative process NN 학습시, 많은 결정을 내려야 한다: 레이어의 수 hidden unit의 수 learning rate activation function 등 한번에 hyperparameter들에 맞는 값을 찾는 것은 거의 불가능하다. 따라서 machine learning은 매우 반복적인 작업. Dataset : 모델 만들 때 데이터 나누어 사용 ... Read More
-
-----DRAFT-----ITE4052_CV> Regularization, Optimization
저번 글에서 최적의 W를 찾기 위해 Loss function으로 평가 하였는데, 찾은 W가 너무 test set에 overfitting 될 수 있는 문제가 있음 이러한 문제를 해결하고자 나온것이 Regularization Regularization Regularization의 키는 Simple model 만들기! \[L(W) = \frac{1}{N} \sum_{i=1}^N L_{i}(f(x_{i},W), y_{i}) + \lambda R(W)\] Read More
-
-----DRAFT-----ITE4052_CV> Linear Classifier, Loss function
Linear Classifier : 선을 이용하여 집단을 두개 이상으로 분류하는 모델 \(f(x_{i},W,b) = Wx_{i}+b\) matrix size example: $f(x_{i},W,b)$ : 10 x 1 $W$ : 10 x 3072 $x_{i}$ : 3072 x 1 = 32x32x3(이미지 1개) x 1 $b$ : 10 x 1 input, output: input으로 $x_{i}$ 이미지 넣으면 $\to$ output으로 각 class 별 score인 10개의 수 이러한 classifier가 내놓은 결과값에 대해 평가하기 위해 정답 레이블과 비교. 이때 비교해주는 함수가 Loss ... Read More
-
Github blog
This note demonstrates some of what Markdown is capable of doing. 0. 시작하게 된 이유 메모장 처럼 네이버 블로그에 필기를 올렸던 적이 있었는데 나중에 보니 기록도 되고 보기도 편했다. 그래서 velog, tistory 등 다양한 기록 및 포폴용 블로그들을 찾아보게 되었고 시작 허들이 높지 않은 velog를 시도해 봤었었다. 하지만 자유도가 높지 않아 다른 블로그를 찾아보게 되었고, 깃허브 블로그가 내 웹사이트 형식으로 만들어질 수 있다는 부분이 좋았다. 또한 추후에 포트폴리오를 만들 때 사용할 수 있을 것 같다는 생각도 들었다. 무엇보다 재미있을... Read More