AI
-
레이어들(Layers)AI/DeepLearning 2022. 9. 30. 14:10
덴스(Dense Layesr) https://sevillabk.github.io/Dense/ 임베딩(Embedding Laeyrs) keras.layers.Embedding(input_dim, output_dim, embeddings_initializer='uniform', embeddings_regularizer=None, activity_regularizer=None, embeddings_constraint=None, mask_zero=False, input_length=None) Turns positive integers (indexes) into dense vectors of fixed size. ex) e.g. [[4], [20]] -> [[0.25, 0.1], [0.6, -0.2]] # Inp..
-
퍼셉트론(Perceptron)AI/DeepLearning 2022. 9. 29. 18:16
다수의 입력으로부터 하나의 결과를 내보내는 알고리즘 - x는 입력값을 의미, w는 가중치, y는 출력값 - 각각의 입력값에는 각각의 가중치가 존재하는데, 이때 가중치의 값이 크면 클수록 해당 입력 값이 중요하다는 것 - 뉴런에서 보내혼 신호의 총합이 정해진 한계(임계값)을 넘어설 때만 1를 출력 - 뉴런에서 출력값을 변경값을 변경시키는 함수를 활성화함수(Activation Function) - 단층 퍼셉트론과 다층 퍼셉트론으로 나누어진다 단층퍼셉트론(Single-Layer Perceptron) - 값을 보내는 단계과 값을 받아서 출력하는 두 단계 다층퍼셉트론(MultiLayer Perceptron, MLP) - 입력층과 출력층 사이에 은닉층(hidden layer)이 존재 - 은닉층이 1개 이상인 퍼셉트..
-
Tensorflow에서 딥 러닝 모델을 만드는 방법AI/DeepLearning 2022. 9. 26. 16:42
1. Sequential 모델 2. Functional 모델 3. Sublclassing 모델 1) Sequential API 장점 : 단순하게 층을 쌓는 방식으로 쉽고 사용하기가 간단합니다. 단점 : 다수의 입력(multi-input), 다수의 출력(multi-output)을 가진 모델 또는 층 간의 연결 (concatenate)이나 덧셈(Add)과 같은 연산을 하는 모델을 구현하기에는 적합하지 않음. 이런 모델들의 구현은 Functional API를 사용 2) Functional API 장점: Sequential API로는 구현하기 어려운 복잡한 모델들을 구현 가능 단점: 입력의 크기(shape)를 명시한 입력층(Input layer)을 모델의 앞단에 정의해야 한다 3) Subclassing API ..
-
ANN vs DNN vs CNN vs RNNAI/DeepLearning 2022. 9. 22. 18:58
1. ANN(Artificial Neural Network) - Artificial Neural Network의 줄임말로 사람의 신경만 원리와 구조를 모방하여 만든 기계학습 알고리즘 - 문제점 1) 학습과정에서 parameter의 최적값을 찾기 어렵다 2) Overfitting에 따른 문제 3) 학습시간이 느리다 2. DNN(Deep Neural Network) - ANN의 문제를 해결하고자, 모델 내 은닉층을 많이 늘려서 학습의 결과를 향상시키는 방법 등장 - DNN은 은닉층을 2개이상 지닌 학습 방법 - DNN을 응용한 알고리즘이 CNN, RNN, LSTM, GRU, etc 3. CNN(Convolution Neutral Network) - 기존의 방식은 데이터에서 지식을 추출해 학습이 이루어졌지만,..
-
DeepLearning이란?!AI/DeepLearning 2022. 9. 22. 18:13
딥러닝이란 심층신경망Deep Neural Networks, DNN을 학습시켜 문제를 해결하는 것
-
토크나이저(Tokenizer)AI/DeepLearning 2022. 9. 11. 13:00
Tonkenization mean?! segregate a particular text into small chunks or tokens 3 major types Word Tokenization ==> word Tokenization 는 주로 space로 구분이 된다 ex) we will run ==> we, will, run Character Tokenization ex) Relaxing ==> R-e-l-a-x-i-n-g Subword tokenization ex) Relaxing ==> Relax-ing Keras Tokenizer Class is used for vectorizing a text corpus converted into integer sequence or a vector that h..
-
순환신경망(Recurrent Neural Network, RNN)AI/DeepLearning 2022. 9. 11. 11:16
순환 신경망(Recurrent Neural Network, RNN) 입력과 출력을 시퀀스 단위로 처리하는 시퀀스(Sequence) 모델 번역기를 생각해보면 입력은 번역하고자 하는 단어의 시퀀스인 문장입니다. 출력에 해당되는 번역된 문장 또한 단어의 시퀀스입니다. 이와 같이 시퀀스들을 처리하기 위해 고안된 모델들을 시퀀스 모델 신경망들은 전부 은닉층에서 활성화 함수를 지난 값은 오직 출력층 방향으로 향함.이를 Feed Forward Neural Newtork라고 함 But, RNN은 은닉층의 노드에서 활성화 함수를 통해 나온 결과값을 출력층 방향으로도 보내면서, 다시 은닉층 노드의 다음 계산의 입력으로 보내는 특징을 갖고 있다. 각각의 시점(time step)에서 바로 이전 시점에서의 은닉층의 메모리 셀에..
-
자연어처리 IntroductionAI/DeepLearning 2022. 8. 24. 21:17
자연어처리(Natural Language Processing-NLP-) • Machine Translation • Sentiment Analysis • Spam Filtering • Image Captioning • Text Summarization • Question Answering • Dialogue Generation ======================================================= Machine Translation : 한국어를 영어로, 또는 영어를 한국어로 번역하는 등 하나의 언 어를 다른 언어로 번역하는 문제영역 Sentiment Analysis : 문장의 감정상태를 분석해서 긍정 혹은 부정 또는 N개의 다른 감 정 상태를 분류하는 문제영역 Spam Filt..