ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 시그모이드(sigmoid) & 소프트맥스(softmax)
    AI/MachineLearning 2022. 10. 12. 10:45

    # 시그모이드 

    시그모이드함수공식

    # 시그모이드 함수의 가장 중요한 특징은, 무조건 0과 1 사이의 결과를 낸다는 것
    - x가 엄청 커서 무한대면은 그냥 1
    - x가 엄청 작어저서 마이너트 무한대면은 그냥 0 
    - 우리는 주로 시그모이드 함수의 결괏값이 0.5보다 큰지 작은지 보고 결국 분류
    - 여기에 어떤 인풋을 넣든 간에, 아웃풋은 무조건 0과 1 사이 값이 나온다

    # 속성이 하나 일 때, 시그모이드 가설함수 

     

    # 속성이 두개 일 때, 시그모이드 가설함수

     

    # 시그모이드(Sigmoid) vs 소프트맥스(Softmax) 

    # Softmax Function
    
    1. logistic regression 에서 multi-classification 문제에서 사용
    
    2. 확률의 총 합 = 1
    
    3. 출력층에서 사용됨(확률 표현)
    
    4. 큰 출력 값은 그 class에 해당할 가능성이 높다는것을 뜻하며 실제 확률을 나타냄
    
    5. multi-classification에서 사용
    # Sigmoid Function
    
    1. logistic regression 에서 binary-classification 문제 에서 사용
    
    2. 확률의 총 합은 1이 아님
    
    3. Activation 함수로 사용될 수 있음(실제 사용 하지 않음)
    
    4. 큰 출력 값은 그 class에 해당할 가능성이 높지만 실제 확률 값을 나타내는 것은 아님
    
    # binary-classification에서 사용

    you want to classify one object into three categories with the labels A,B, or C, you would need to make the Dense layer generate an output with a shape of (None, 3). 

     

    f you want to only generate one value with the Dense layer, that means you get a tensor with a shape of (None, 1) 

     

    keras.layers.Dense(2, activation = 'softmax') 
    
    keras.layers.Dense(1, activation = 'sigmoid')
    
    eras.layers.Dense(2, activation = 'sigmoid') =>잘못된것

     

    'AI > MachineLearning' 카테고리의 다른 글

    MachineLearning_Basic  (0) 2022.08.21

    댓글

Designed by Tistory.