tensorflow softmax 예제

tf.nn.softmax는 소프트맥스 함수를 입력 텐서에 적용한 결과만 생성합니다. softmax는 sum(input) = 1: 정규화하는 방법입니다. softmax의 출력 모양은 입력과 동일합니다: 값을 정규화합니다. 소프트맥스의 출력은 확률로 해석될 수 있습니다. 신경망의 출력 계층에서 y_hat = W*x + b와 같이 각 교육 인스턴스에 대한 클래스 점수가 포함된 배열을 계산할 수 있습니다. 예를 들어, 아래에서 y_hat을 2 x 3 배열로 만들었으며, 여기서 행은 학습 인스턴스에 해당하고 열은 클래스에 해당합니다. 그래서 여기에 2 교육 인스턴스와 3 클래스가 있습니다. 단순화를 위해 관찰을 위한 softmax 확률 벡터를 나타내겠습니다. 소프트 맥스 깊은 다이빙에 대한 우리의 기사를 읽어 보시 소프트 맥스 기본 을 넘어. 또한 Softmax와 Sigmoid이 이진 분류에 해당한다는 설명을 찾을 수 있습니다.

텐서플로우와 피토치의 소프트맥스의 다양한 맛과 구현. 기본 을 넘어 소프트 맥스에서 곧: 소프트 맥스 기능을 그래프 하는 방법? 빅 데이터 집합에 대해 Softmax를 계산하는 보다 효율적인 방법이 있습니까? 지켜. subscribe@uniqtech.co 우리는 행 현명한 기준으로 교차 엔트로피 손실을 계산하고 결과를 볼 수 있습니다 subscribe@uniqtech.co. 아래에서 트레이닝 인스턴스 1의 손실은 0.479, 학습 인스턴스 2는 1.200의 손실이 더 높은 것을 볼 수 있습니다. 위의 예에서 y_hat_softmax는 교육 인스턴스 1의 가장 높은 확률이 y_true의 학습 인스턴스 1과 일치하는 « 클래스 2″에 대한 것으로 나타났기 때문에 이 결과가 의미가 있습니다. 그러나 학습 인스턴스 2에 대한 예측은 실제 클래스 « 클래스 3″과 일치하지 않는 « 클래스 1″에 대한 가장 높은 확률을 보였습니다. 그들 사이의 차이점은 무엇입니까? 문서는 나에게 명확하지 않다. 나는 tf.nn.softmax가 하는 일을 알고 있다. 하지만 다른. 예를 들어 정말 도움이 될 것입니다.

대신 아래와 같이 tf.nn.softmax_cross_entropy_with_logits() 함수를 사용하여 총 교차 엔트로피 손실을 계산할 수 있습니다. 크로스 엔트로피 손실에 대해 자세히 알려주세요. 물론! 이 경우 교차 엔트로피 손실은 예측이 실제 레이블과 얼마나 유사한지 측정합니다. 예를 들어 확률이 [0.7, 0.2, 0.1]이어야 하지만 첫 번째 시도[0.3, 0.3, 0.4], 두 번째 시도 동안 [0.6, 0.2, 0.2]를 예측한 경우. 당신은 첫 번째 시도의 크로스 엔트로피 손실을 기대할 수 있습니다, 이는 완전히 부정확, 거의 당신이 예상에서 너무 멀리 떨어져있지 않은 두 번째 시나리오보다 더 높은 손실을 가지고 임의의 추측처럼. 여기에 우리의 전체 크로스 엔트로피 손실 자습서를 읽어보십시오. 소프트맥스 회귀 모델은 다음 다이어그램에서 설명할 수 있습니다. 입력의 xs 가중치 합계의 경우 오프셋을 추가하고 softmax 함수에 추가합니다. 이제 프로덕션에 배포할 수 있습니다.