cost function 예제

선형 비용 함수는 수량의 지수가 1이되도록 하는 것입니다. 한계 비용이 일정한 비용 구조에만 적합합니다. 우리는 단지 세 가지 무작위 가설을 시도했습니다 – 우리가 시도하지 않은 또 다른 가설은 best_fit_2보다 가장 낮은 비용을 가지고 있습니다. 이것은 그라데이션 하강 (따라서 힘 GD)가 유용하게 제공되는 곳입니다. GD를 사용하여 가설을 하나씩 시도하지 않고도 최소화된 값을 자동으로 찾을 수 있습니다. GD와 함께 비용 함수를 사용하여 선형 회귀라고합니다. 비용 함수 수식은 다음과 같은 계산을 생성합니다: 비용 함수는 비용과 출력 간의 수학적 관계입니다. 출력의 변화에 대한 응답으로 비용이 어떻게 변하는지 알려줍니다. 그라데이션 하강을 사용하면 모델이 오류를 줄이기 위해 수행해야 하는 그라데이션 또는 방향을 학습할 수 있습니다(실제 y와 예측y 간의 차이). 간단한 선형 회귀 예제의 방향은 비용 함수를 더 줄이기 위해 모델 매개변수 b0 및 b1을 조정하거나 수정하는 방법을 나타냅니다. 모델이 계속 진행됨에 따라 매개 변수를 추가로 조정하면 손실(수렴이라고도 함)이 거의 또는 0으로 변경되는 최소값으로 점차 수렴됩니다. ML에서는 데이터에서 학습하는 데 중점을 둡니다. 이것은 아마도 더 나은 간단한 비유를 사용하여 설명.

어렸을 때 우리는 일반적으로 일을 하지 말라고 말하거나 해서는 안 되는 일을 한 것에 대해 벌을 받는 것으로 “옳은” 행동이나 “좋은” 행동을 배웁니다. 예를 들어, 불을 따뜻하게 유지하기 위해 불 옆에 앉아 있는 네 살짜리 아이가 화재의 위험을 알지 못하고 손가락을 넣고 화상을 입었다고 상상할 수 있습니다. 다음에 그녀가 불 옆에 앉아, 그녀는 화상을 입지 않습니다, 하지만 그녀는 너무 가까이 앉아, 너무 뜨거워지고 멀리 이동해야합니다. 세 번째로 그녀는 어떤 위험에 그녀를 노출하지 않고 그녀를 따뜻하게 유지하는 거리를 발견 불 옆에 앉아. 즉, 경험과 피드백을 통해 (화상을 입은 다음 너무 뜨거워짐) 아이는 불에서 앉을 수있는 최적의 거리를 배웁니다. 이 예제에서 불의 열은 비용 함수역할을 하며 학습자가 실수를 최소화하기 위해 동작을 수정/변경하는 데 도움이 됩니다. 위에서 설명한 함수로 표시되는 총 비용 및 총 가변 비용 곡선은 다음과 같은 그래프를 제공합니다. 이벤트 또는 하나 이상의 변수 값을 실제 숫자에 매핑하여 이벤트와 관련된 일부 “비용”을 직관적으로 나타내는 함수입니다.

Comments are closed.