Introduction to pattern recognition for human ict review of probability and statistics
This presentation is the property of its rightful owner.
Sponsored Links
1 / 102

Introduction to Pattern Recognition for Human ICT Review of probability and statistics PowerPoint PPT Presentation

  • Uploaded on
  • Presentation posted in: General

Introduction to Pattern Recognition for Human ICT Review of probability and statistics. 2014. 9. 19 Hyunki Hong. Contents. Probability Random variables Random vectors The Gaussian random variable. Review of probability theory. • Definitions (informal)

Download Presentation

Introduction to Pattern Recognition for Human ICT Review of probability and statistics

An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.

- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -

Presentation Transcript

Introduction to Pattern Recognition for Human ICTReview of probability and statistics

2014. 9. 19

Hyunki Hong


  • Probability

  • Random variables

  • Random vectors

  • The Gaussian random variable

Review of probability theory

• Definitions (informal)

1. Probabilities are numbers assigned to events that indicate “how likely” it is that the event will occur when a random experiment is performed.

2. A probability law for a random experiment is a rule that assigns probabilities to the events in the experiment.

3. The sample space S of a random experiment is the set of all possible outcomes.

• Axioms of probability

1. Axiom I: 𝑃[𝐴𝑖] ≥ 0

2. Axiom II: 𝑃[𝑆] = 1

3. Axiom III: 𝐴𝑖∩𝐴j= ∅ ⇒ 𝑃[𝐴𝑖 ⋃ 𝐴𝑗] = 𝑃[𝐴𝑖] + 𝑃[𝐴𝑗]

More properties of probability

예) N=3, P[A1] + P[A2] + P[A3] - P[A1∩A2] - P[A1∩A3] - P[A2∩A3] +P[A1∩A2∩A3]


• If A and B are two events, the probability of event A when we already know that event B has occurred is

1. This conditional probability P[A|B] is read:

– the “conditional probability of A conditioned on B”, or simply

– the “probability of A given B”

  • Interpretation

    1. The new evidence “B has occurred”

    has the following effects.

    - The original sample space S (the square) becomes B (the rightmost circle).

    - The event A becomes A∩B.

    2. P[B] simply re-normalizes the probability of events that occur jointly with B.

Theorem of total probability

• Let 𝐵1, 𝐵2, …, 𝐵𝑁be a partition of 𝑆 (mutually exclusive that add to 𝑆).

  • Any event 𝐴 can be represented as

    𝐴 = 𝐴∩𝑆 = 𝐴∩(𝐵1∪𝐵2 …𝐵𝑁) = (𝐴∩𝐵1)∪(𝐴∩𝐵2)…(𝐴∩𝐵𝑁)

  • Since 𝐵1, 𝐵2, …, 𝐵𝑁are mutually exclusive, then

    𝑃[𝐴] = 𝑃[𝐴∩𝐵1] + 𝑃[𝐴∩𝐵2] + ⋯ + 𝑃[𝐴∩𝐵𝑁]

    and, therefore

    𝑃[𝐴] = 𝑃[𝐴|𝐵1]𝑃[𝐵1]+ ⋯ + 𝑃[𝐴|𝐵𝑁] 𝑃[𝐵𝑁] =

Bayes theorem

• Assume {𝐵1, 𝐵2, …, 𝐵𝑁}is a partition of S

  • Suppose that event 𝐴 occurs

  • What is the probability of event 𝐵𝑗?

  • Using the definition of conditional probability and the theorem of total probability we obtain

  • This is known as Bayes Theorem or Bayes Rule, and is (one of) the most useful relations in probability and statistics.

Bayes theorem & statistical pattern recognition

  • When used for pattern classification, BT is generally expressed as

    where 𝜔𝑗is the 𝑗-th class (e.g., phoneme) and 𝑥 is the feature/observation vector (e.g., vector of MFCCs)

  • A typical decision rule is to choose class 𝜔𝑗with highest P[𝜔𝑗|𝑥].

    Intuitively, we choose the class that is more “likely” given observation 𝑥.

  • Each term in the Bayes Theorem has a special name

    1. 𝑃[𝜔𝑗]prior probability (of class 𝜔𝑗)

    2. 𝑃[𝜔𝑗|𝑥]posterior probability (of class 𝜔𝑗given the observation 𝑥)

    3. 𝑝[𝑥|𝜔𝑗]likelihood (probability of observation 𝑥 given class 𝜔𝑗)

    4. 𝑝[𝑥]normalization constant (does not affect the decision)

Mel-frequency cepstrum (MFC): 단구간 신호의 파워스펙트럼을 표현하는 방법. 비선형적인 Mel스케일의 주파수 도메인에서 로그파워스펙트럼에 cosine transform으로 얻음. Mel-frequency cepstral coefficients (MFCCs)는 여러 MFC들을 모아 놓은 계수들을 의미함. (음성신호처리)

  • Example

    1. Consider a clinical problem where we need to decide if a patient has a particular medical condition on the basis of an imperfect test.

    - Someone with the condition may go undetected (false-negative).

    - Someone free of the condition may yield a positive result (false-positive).

    2. Nomenclature

    - The true-negative rate P(NEG|-COND) of a test is called its SPECIFICITY

    - The true-positive rate P(POS|COND) of a test is called its SENSITIVITY

    3. Problem

    - Assume a population of 10,000 with a 1% prevalence for the condition

    - Assume that we design a test with 98% specificity and 90% sensitivity

    - Assume you take the test, and the result comes out POSITIVE

    - What is the probability that you have the condition?

    4. Solution

    - Fill in the joint frequency table next slide, or

    - Apply Bayes rule

TN / (TN+FP) X 100



TP / (TP+FN) X 100



  • Applying Bayes reule

Random variables

• When we perform a random experiment, we are usually interested in some measurement or numerical attribute of the outcome.

ex) weights in a population of subjects, execution times when benchmarking CPUs, shape parameters when performing ATR

  • These examples lead to the concept of random variable.

    1. A random variable 𝑋 is a function that assigns a real number 𝑋(𝜉)to each outcome 𝜉 in the sample space of

    a random experiment.

    2. 𝑋(𝜉)maps from all possible outcomes

    in sample space onto the real line.

Random variables

• The function that assigns values to each outcome is fixed and deterministic, i.e., as in the rule “count the number of heads in three coin tosses”

1. Randomness in 𝑋 is due to the underlying randomness of the outcome 𝜉 of the experiment

  • Random variables can be

    1. Discrete, e.g., the resulting number after rolling a dice

    2. Continuous, e.g., the weight of a sampled


Cumulative distribution function (cdf)

• The cumulative distribution function 𝐹𝑋(𝑥) of a random variable 𝑋 is defined as the probability of the event {𝑋 ≤ 𝑥}

𝐹𝑋(𝑥) = 𝑃[𝑋 ≤ 𝑥] − ∞ < 𝑥 < ∞

  • Intuitively, 𝐹𝑋(𝑏)is the long-term proportion

    of times when 𝑋(𝜉)≤ 𝑏.

  • Properties of the cdf

Probability density function (pdf)

• The probability density function 𝑓𝑋(𝑥) of a continuous random variable 𝑋, if it exists, is defined as the derivative of 𝐹𝑋(𝑥).

  • For discrete random variables, the equivalent

    to the pdf is the probability mass function

  • Properties

1lb = 0.45359237kg

Statistical characterization of random variables

• The cdf or the pdf are SUFFICIENT to fully characterize a r.v.

  • However, a r.v. can be PARTIALLY characterized with other measures

  • Expectation (center of mass of a density)

  • Variance (spread about the mean)

  • Standard deviation

  • N-th moment

Random vectors

• An extension of the concept of a random variable

1. A random vector 𝑋is a function that assigns a vector of real numbers to each outcome 𝜉 in sample space 𝑆

2. We generally denote a random vector by a column vector.

  • The notions of cdf and pdf are replaced by ‘joint cdf’ and ‘joint pdf’.

    1. Given random vector 𝑋 = [𝑥1, 𝑥2, …, 𝑥𝑁]𝑇we define the joint cdf as

    2. and the joint pdf as

  • The term marginal pdf is used to represent the pdf of a subset of all the random vector dimensions

    1. A marginal pdf is obtained by integrating out variables that are of no interest

    ex) for a 2D random vector 𝑋= [𝑥1, 𝑥2]𝑇, the marginal pdf of 𝑥1 is

Statistical characterization of random vectors

• A random vector is also fully characterized by its joint cdf or joint pdf.

  • Alternatively, we can (partially) describe a random vector with measures similar to those defined for scalar random variables.

  • Mean vector:

  • Covariance matrix

• The covariance matrix indicates the tendency of each pair of features (dimensions in a random vector) to vary together, i.e., to co-vary

1. The covariance has several important properties

– If 𝑥𝑖and 𝑥𝑘tend to increase together, then 𝑐𝑖𝑘> 0

– If 𝑥𝑖tends to decrease when 𝑥𝑘increases, then 𝑐𝑖𝑘< 0

– If 𝑥𝑖and 𝑥𝑘are uncorrelated, then 𝑐𝑖𝑘=0

– |𝑐𝑖𝑘 | ≤ 𝜎𝑖𝜎𝑘, where 𝜎𝑖is the standard deviation of 𝑥𝑖.

– 𝑐𝑖𝑖= 𝜎𝑖2 = 𝑣𝑎𝑟[𝑥𝑖]

2. The covariance terms can be expressed as 𝑐𝑖𝑖= 𝜎𝑖2 and 𝑐𝑖𝑘=𝜌𝑖𝑘𝜎𝑖𝜎𝑘.

– where 𝜌𝑖𝑘is called the correlation coefficient.

A numerical example

• Given the following samples from a 3D distribution

1. Compute the covariance matrix.

2. Generate scatter plots for every pair of vars.

3. Can you observe any relationships between the covariance and the scatter plots?

4. You may work your solution in

the templates below.





























































The Normal or Gaussian distribution

• The multivariate Normal distribution 𝑁(𝜇,Σ) is defined as

  • For a single dimension, this expression is reduced to

• Gaussian distributions are very popular since

1. Parameters 𝜇,Σ uniquely characterize the normal distribution

2. If all variables 𝑥𝑖are uncorrelated (𝐸[𝑥𝑖𝑥𝑘] = 𝐸[𝑥𝑖]𝐸[𝑥𝑘]), then

– Variables are also independent (𝑃[𝑥𝑖𝑥𝑘] = 𝑃[𝑥𝑖]𝑃[𝑥𝑘]), and

– Σ is diagonal, with the individual variances in the main diagonal.

• Central Limit Theorem (next slide)

• The marginal and conditional densities are also Gaussian.

• Any linear transformation of any 𝑁 jointly Gaussian r.v.’s results in 𝑁 r.v.’s that are also Gaussian.

1. For 𝑋 = [𝑋1𝑋2…𝑋𝑁]𝑇jointly Gaussian, and 𝐴𝑁×𝑁invertible, then 𝑌 = 𝐴𝑋 is also jointly Gaussian.

• Central Limit Theorem

1. Given any distribution with a mean 𝜇 and variance 𝜎2, the sampling distribution of the mean approaches a normal distribution with mean 𝜇 and variance 𝜎2/𝑁 as the sample size 𝑁 increases

- No matter what the shape of the original distribution is, the sampling distribution of the mean approaches a normal distribution.

- 𝑁 is the sample size used to compute the mean, not the overall number of samples in the data.

2. Example: 500 experiments are performed using a uniform distribution.

- 𝑁 = 1

1) One sample is drawn from the distribution and its mean is recorded (500 times).

2) The histogram resembles a uniform distribution, as one would expect.

- 𝑁 = 4

1) Four samples are drawn and the mean of the four samples

is recorded (500 times)

2) The histogram starts to look more Gaussian

- As 𝑁 grows, the shape of the histograms resembles

a Normal distribution more closely.

01_기초 통계

  • 통계학

    • 자료를 정보화하고 이를 바탕으로 하여 객관적인 의사 결정 과정을 연구하는 학문

  • 불확실한 상태 추정의 문제

    • 불확실한 상태의 판별 및 분석을 위한 방법으로 확률적인 여러 기법들 사용

      • Ex: 노이즈가 심한 데이터모델링 및 분석

    • 패턴인식에서는 통계학적인 기법들을 이용하여 주어진 상태에 대한 통계 분석이 필수

  • 확률값을 이용한 상태 추정

    • 확률: 개연성, 신뢰도, 발생 빈도 등..

01_기초 통계

  • 통계 용어

    • 추정

      • 요약된 데이터를 기반으로 특정 사실을 유도해 내는 것

    • 데이터 분석의 신뢰성

      • 서로 다르게 반복적으로 데이터를 수집하더라도 항상 동일한 결과가 얻어지는가?

        • 즉, 보편적인 재현이 가능한가?

    • 모집단

      • 데이터 분석의 관심이 되는 전체 대상

    • 표본

      • 모집단의 특성을 파악하기 위해서 수집된 모집단의 일부분인 개별 자료

    • 표본 분포

      • 동일한 모집단에서 취한, 동일한 크기를 갖는 가능한 모든 표본으로부터 얻어진 통계 값들의 분포

01_기초 통계

  • 통계 파라미터

    • 평균(mean)

      • 자료의 총합을 자료의 개수로 나눈 값.

      • 자료 분포의 무게 중심에 해당한다.

    • 분산(variance)

      • 평균으로 부터 자료가 흩어져 있는 정도.

      • 자료로부터 평균값의 차이에 대한 제곱 값.

    • 표준 편차(standard deviation)

      • 분산의 제곱근을 취하여 자료의 차수(1차) 와 일치시킨 것을 말한다.

01_기초 통계

  • 바이어스(bias)

    • 데이터의 편향된 정도를 나타냄

01_기초 통계

  • 공분산(covariance)

    • 두 종류 이상의 데이터가 주어질 경우에 두 변수사이의 연관 관계에 대한 척도

    • 표본 데이터 이변량 데이터(bivariate) 일 경우의 공분산 계산

      • Ex  xi: 2시~3시 사이에 아트센터 정문을 출입하는 사람의 수

        yi: 2시~3시 사이의 평균 기온

    • 변수들 간의 선형관계가 서로 정방향(+)인지 부방향(-)인지 정도만 나타냄.

Cov(x, y) > 0 : 정방향 선형관계

Cov(x, y) < 0 : 부방향 선형관계

Cov(x, y) = 0 : 선형관계가 없음

01_기초 통계

  • 상관 계수(correlation coefficient)

    • 두 변량 X,Y 사이의 상관관계의 정도를 나타내는 수치(계수)

    • 공분산과의 차이점:

      • 공분산: 변수들 간의 선형관계가 정방향인지부방향인지 정도만 나타냄.

      • 상관 계수: 선형 관계가 얼마나 밀접한지를 나타내는 지표

    • 변수들의 분포 특성과는 관계 없음.

01_기초 통계

  • Ex: 도서관 상주시간, 성적, 결석횟수의 상관관계

    • 작은 상관 계수는 선형적으로 두 성분간의 관련성이 거의 없음을 나타낸다.

    • 음의 상관 계수는 두 성분이 서로 상반되는 특성을 가짐을 의미함.

x1: 주당 도서관에 있는 시간

x2: 패턴인식 과목 점수

x3: 주당 결석 시간

01_기초 통계

  • 왜도(skewness, skew)

    • 분포가 어느 한쪽으로 치우친(비대칭:asymmetry) 정도를 나타내는 통계적 척도.

    • 오른쪽으로 더 길면 양의 값이 되고 왼쪽으로 더 길면 음의 값이 된다.

    • 분포가 좌우 대칭이면 0이 된다.

01_기초 통계

  • 첨도(kurtosis)

    • 뾰족한(peakedness) 정도를 나타내는 통계적 척도이다.

2차원 데이터 생성

  • 특정 확률분포를 따라 확률적으로 생성

  • 연구 목적에 맞는 데이터 확률분포 정의

  • 이 분포로부터 랜덤하게 데이터 추출

  • 균등분포 rand()

  • 가우시안 분포 randn()

     일반적인 경우 평균/공분산에 따른 변환 필요

2차원 데이터 생성

replicate and tile an array


m1=repmat([3,5], N,1);

m2=repmat([5,3], N,1);

s1=[1 1; 1 2];

s2=[1 1; 1 2];



plot(X1(:,1), X1(:,2), '+');

hold on;

plot(X2(:,1), X2(:,2), 'd');

save data2_1 X1 X2;

matrix square root

normally distributed pseudorandom numbers

ex) Generate values from a normal distribution with mean 1 and stadard deviation 2

r = 1+2.*randn(100,1)

2차원 데이터 생성





학습 데이터

테스트 데이터





학습 : 데이터의 분포 특성 분석

  • 분포 특성 분석 결정경계

load data2_1;

m1 = mean(X1);

m2 = mean(X2);

s1 = cov(X1);

s2 = cov(X2);

save mean2_1 m1 m2 s1 s2;

학습 데이터로부터 추정된 평균과 공분산

분류 : 결정경계의 설정

  • 판별함수


  • 클래스 라벨








성능 평가

load data2_1;

load mean2_1



for i=1:N



if (d1-d2) > 0 Etrain = Etrain+1; end



if (d1-d2) < 0 Etrain = Etrain+1; end


fprintf(1,'Training Error = %.3f\n', Etrain/50);

  • 학습 오차 계산 프로그램

성능 평가



학습 데이터

테스트 데이터

데이터의 수집과 전처리

0 1 2 3 4 5 6 7 8 9

0 1 2 3 4 5 6 7 8 9

0 1 2 3 4 5 6 7 8 9

0 1 2 3 4 5 6 7 8 9

0 1 2 3 4 5 6 7 8 9

0 1 2 3 4 5 6 7 8 9

0 1 2 3 4 5 6 7 8 9

테스트 데이터

전처리를 거친 데이터 집합

(크기 정규화, 이진화)

학습 데이터

수집된 데이터 집합

데이터 변환

영상데이터를 읽어 데이터 벡터로 표현하고 저장

  • (전처리된)영상 데이터(20x16)  벡터(320차원)

for i=0:1:9

for j=3:7

fn = sprintf('digit%d_%d.bmp', i, j);

xi = imread(fn);

x = reshape(double(xi), 20*16, 1);

Xtrain(:, i*5+j-2) = x;

Ttrain(i*5+j-2, 1) = i;


for j=1:2

fn = sprintf('digit%d_%d.bmp', i, j);

xi = imread(fn);

x = reshape(double(xi), 20*16, 1);

Xtest(:, i*2+j) = x;

Ttest(i*2+j, 1) = i;



save digitdataXtrainTtrainXtestTtest

학습 데이터


reshape array: 320 by 1

학습데이터집합: 320 by50

클래스 레이블: 320 by50

테스트 데이터


학습과 결정경계

load digitdata

for i=0:1:9

mX(:, i+1) = mean(Xtrain(:, i*5+1:i*5+5)’)’;


save digitMeanmX;

mXi = uint8(mX*255);

for i = 0:1:9

subplot(1, 10, i+1);

imshow(reshape(mXi(:, i+1), 20, 16));


  • 학습 데이터에 대한 평균 벡터 계산

convert to unsigned 8-bit integer



분류와 성능 평가


load digitdata; load digitMean

Ntrain = 50; Ntest = 20;

Etrain = 0; Etest = 0;

for i = 1:50

x = Xtrain(:.i);

for j = 1:10

dist(j) = norm(x - mX(:, j));


[minv, minc_train(i)] = min(dist);

if(Ttrain(i) ~= (minc_train(i) - 1)) Etrain = Etrain+1; end


for i = 1:20

x = Xtest(:, i);

for j = 1:10

dist(j) = norm(x - mX(:, j));


[minv, minc_test(i)] = min(dist);

if(Ttest(i) ~= (minc_test(i) - 1)) Etest = Etest+1; end


학습 데이터

minv: 최소값.

minc_train: 최소거리를 갖는 평균 영상데이터 레이블

테스트 데이터

분류와 성능 평가

테스트 데이터

(오차 15%)

학습 데이터

(오차 2%)

01_기초 통계

  • 회귀분석

    • 회귀직선

      • 표본 집합을 대표하는 최적의 직선을 구하는 과정

      • 각 표본에서 직선까지의 거리 합이 가장 작은 직선을 구하는 과정

        • 각 표본에서 직선에 내린 수선의 길이의 제곱 값의 합이 최소인 직선을 구함

      • '최소 자승법(Method  of Least Mean Squares, LMS)'

Least squares line fitting

  • Data: (x1, y1), …, (xn, yn)

  • Line equation: yi = m xi + b

  • Find (m, b) to minimize


(xi, yi)

Normal equations: least squares solution to XB = Y


  • Data: (x1, y1), …, (xn, yn)

  • Line equation: yi = m xi + b, y1= m x1+ b, …, yn= m xn+ b

    위 식으로 얻어진 y = m x + b

  • (0, 1), (1, 3), (2, 4), (3, 4)의 최소제곱직선?

측정오차있으면, 측정된 점은 직선 위에 있지 않음.

: 최소제곱직선(least squares line of best fit)

또는 회귀직선(regression line)

Total least squares

  • Distance between point (xi, yi) and line ax+by=d (a2 + b2 = 1): |axi + byi – d|

  • Find (a, b, d) to minimize the sum of squared perpendicular distances


Unit normal: N=(a, b)

(xi, yi)

Total least squares

Solution to (UTU)N = 0, subject to ||N||2 = 1: eigenvector of UTUassociated with the smallest eigenvalue (least squares solution to homogeneous linear systemUN = 0)

second moment matrix

01_기초 통계

  • 회귀곡선, 곡선 피팅(curvefitting)

    • 표본 데이터에 대한2차 함수 매핑 과정

      • 보다 높은 차수의 함수도 매핑 가능

    • 곡선으로 나타낸 회귀 식을 '회귀 곡선'이라고 한다.

02_확률 이론

  • 확률 용어

    • 통계적 현상

      • 불확실한 현상을 반복하여 관찰하거나, 그에 대한 대량의 표본을추출하여 고유의 법칙 및 특성을 찾아낼 수 있는 현상

    • 확률 실험의 특성

      • 동일한 조건 아래에서 반복 수행할 수 있음

      • 시행의 결과가 매번 다르므로 예측할 수 없으나, 가능한 모든 결과의 집합은 알 수 있음

      • 시행을 반복할 때 각각의 결과는 불규칙하게 나타나지만, 반복의 수를 늘이면 어떤 통계적 규칙성이 나타나는 특징을 가짐

02_확률 이론

  • 확률(probability)

    • 통계적 현상의 확실함의 정도를 나타내는 척도.

    • 무작위 시행에서 어떠한 사건이 일어날 정도를 나타내는 사건에 할당된 수들을 말함

    • 확률 법칙

      • 무작위 시행에서 사건에 확률을 할당하는 규칙을 말함

      • 무작위 시행의 표본 공간 S가 모든 가능한 출력 집합이 된다.

02_확률 이론

  • 수학적 확률

    • 표본공간 S에 대해서 사건 A가 일어날 경우의 수 n(A)/n(S)을 사건 A의 확률이라고 한다.

      • 모든경우의 수 및 표본 집합이 미리 주어진 경우

  • 통계적 확률

    • 시행을 여러 번 반복하여 대상 사건이 일어나는 확률을 상대적 빈도수로부터 경험적으로 추정하는 과정

      • 일반적인 자연 현상이나 사회 현상에는 발생 가능성이나 횟수를 미리 알 수 없는 경우가 대부분임.

    • n회의 시행에서 사건이 r회 일어났다고 하면 상대적 빈도수는 r/n이 된다.

    • 이와 같이 추정되는 확률을 통계적 확률이라고 한다.

  • 사건(event)과 배반 사건 (mutually exclusive event)

    • 결과가 우연인 실험을 시행(trial)이라고함.

    • 무작위 시행된 결과를 '사건'이라고 한다.

    • 두 사건 A, B가 동시에 일어날 수 없을 때 A, B는 서로 배반(mutually exclusive)한다고 한다.

    • 두 사건 A, B가 서로 전혀 무관한 사건일 경우, A, B를독립사건이라고 함.

02_확률 이론

  • 표본 공간(sample space)과 확률 공간

    • 관찰할 조건 및 발생 가능한 결과의 범위를 규정한 다음, 그 범위 내의 각 결과에 기호를 대응시킨 집합을 '표본 공간'이라고 한다.

      • 표본 공간의 원소를 '표본점'이라 함

      • 하나의 표본점으로 이루어진 사건을 '근원 사건'이라 함.

      • 표본 공간의 부분 집합을 '사건’이라고 함.

    • 표본 공간에 확률이 대응된 집합을 '확률 공간'이라 함

      • 확률 공간이란 확률 실험에서 가능한 모든 결과의 집합을 말한다.  

    • Example: 한 개의 주사위를 한 번 던져서 짝수의 눈이 나온경우

      • 표본공간은 S={1, 2, 3, 4, 5, 6}이고, 근원 사건은Ep={1, 2, 3, 4, 5, 6}, 사건은 E={2, 4, 6}

02_확률 이론

  • 확률에 관한 정리

  • 확률에 관한 성질

02_확률 이론

  • 주변 확률 (marginal probability)

    • 2개 이상의 사건이 주어졌을 때 하나의 사건이 일어날 단순한 확률

      • 즉, 다른 사건은 고려하지 않은 확률

  • 조건부 확률 (conditionalprobability)

    • A와 B 두 개의 사건이 있을 경우, 사건 B가 일어날 확률이 이미 알려져 있을 경우에 사건 A가 일어날 확률

      • P[A|B] : Pr. of A given B

    • 조건부 확률에서개별 확률 P[A], P[B] 를 사전확률(priori probability)라고함

    • 조건부 확률 P[A|B], P[B|A]를 사후확률(posteriori probability)이라고함.

    • 사건 A와 B가 독립사건이면 P[A|B] = P[A]

주어진 B에 대한 A의 확률

02_확률 이론

  • 결합 확률 (joint rule)

    • A와 B 사건이 동시에 발생하는 확률,

      • 즉, 조건부 확률로 유도되는 확률

    • P[B]×P[A | B] =P(A∩B), P[A]×P[B | A] =P(A∩B)

    • 만약사건 A와 B가 독립사건이면

      • P[A|B]=P(A), P[B|A]=P(B)

      • P[A|B]=P(A) P[B]×P[A]=P(A∩B)가 성립한다.

  • 체인 규칙(chain rule)

    • 각 사건이 일어날 확률을조건부 확률과 결합 확률을 이용하여 연쇄적인(chain) 조건부 확률의 곱으로 표현한 것.

      • 이를 '체인 규칙'이라고 한다.

02_확률 이론

결합 분포: 확률 변수가 여러 개일 때 이들을 함께 고려하는 확률 분포

이산적 경우:

연속적인 경우,

  • 체인 규칙(chain rule)

    • 각 사건이 일어날 확률을조건부 확률과 결합 확률을 이용하여 연쇄적인(chain) 조건부 확률의 곱으로 표현한 것.

02_확률 이론

  • 전체 확률 (total probability)

    • B1,B2,…,Bn의 합집합이 표본 공간이고, 서로 상호 배타적인 사건이라고 할 때..

      • 표본 공간 S의 분할 영역으로 이들 집합을 나타낼 수 있다. 이 때, 사건 A은 아래 식과 같이 표현된다.

    • B1,B2,…,Bn은 상호 배타적이므로

    • 그러므로 아래식이 성립하며 이를 사건 A의 전체 확률이라고 한다.


02_확률 이론

  • 전체 확률 (total probability)

    • 사건 A의 전체 확률

    • 예제: 어느 공장에서 A, B, C 세 종류의 기계를 사용하여 물건을 생산하고, 기계 A, B, C를 전체 생산량의 50%, 30%, 20%를 각각 생산한다. 여기서 만드는 제품의 불량률은 각각 1%, 2%, 3%라고 한다. 이들 재품에서 임의로 1개를 뽑아 검사할 때, 그것이 불량품일 확률은?

      P[불량] = P[A∩불량] + P[B∩불량] + P[C∩불량]

      = P[불량|A]P[A] + P[불량|B]P[B] + P[불량|C]P[C]

      = (0.01×0.5) + (0.02×0.3) + (0.03×0.2) = 0.017

02_확률 이론

  • 베이즈의 정리 (Bayes’ rule)

    • 표본공간 S의 분할 영역 B1, B2, …, BN주어졌을 때, 사건 A가 일어났다고 가정. 이 사건이 Bj 의 영역에서 일어날 확률은?

    • 특징 벡터(x)가 관측되었을 때, 그 특징 벡터가 속하는 클래스(ωj)를 알아내는 문제

    • 앞의 예제에서 창고에서 1개를 뽑아 검사해서 불량품이라면, 이것이 A제품일 확률은?

→ 가장큰 P[ωi|x] 갖는 클래스 ωi 선택

= (0.01×0.5)/[(0.01×0.5) + (0.02×0.3) + (0.03×0.2)] = 5/17


  • 확률변수

    • 확률실험에서 개별 시행 결과를 수치로 대응시키는 함수를 '확률변수' 혹은 '랜덤변수'라고 정의한다.

      • Ex: 동전 두 개를 던지는 시행의 경우, 앞면(head) 아니면 뒷면(tail):

        • 표본 공간 S = {(H, H), (H, T), (T, H), (T, T)}

          → 앞면이하나 이상 나올 확률값: ¾

        • 동전 열 개를 던지는 경우와 같이 시행이 복잡할 경우, 표본 공간 상에서 바로 확률을 구하는 것이 어려움. 실험 결과를 수치로 대응시켜 놓고 통계적 분석을 행하는 것이 용이.

        • 예제: ‘두 개의 동전을 던지는 확률 실험에서

          앞 면이 나오는 횟수’ 규칙으로 만들어지는

          확률변수 X의 값 x = {0, 1, 2}

        • ‘두 개의 주사위의점들의 합’ 규칙으로 만들어지는

          확률변수 X의 값 x = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}

cf. 확률(또는 랜덤) 의미: 시행 전에 어떤 값을 가질지 모르는 불확실성

또는 표본 공간 안의 모든 값이 나올 확률이 같다

확률변수는영문 대문자로. 그 변수가 취할 수 있는 값는 소문자로 표시


  • 확률 분포

    • 수치로 대응된 확률변수가 가지는 확률값의 분포

      : 확률변수 X가 x의값을 갖는 확률 P(X = x)또는 p(x)로 표시

      • 예1) 두 개의 동전을 던지는 확률 실험에서 앞면이 나오는 숫자 (앞=1, 뒤=0)

      • 예2) 두개의 주사위를 던져서 나오는 점들의 합

cf. 확률변수가 취할 수 있는 구체적인 값을 확률공간상의 확률값으로 할당해 주는 함수

: 확률분포함수 또는 확률함수

03_확률함수의 종류

  • 누적분포함수

03_확률함수의 종류

  • 누적분포함수의 성질 (cdf)

03_확률함수의 종류

  • 확률밀도함수(pdf), 확률질량함수(pmf)

cf. 확률밀도함수는 확률의 밀도만을 정의. 실제 확률을 얻으려면 확률밀도함수를 일정 구간에서 적분

03_확률함수의 종류

  • 가우시안 확률밀도함수

    • 확률분포함수 중에서 가장 많이 이용되는 분포가 가우스(Gaussian) 확률밀도함수다.

    • 1차원의 특징 벡터일 경우에는 두 개의 파라미터, 평균 μ 와 표준편차 σ 만 정해지면 가우시안 확률밀도함수는 다음과 같이 표현한다.

03_확률함수의 종류

  • 가우시안 확률밀도함수

    • 가우스(Gaussian) 확률밀도함수



03_확률함수의 종류

  • 확률밀도함수의 성질

03_확률함수의 종류

  • 확률밀도함수와 확률

03_확률함수의 종류

  • 확률질량함수

03_확률함수의 종류

  • 기대값: 확률변수의 평균

    • 일반적인 표본 평균

    • 확률변수의평균과 분산

      • 일반 데이터의평균(x) 및 분산 (s)과 구별하기 위해서 평균은 μ, 분산은 σ로 나타냄.

: X의 기대값(expectation)

= 각값의 가중 산술평균의 확률적 용어 표현

: 상대도수, 빈도수

(연속확률 변수인 경우)

03_확률함수의 종류

  • 기대값: 확률변수의 평균

    • 확률변수의평균과 분산:

An illustration of the convergence of sequence averages of rolls of a die to the expected value of 3.5 as the number of trials grows

03_확률함수의 종류

  • 확률변수의 분산과 표준편차

(variance, 2th central moment)

: 확률변수의 분산도 데이터의 분산식에서 유도

(연속확률 변수인 경우)

04_벡터 랜덤변수

  • 랜덤변수 벡터

    • 렌덤 변수로 구성된 벡터

    • 확률 변수가 2개 이상 동시에 고려되는 경우

    • 확률변수가 중첩된 것으로 열(column)벡터로 정의.

    • 2개의 랜덤변수를 고려한 경우를 이중 랜덤변수 (bi-variate)라고 함.

      • 이변위 랜덤변수

    • 표본 공간 S에서 정의되는 두 개의 랜덤변수 X, Y에 대해서

      • 두 랜덤 벡터는 각각 x, y라는 값을 가지며 순서쌍 (x, y) 로 표현되는 2차원 표본 공간 내의 임의의 점(random point)에 대응됨.

    • 누적분포함수와 확률밀도함수 개념은 '결합 누적분포함수 (joint cdf)'와 '결합 확률밀도함수(joint pdf)'로 확장된다.

04_벡터 랜덤변수

  • 벡터 랜덤변수

04_벡터 랜덤변수

  • 가우시안 확률밀도함수

    • 단일변수 vs. 이중변수 가우스확률밀도

단일변수 PDF


y (ex: 몸무게 )

이중변수 PDF

x (ex: 신장)

04_벡터 랜덤변수

  • 단일 랜덤변수의 누적 분포함수(cdf) 의 표현

  • X, Y의 이중 벡터 랜덤변수의 누적 분포함수 (cdf)의 표현

04_벡터 랜덤변수

  • 단일 랜덤변수의 누적 분포함수의 표현

  • X, Y 의 이중 벡터 랜덤변수의 누적 분포함수의 표현

  • 랜덤 벡터 가 주어질 경우

04_벡터 랜덤변수

  • 주변확률밀도함수 (maginalpdf)

    • †주변 확률 (marginal probability)

      • 2개 이상의 사건이 주어졌을 때 하나의 사건이 일어날 단순한 확률

        • 즉, 다른 사건은 고려하지 않은 확률

    • 랜덤벡터의 각 차원 성분에 대한 개별 확률밀도함수를 나타내는 용어다.

    • 주변 확률밀도함수는 무시하고자 하는 변수에 대하여 적분하여 구할 수 있다

05_랜덤벡터의 통계적 특징

  • 다변수랜덤 벡터의 통계적 특징

    • 결합 누적밀도함수(jointcdf) 혹은 결합 확률밀도함수 (jointpdf) 를 이용하여 정의됨.

  • 랜덤 벡터를 스칼라 확률변수에서 정의한 것과 같은 방식으로 표현할 수 있다.

06_공분산 행렬

  • 공분산 행렬

    • 공분산 행렬

      • 다변수 랜덤 벡터에서 각 변수(특징)간의 관계를 나타낸다.

    • 공분산 행렬의 성질

06_공분산 행렬

  • 공분산 행렬

06_공분산 행렬

  • 공분산 행렬

    • Auto covariance matrix (자기 공분산 행렬)

    • Cross covariance matrix(상호 공분산 행렬)

06_공분산 행렬

  • 공분산 행렬의 표현들

S: 자기상관행렬 (Auto correlation)


07_가우시안 분포

  • 단변량가우시안 확률밀도함수

    • 확률분포함수 중에서 대표적으로 가장 많이 사용하는 분포가 가우시안(Gaussian) 확률밀도함수다.

    • 1차원의 특징 벡터일 경우에는 두 개의 파라미터, 평균 μ와 표준편차 σ만 정해지면 가우시안 확률밀도함수는 다음과 같이 표현한다.

07_가우시안 분포

  • 다차원(다변량) 가우스 확률밀도함수

: 분포를 가진다는 의미

μ는가우시안중심인 (d×1)의평균벡터, Σ는 (d×d)의공분산 행렬


단일차원가우스 분포:

07_가우시안 분포

  • 다변량가우시안 확률밀도함수의예

    • 어떤 모집단에서 남녀 신장과 몸무게를 특징 변수로 하여 2차원 공간상에 나타낸 그림.

    • 이 데이터들은 정규분포 혹은 가우시안 분포를 갖는 이변량 정규 혹은 가우시안 분포를 이룬다고 가정.

    • 미지의 특징 벡터 P가 주어질 경우, 이 특징 벡터가 남자 클래스에 속하는지 여자 클래스에 속하는가?

07_가우시안 분포

  • 다변량가우시안 확률밀도함수

    • 남자의 신장과 몸무게, 이변량에 대한 확률밀도함수는 [그림 4-9]와 같은 종 모양의 3차원 분포를 이룸.

      • 가우스 언덕(Gaussian hill)


07_가우시안 분포

  • 중심극한정리

  • 임의 추출된 크기가 n인 표본으로부터 계산된 표본평균은

    • n의 크기가 큰 경우 근사적으로 정규분포를 따르게 됨.

    • 표본의 개수를 많이 뽑을수록 표본들의 평균은 정규 분포와 유사해 짐을 의미.

07_가우시안 분포

  • 완전 공분산가우시안(fullcovariance)

특징의 차원간(또는 구성요소간) 상관 존재

07_가우시안 분포

  • 대각 공분산가우시안(diagonal covariance)

데이터가 축에 평형을 이루는 타원향 분포. 특징 차원간 상관 무시

07_가우시안 분포

  • 구형 공분산가우시안(spherical covariance)

데이터를 구형 분포로 모델링

08_MATLAB 실습

  • 확률밀도함수에 따른 데이터 생성과 확률밀도함수 컨투어 그리기

08_MATLAB 실습

  • 확률밀도함수에 따른 데이터 생성과 확률밀도함수 컨투어 그리기

08_MATLAB 실습

  • 확률밀도함수에 따른 데이터 생성과 확률밀도함수 컨투어 그리기

08_MATLAB 실습

  • 확률밀도함수에 따른 데이터 생성과 확률밀도함수 컨투어 그리기

08_MATLAB 실습

  • 확률밀도함수에 따른 데이터 생성과 확률밀도함수 컨투어 그리기

08_MATLAB 실습

  • 확률밀도함수에 따른 데이터 생성과 확률밀도함수 컨투어 그리기

    • plotgaus m-file은 가우시안 컨투어를 그려보는 함수 파일

08_MATLAB 실습

  • 확률밀도함수에 따른 데이터 생성과 확률밀도함수 컨투어 그리기

08_MATLAB 실습

  • 확률밀도함수에 따른 데이터 생성과 확률밀도함수 컨투어 그리기

  • Login