1 / 54

7 장 비디오

7 장 비디오. 7.1 비디오의 개요 영상과 화상의 차이는 화상은 정지된 이미지화면을 의미하나 , 영상이란 이러한 이미지 화상들의 연속적인 집합체이다 . 대부분의 영상처리 기술은 화상처리에서 사용하는 기술을 기반으로 발전 . 머리말 화면에 비디오 자료를 보여주기 위해 텔레비젼의 경우는 명도 (Luminance) 와 색상 (Chrominance) 를 사용하는데 반하여 , 컴퓨터에서는 비디오 신호를 처리하기 위해 RGB 의 세 가지색을 사용하여 표현한다 .

Download Presentation

7 장 비디오

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 7장 비디오

  2. 7.1 비디오의 개요 • 영상과 화상의 차이는 화상은 정지된 이미지화면을 의미하나, 영상이란 이러한 이미지 화상들의 연속적인 집합체이다. 대부분의 영상처리 기술은 화상처리에서 사용하는 기술을 기반으로 발전 .머리말 • 화면에 비디오 자료를 보여주기 위해 텔레비젼의 경우는 명도(Luminance)와 색상(Chrominance)를 사용하는데 반하여, 컴퓨터에서는 비디오 신호를 처리하기 위해 RGB의 세 가지색을 사용하여 표현한다. • 비디오를 구성하고 있는 이미지 하나하나를 프레임(Frame)이라고 한다. 2

  3. 비디오는 화면의 크기와 초당 프레임 수로 구분하는데, 전체화면을 차지하는 비디오를 완전화면(Full screen) 비디오라 하며, 초당 30프레임을 지원하는 비디오를 완전모션(Full motion) 비디오라 구분 한다. 비디오의 크기는 이미지 프레임의 크기와 초당 프레임수를 곱한 값으로 표현한다. • 통상 컴퓨터나 TV 비디오는 초당 30프레임을, 영화의 경우에는 초당 24프레임을 필요로 한다. 3

  4. 7.1.1 아날로그 비디오와 디지털 비디오 • 텔레비젼의 등장으로 아날로그 형태의 비디오 처리 기술이 급속히 발전 하였으며, 디지탈 비디오의 등장으로 컴퓨터 멀티미디어 분야에서 비디오의 활용이 더욱 활성화 되고 있다. • 현재 컴퓨터에서 가장 보편적으로 사용되고 있는 비디오 파일의 형태는 아래와 같이 AVI, MOV, MPEG 파일형태와 새로이 등장한 Real Video 파일 형태인 RM(RA)이 있다. 4

  5. 아날로그 비디오 는 공중파나 cable등으로 입력된 신호를 받아 TV에 출력할 수 있도록 RGB모드로 복원을 통해 보여진다. 이러한 아날로그 신호는 장비에 의한 외부의 잡음등에 취약하고, 자료의 편집이나 수정에 어려움이 있다. 5

  6. 디지털 비디오는 비디오 편집기를 통하여 생성된 자료나 비디오 카메라, VCR, TV, LDP 등에서 제공되는 영상자료를 비디오 보드를 통하여 모니터에 적합한 형태로 변환하여 사용자에게 출력되는 것으로, 잡음이 적고 자료의 편집 및 수정이 용이하나 자료의 규모가 방대하여 많은 양의 데이터를 저장하는데 어려움이 있다. 6

  7. 7.1.2 비디오와 애니메이션의 차이 7

  8. 7.1.3 TV의 기본 개념 • 주사방식에는 크게 순차주사 (Noninterlace)방식과 격행주사 (Interlace)방식(짝수, 홀수 라인을 교대로 제공)이 있다. • 주사방식을 사용하므로 화면에 깜박거리는 Flicker 현상이 있다. • 격행주사방식에서 1장의 화상을 몇장의 거친 화상으로 나누어서 주사하는데 한 화면분의 주사선 전체를 포함하는 화상의 신호를 프레임 , 거친 화상의 신호를 필드라 한다. • 텔레비전은 RGB 신호를 영상의 명암을 나타내는 하나의 명도신호(Luminance) (Y)와 RGB의 3원색에서 명도를 제외한 나머지를 표현하는 두개의 색상신호(Chrominance) (U, V)로 변환하여 전송한다. 8

  9. 텔레비전 신호의 송수신 9

  10. 흑백 텔레비전 수상기는 명도신호를 이용하여 흑백영상을 만들고, 칼라 텔레비전은 명도신호와 색상신호를 혼합하여 칼라 영상을 생성한다. • YUV의 명도신호 및 색상신호로 영상을 표시하면 RGB보다 메모리를 효율적으로 사용할 수 있고, 빠른 속도로 자료를 처리할 수 있다. 이는 사람의 시각이 명도신호에는 민감하나 색상신호에는 덜 민감하다는 특징을 이용하여 명도신호와 색상신호를 나타내는 비트의 수를 조절하여 얻을 수 있다. 10

  11. 아래는 영상의 크기 640 * 512 화소의 자료를 RGB와 YUV형태로 저장시 메모리 소모 공간의 비교 자료이다. • VOD (Video On Demand) • 현재의 방송국에서 사용자에게 전발되는 일방적인 방식에서 벗어나 비디오 source 에 저장된 프로그램을 사용자가 직접 선택하여 원하는 프로그램을 언제든지 볼 수 있는 서비스를 말한다. • 기본적인 시스템 구성은 비디오 서버장치가 설치된 VSS(Video Source System), 가입자 단말장비인 Set-Top Box, 그리고 네트웍 장비등으로 이루어진다. 11

  12. 7.1.4 TV의 방송 방식 (1) TV의 표준형식 현재 국제적으로 통용되는 3대 TV 표준 형식은 NTSC, PAL, 그리고SECAM으로 지역 또는 나라에 따라 각각의 표준을 지정하여 사용하고 있다. 12

  13. NTSC (National Television Standards Committee) • 최초 흑백 텔레비젼의 송신 규격을 위해 창설된후, 1953년 칼라 텔레비젼 시스템을 위한 규격으로 확장된 국제 TV방송을 위한 Protocol로 미국에서 채택됨 • 525 주사선(Lines per Frame), 59.94 Fields per Second, 3.57945 Mhz Subcarrier(부반송파) 사용 • RGB 색상을 명도신호(Y)와 2개의 색상신호(V, U)로 분리하여 전송. Ey = 0.299 Er + 0.587 Eg + 0.114 Eb Er - Ey = 0.701 Er - 0.587 Eg - 0.114 Eb Eb - Ey = -0.299 Er - 0.587 Eg + 0.886 Eb 13

  14. PAL (Phase Alternate Line) • 1967년 색상 변환시 오류(Hue Errors)를 최소화 하려는 취지에서 등장 • PAL-B와 PAL-M 두 방식이 가장 많이 사용 • SECAM 보다 Sound면에서 우월한 것으로 판단 14

  15. (2) Digital TV • 방식에 따라 표준방식(SDTV)과 고화질방식(HDTV)으로 구분. • 표준방식은 방송형태만을 기존의 아날로그 방송을 디지털로 변환하는 형태. • 컴퓨터를 통하여 TV 프로그램을 볼수 있고 바로 저장도 가능. 15

  16. 우리나라의 경우 2000년 시험방송, 2001~2002(광역시), 2004(도청소재지), 2005(시, 군지역)을 목표로 2010년까지 확대. (3) 고화질 TV(HDTV: High-Definition TV) • 1980년대 말에서 1990년대 초에 일반인에게 알려짐 • 화면의 크기가 커짐에 따라 주사선의 수가 현행보다 두배정도 증가 하였다. 화면의 종횡비(가로와 세로의 비율)가 현행 컬러 TV의 3:4에서 9:16으로 변환 되었는데 이는 사람 눈의 시야각을 고려한 비율이다. • 화상은 35mm 영화를 목표로 출발 하였다. Sound는 Compact Disk 수준의 음향을 제공하며, Analog 대신 Digital Signal Transmission 사용한다. • MPEG-2 file format과 Compression 표준 사용한다. 16

  17. 7.2 비디오 처리장치 17

  18. 7.2.1 비디오 보드 • 비디오 보드란 PC에 입력되는 비디오 영상 정보를 가공 처리하여 모니터 화면에 표현해 주는 장치를 말한다. 기능에 따라 프레임 그래버 보드, 영상 중첩 보드, 그리고 영상 압축/복원 카드로 구분된다. • 프레임 그래버(Frame Grabber) 보드: 비디오 카메라나 VCR과 같은 장치로 부터 입력되는 영상 신호를 획득, 컴퓨터에서 조작이 가능한 형태로 변환. 즉, 아날로그 신호를 디지털 신호로 변환시키는 역활을 수행한다. • 영상 중첩(Video Overlay) 보드 : 컴퓨터 내부의 정보와 외부에서 유입되는 영상정보를 합성하여 모니터에 표현. 컴퓨터에서 제공되는 문자, 그래픽 정보와 외부의 영상 정보를 동시에 제공하는 기능을 제공한다. • 영상 압축(Compression)/복원(Decompression) 보드 : 영상 정보를 압축하여 기억 장치에 저장, 필요시 복원하여 제공하는 장치를 말한다. 18

  19. 7.2.2 비디오 저장장치 • CD-ROM에 디지털 정보를 기록할 수 있는 CD-ROM 레코더와 CD-ROM의 내용을 읽어들이는 CD-ROM 드라이브, 그리고 DVD-ROM에 저장된 디지털 정보를 읽을 수 있는 DVD(Digital Video/Versatile Disk) 드라이브가 있다. • VOD(Video on Demand) 서비스 업체 등 대용량의 멀티미디어 정보를 보유한 곳에서 주로 사용하는 저장장치로 많은 양의 비디오 자료를 담을 수 있는 디스크 어레이(Disk Array) 장치가 있다. • CD-ROM은 저장용량의 한계로 인하여 고품질의 영상정보를 원하는 사용자들의 욕구를 만족시키지 못한다. CD-ROM이 가지고 있는 저장공간의 제한성을 해결하여 디지털 영상의 고품질화 및 고기능화를 위하여 개발된 것이 DVD-ROM 이다 19

  20. 20

  21. 7.3 디지털 영상 처리 7.3.1 영상의 전환과 특수효과 • 디지털 영상처리를 위해 각종 영상효과 장치가 이용되고 있다. 이러한 장치를 이용하여 스튜디오로부터 중계현장으로 장면을 전환하기도 하고 특수효과를 줄 수도 있다. • 과거에는 방송국과 같은 큰 기관에서만 이러한 고가의 장치를 보유할 수 있었으나, 오늘날은 디지털 기술의 발전에 힘입어 이러한 장치가 소형화되고 가격도 많이 하락하였다. 21

  22. (1) 영상의 전환 • 가장 기본적인 영상효과는 두개의 영상간의 화면전환 기능이다. • Fade기능은 영상 A로부터 영상 B로 서서히 전환하는 과정으로 간단한 승산기와 가산기를 이용하여 이 과정을 수행하기 위해서는 연산의 대상이 되는 영상 A와 영상 B의 데이터가 정확하게 동기화 되어야 한다. 22

  23. (2) 특수 효과 • 영상 장치가 디지털화 하면서 과거 아날로그 장치로는 불가능하였던 영상효과가 이제는 실현될 수 있게 되었다. 카메라로 촬영한 영상을 구의 표면에 붙이거나 책의 페이지를 넘기는 것과 같이 영상이 바뀌는 등 다양한 영상효과가 이용되고 있다. • 이러한 영상효과를 실현하는 장치를 영상 특수효과 장치라고 하며, 영상의 확대/축소, 위치의 이동과 변형 등 기하적인 처리를 요하기 때문에 기하적 변형장치라 부르기도 한다. 23

  24. 7.3.2 디지털 영상합성 • 두개 이상의 영상을 합성하여 현실에는 존재하지 않는 장면(Scene)을 만드는 기술은 TV가 출현하기 이전부터 사용되어 왔다. 요즘은 컴퓨터를 이용한 디지털 기술을 활용하여 영상의 확대와 축소, 변형과 합성 등 그 기법이 보다 광범위하게 발전하였다. 24

  25. (1) 필름의 합성 25

  26. (2) 크로마키 합성 • TV가 흑백에서 컬러로 바뀌면서 영상중의 색 차이를 검출하여 마스크에 해당하는 키 화상(Key Image)을 생성하고, 합성하는 장치가 폭넓게 사용되게 되었는데, 이것을 크로마키합성이라고 하며 영상을 합성하는 장치의 대명사로 인식될 정도로 폭넓게 사용되고 있다. • 크로마키 합성은 마스크 화상의 생성과 합성이 실시간으로 처리되고, 영상을 촬영한 장소에서 즉시 합성할 수 있는 유일한 수단이 된다. • 영상으로서 필요한 전경과 불필요한 배경을 색으로 식별할 수 있도록 크로마키와 청색으로 착색한 일정한 배경세트가 필요하다. 또한, 조명에도 고도의 기술이 요구된다. 26

  27. 7.4 비디오의 압축/복원 • 영상신호는 각 데이터간의 연관성이 매우 큰 특성을 가지고 있어 변화가 적은 비슷한 값의 나열로 이루어져 있다. 영상이란 비슷한 밝기와 색상을 가진 점(화소 또는 픽셀)들이 부분적으로 모여 이루어진 집합체이다. • 이것을 데이터의 중복성(Redundancy)이라고 하는데, 이 중복성을 제거함으로써 전체 데이터의 량을 상당히 줄이고도 충분한 정보를 전달할 수 있다. 이렇게 영상 데이터의 중복성을 제거하는 일을 영상압축(Compression) 또는 부호화(Encoding)라고 한다. 27

  28. 7.4.1 비디오의 압축과정 • 비디오 압축의 필요성은 비디오 파일 용량의 최소화 요구, 인터넷의 발달에 따른 비디오 자료의 활용 시 네트웍 데이터 전송속도, 그리고 기타 주변기기(CPU, 그래픽, 시스템 버스, ...)의 부하 감소의 필요에서 이다. • 비디오의 압축방법은 데이터의 완전한 복원 가능 여부에 따라 무손실압축(Lossless Compression) 기법과 손실압축(Lossy Compression) 기법으로 구분되며, 소프트웨어에 의한 압축(Indeo, Cinepak,...)과 하드웨어에 의한 압축(JPEG, MPEG, P*64,...)으로 구분할 수 있다. 28

  29. 무손실압축 기법은 원래 영상으로의 완전한 복구가 가능하도록 압축시 미세한 데이터를 중요시하는 기법으로, X-ray, 단층촬영(CT) 등의 의료용 영상과 같은 응용분야에서 활용되며, 따라서 압축율은 비교적 낮은 2:1 ~ 3:1 정도이다. • 비디오를 압축할 때 고려사항으로 초당 필요 frame 수, 압축율에 따른 화질의 변화, 압축 및 복원 속도, 부가적인 HW / SW 소요 여부, 통신체널의 전송 속도의 한계 등을 고려해야 한다. 29

  30. (1) 전처리(Preprocessing) • 압축을 하기위한 준비작업을 수행하는 과정으로 컬러 스페이스(Color Space) 변환, 필터링(Filtering), 컬러 서브 샘플링(Color Subsampling) 등이 행해진다. • 컬러 스페이스 변환은 R,G,B의 세 가지 성분으로 이루어진 컬러영상의 명도(Luminance)를 위한 Y 성분과 색상(Chrominance)을 위한 I 와 Q 성분으로 변환하는 과정으로, 이는 압축율을 높이기 위한 필수 과정이다. 즉 컬러 스페이스 변환은 RGB 영상 데이터를 YIQ 영상데이터로 변환하는 과정이다. • 필터링은 잡음을 제거하여 압축율을 높이기 위한 과정이다. • 컬러 서브샘플링은 사람들의 눈으로 미세한 색의 변화를 감지할 수 없다는 점을 이용하여, 덜 민감한 색 성분을 가지고 있는 I와 Q성분에서 한 화소씩(데이터 양을 1/2로 줄임) 또는 세 화소씩(데이터 양을 1/4로 줄임) 뛰어넘어 하나의 화소만을 취하여 본래의 영상 데이터의 크기를 1/2 또는 1/4로 줄이는 과정이다. 30

  31. (2) 변형(Transformation) • 이 과정은 영상이 가지고 있는 정보의 중복성을 찾아내는 과정으로 영상신호 자체에서 처리하는 파형(Waveform)방식과 새로운 영역에서 처리하는 변환(Transform)방식이 있다. • 파형방식은 인접한 화소의 영상 값의 차이만을 표시하는 가장 대표적인 방식으로는 DPCM(Differential Pulse Code Modulation)이 있다. DPCM으로 처리된 데이터의 복원은 앞 화소값에 그 차이 값을 더하여 구한다. 보다 높은 압축효과를 얻기 위하여 이를 변형한 ADPCM(Adaptive Differential Pulse Code Modulation) 변환법도 사용되고 있다. • 변환방식은 영상데이터의 중복성을 제거하기 위해 여러 종류의 수학적인 변환방법을 통해 영상을 공간영역(Spatial Domain)으로부터 다른 영역으로 변환하여 분석함으로써 압축하는 방법으로 DCT(Discrete Cosine Transform) 방법이 널리 사용되고 있다. 31

  32. (3) 양자화(Quantization) • 이 과정은 앞의 DPCM이나 DCT과정을 통하여 얻은 영상값을 어떤 상수값으로 나누어 유효자리의 비트수를 줄이는 과정이다. • 이과정을 걸치면 데이터가 변이되어 원래 데이터를 상실하는 데이터의 손실이 발생한다. 모든 손실 압축 기법은 이 과정을 거친다 (4) 가변길이 부호화(Variable Length Coding) • 이 과정은 데이터의 출현 빈도에 따라 자주 등장하는 데이터의 표현은 적은 비트수로 표현하고, 반대로 자주 등장하지 않는 데이터는 상대적으로 큰 비트수로 표현하여 전체적인 파일의 크기를 줄이는 방법이다. 32

  33. 컴퓨터에서는 영문자 A부터 Z까지의 모든 문자의 코드를 8비트로 표현하고 있다. 따라서 문자열의 크기는 전체 문자수에 의해 정해진다. 그러나 만일 영문자 26개 중 에서 출현빈도가 높은 A, E에는 2~3 비트의 코드를 할당하고, 상대적으로 출현빈도가 낮은 Q, Z에는 10~16비트의 코드를 할당하되, 서로 구분이 되도록 문자코드를 부여한다면 결과적으로 전체 파일의 크기를 줄일 수 있다. • 이렇게 빈도수에 따른 처리방법으로 허프만(Huffman) 부호화 방법등이 사용된다. 33

  34. 7.4.2 비디오 압축기술 • 가장 대표적인 압축방법에는 픽셀당 컬러 비트 수(Color Bit Depth)의 축소, 프레임 크기(Number of Pixels)의 축소, 그리고 프레임 수(fps)의 축소에 의한 방법이 있다. • 비디오의 부호화는 프레임 간의 정보를 이용하여 시각적 영향이 적은 부분의 정보량을 줄이는 방법을 사용한다. 이러한 방법에는 전프레임의 동일 위치의 화소 값을 이용하여 차이값만을 기록하는 프레임간 예측 부호화, 전˙후 프레임에서 물체의 움직임을 검출하여 그 움직임 성분만큼 앞 프레임에서 예측에 이용하여 화소의 위치를 보정 하는 움직임 보상 프레임간 예측 부호화법 등이 있다. 34

  35. (1) JPEG(Joint Photographic Experts Group) • Gray scale 및 Color 영상을 포함한 모든 정지영상 압축전송기술의 국제표준 규정안 이다. • Gray scale 및 Color 영상을 포함한 모든 정지영상 압축전송기술의 국제표준 규정안 이다. • 알고리즘으로 9 * 8 DCT를 사용하는 손실 압축과 예측 코딩을 사용하는 무손실 알고리즘 두가지 알고리즘을 사용한다. • JPEG의 주요 처리 절차는 아래와 같다 1. RGB 컬러모델을 YIQ 컬러모델로 변환 2. YIQ 메크로 블럭화 3. 매크로 블럭을 8 * 8 블럭화 4. DCT (Discrete Cosine Transform) 변환 5. 양자화 (Quantization) 6. 지그 - 재그 스캐닝 (Zigzag Scaing) 7. DPCM (Differential Pulse Code Modulation) 또는 RLE (Run Length Encode) 8. 엔트로피 코딩 (Entropy Coding) 35

  36. 20:1 정도의 압축율에서 화질에 거의 영향을 주지 않는다고 평가되고 있다. • MPEG과는 달리 Data의 저장을 Frame간 독립적으로 실행, 압축율은 MPEG의 1/4 정도이나 Frame간의 편집이 자유롭다 • C-Cube사의 CL-550B chip은 초당 30 Frame의 영상을 실시간 압축한다 36

  37. (2) MPEG(Moving Picture Experts Group) • 비디오 전화용과 디지털 저장매체로 사용하기 위한 두가지 압축방식으로 구분 된다. • Movie와 CD수준의 sound와 동기화에 대한 표준안으로 구성되어 있다. • ISO / IEC JTC1/SC29/WG11로 공식화 되었다.(1996. 6) • MPEG 단체에서 제안하고 있는 동영상 압축기법은 크게 나누어 시간적 중복 및 공간적 중복을 제거하는 기법에 기반하고 있다. MPEG 압축 기법은 이동보상 압축 기법을 이용하여 시간적 중복(Temporal Redundancy)을 제거하고, 정지화상의 DCT 압축기술을 결합하여 공간적 중복(Spatial Redundancy)을 제거하는 방법이다. 37

  38. MPEG의 압축기술은 아래 그림과 같이 화면을 I(Intra coded) Picture, P(Predictive coded) Picture, B(Bidirectional predictive coded) Picture로 구분하여 부호화 한다. I Picture는 예측부호화를 행하지 않고 독립적으로 부호화한다. P Picture는 직전의 I 또는 B로부터 추정한 예측신호와의 차를 부호화한다. B Picture는 화면의 전/후에 위치한 I 또는 P로부터 추정한 예측신호와의 차를 부호화한다. 38

  39. MPEG-1 • MPEG-1은 VHS 수준의 영상을 CD-ROM에 저장할 목적(데이터 전송속도 1.5Mbps 이하)으로 제정되었다. • 주로 가정용 TV 수준의 비디오와 CD 수준의 스테레오 음향을 CD-ROM에 저장하고 재생하기 위해 만들어졌으며, 1993년 국제표준으로 채택되었다. • MPEG-2 • MPEG-2는 디지털 TV와 DVD 수준의 영상을 목적(데이터 전송속도 15Mbps이상)으로 제정되었으며, 순차주사(Noninterlace)방식과 격행주사(Interlace)방식 모두를 지원한다. • 광범위한 신호 형식에 대응하기 위해 프로파일(Profile)과 레벨(Level)에 따라 복수개의 사양이 정해져 있다. • 프로파일은 부호화의 방식과 기능에 의한 분류로 5종류가 있으며, 레벨은 부호화 대상인 영상신호 형식으로 표준 TV로부터 HDTV까지 4종류가 있다. 39

  40. MPEG-3은 HDTV를 목표로 출발하였으나, MPEG-2의 적용 범위가 확장되면서 MPEG-2로 통합되었다. • MPEG-4 • MPEG-4는 1994년 음성과 비디오 합성을 목표로 출발한 영상압축 표준이다. 40

  41. 고성능 멀티미디어 통신 서비스를 고려하여 기존 방식뿐만 아니라 새로운 기능을 지원하기 위한 부호화를 목표로 하고 있다. • 1994년 1차 제안서가 제출되었고, 1997년 11월 CD(Committee Draft), 1998년 3월 DIS(Draft International Standard)에 이어 1998년 11월에 국제표준으로 인정되었다. • MPEG-4 부호화에서는 기존 영상데이터의 화소값에 대한 압축방식에서 벗어나 영상에 담긴 객체(Object)들을 객체 기반 부호화(Object-based Coding)시키는 방법에 대한 연구가 포함되어 있다. (3) H.261 (P*64) • 1988~1990년 CCITT(International Telegraph and Telephone Consultative Committee)에서 정한 원격 화상회의를 위한 표준안 • ISDN 전화선을 이용한 국제 Video-Conferencing, Video-Telephone을 용도로 한 통신계열에 있어서 동화상의 압축 및 부호화 방식의 국제표준안이다. 41

  42. 부호화 알고리즘은 MPEG방식과 기본적으로 같으며 I 및 P picture의 부호화 형식을 이용하여 64kbps ~ 2Mbps로 압축하며, H.261은 높은 압축율(100:1∼200:1)로 실시간 압축을 지원한다. • H.261은 시간적 중복성을 제거하기 위해 프레임간의 예측기법을 사용하고, 공간적 중복성을 제거하기 위해 DCT 변환기법을 사용하며, 동작보상 기법도 옵션으로 추가할 수 있다. 42

  43. 7.4.3 코덱(Codec) • 데이터를 아날로그에서 디지털로 또는 디지털에서 아날로그로 변환 시켜주는 회로(Circuits), 칩(Chips), 또는 알고리즘(Algorithm)을 의미. • 압축(Compression, Encoding)과 복원(Decompression, Decoding)을 동시에 지원한다. • 앞에서 설명한 JPEG, MPEG, H.261 등이 하드웨어에 의한 비디오 데이터의 압축이라면, 코덱은 소프트웨어에 의한 비디오 데이터의 압축이라고 할 수 있다. 43

  44. 7.5 비디오의 파일 포맷 • Video 파일의 Format 형태는 파일을 생성할때 사용되는 Software에 따라 아래에 기술한 다양한 파일의 형태로 결과가 나타난다. 그러나 이러한 파일의 Format 형태는 상호 변환 프로그램(Converter)를 사용하여 다양한 또다른 형태의 파일로 변환할 수 있다. 44

  45. 7.5.1 비디오 파일의 종류 • AVI (Audio Video Interleaved) • Video for Windows(VFW)에서 처음 사용한 비디오 파일 형식 • 대 부분의 CD-ROM 타이틀에서 사용되고 있다. • AVI는 Microsoft사가 개발한 파일 형식으로, 비디오 데이터를 생성하기 위해 Video for Windows(VFW) 환경이 필요하다. • AVI Format 예 (http://www.odyssey3d.com/odyssey3d/) • MOV • QuickTime에서 사용하는 파일 Format • Window 및 Mac에서 모두 사용 가능 45

  46. MPEG • MPEG 파일 포맷은 비디오 신호의 압축과 재생을 위한 알고리즘 개발에 주목적을 두고 활동하는 MPEG표준화 그룹에서 제안한 파일 형식이다. • AVI, MOV와 달리 다양한 압축형태의 파일 지원 • MPEG-1,2의 경우는 100Mhz이상의 CPU가 필요하다. • ASF(Active Stream Format) • Microsoft사에서 제안한 스트림 Foramt으로 스트림 Format의 표준으로 채택될 가능성이 높다. • RA(RealMedia) • Video 스트림 방식에서 사용되던 Format으로 최초에는 Audio를 목표로 출발, 현재 Video 처리 기능을 추가함 46

  47. 7.5.2 비디오 스트리밍(Video Streaming) • Web상에서 비디오 및 오디오 파일을 처리할때의 효율을 높이기 위한 방법으로 등장한 비디오 처리 기술이다. 파일의 규모가 커서 메모리에 저장이 어려울때, Web상에서 다운받아 실행하기에 시간이 많이 걸릴때, 그리고 Remote site에서 데이터를 실행할 때 주로 시용되고 있는 기법이다. • 대표적인 소프트웨어에는 RealVideo, VDOLive, ViVoActive, TrueStream등이 있다 • 현재 앞에서 언급한 소프트웨어 회사를 비롯하여 많은 곳에서 연구가 진행되고 있으며, www.real.com을 방문하면 추가적인 정보를 얻을 수 있다. 47

  48. 7.6 비디오 편집 소프트웨어 7.6.1 Video for Windows(VFW) • Video for Windows는 Microsoft사에서 개발한 비디오 기능을 기존 Windows에 포함하도록 운영체제를 확장한 것으로, 비디오 편집을 위해 VidCap, VidEdit, PalEdit, BitEdit 및 WaveEdit 이라는 비디오/오디오 관련 프로그램을 포함하고 있다. • AVI 파일 형식을 기본으로 사용하고 있으며, 비디오의 해상도, 크기, 초당 프레임 수 등을 컴퓨터 성능에 맞도록 조절해 주고 사운드도 샘플링하여 줌으로써 PC에서 동영상을 구현해 준다. • Video for Windows가 Windows 환경에서 작동하기 위해서는 기본적으로 오디오를 위한 사운드 카드와 256 컬러 이상을 지원하는 그래픽 카드가 필요하다. 48

  49. Microsoft사는 인터넷에서 비디오를 보기 위해 VFW의 기능을 개선하여 Active Movie라는 이름으로 제공하고 있다. • VidCap • VidCap은 비디오 오버레이 보드를 통하여 들어오는 영상을 녹화하기 위한 프로그램이며, Microsoft사의 AVI 파일과 AutoDesk사의 애니메이션 파일인 FLI를 지원한다. • 비디오 데이터를 캡쳐하기 위해서는 비디오 캡쳐(그래버) 보드가 있어야 하며, 이와 함께 Microsoft에서 제공하는 VidCap이 필요하다. • 비디오 입력에 따라 프레임 비율, 캡쳐 시간, 오디오의 캡쳐 여부를 설정할 수 있다. 49

  50. VidEdit • VidEdit는 캡쳐된 비디오와 오디오 데이터를 편집할 수 있는 프로그램으로 비디오 편집의 핵심적인 기능만을 제공한다. • 주요 기능은 선택 영역의 삭제 및 복사, 비디오와 오디오의 독립된 편집 및 혼용 편집, 압축 정도, 원하는 재생 비율, 색상수 조정 등이 가능하다. • PalEdit, BitEdit 및 WaveEdit • VFW에서는 비디오를 캡쳐하여 저장할 때 색상 팔레트의 값이 함께 저장되는데, 비디오의 재생 시에 원하지 않는 색상으로 재생되는 경우, PalEdit 프로그램은 설정된 색상 팔레트의 값을 수정함으로써 원하는 색상의 영상을 얻을 수 있게 해 준다. 50

More Related