그렇다면 아날로그 형태로 시작한 데이터들을 디지털 형태로 변경하기 위해 필요한 과정은 무엇이 있을까?
과거에는?
화학물질이 있는 필름 + 피사체와 빛에서 오는 노출 값을 통해 사진으로 표현
현재
디지털 카메라는 RGB 필터에서 들어오는 빛의 양에 비례하게 전하량을 저장 및 수치로 변환
➡ 빛의 강도를 수치화 하여 배열로 표현하는 것
사진의 화질이 좋다는 것은 곧 필터에 감지할 검출 소자가 많고 전하가 더 정밀하게 측정하여 전하량을 저장하게 되는 것.
RGB
세 개의 검출 소자로 이뤄진 픽셀은 각각의 검출소자에서 감지한 강도를 표현하게 된다.
화소: 픽셀의 가로x세로 값
빛의 강도 값: 화소*3 (RGB 필터는 R, G, B 소자로 이뤄짐)
디스플레이 화면에서는 각 픽셀에서 강도값에 따른 밝기가 정해지며 화면을 확대하면 픽셀의 세 소자를 확인 할 수 있다.
사진 압축
JPEG
사이즈로 줄이며 용량은 1/10 사이즈로 줄이게 된다.
공기의 진동, 파동의 형태로 전파하여 고막을 진동시키면 뇌에서 소리로 인식한다.
녹음과 재생
축음기 사용시 레코드의 홈의 패턴으로 변환하여 사용하게 되었다.
녹음 | 재생 |
---|---|
소리를 홈으로 변환하는 과정 | 홈을 기압 변동으로 변환하는 과정 |
소리는 음압의 변화를 패턴으로 인식하며 시간에 따라 변화하는 기압을 그래프로 표현하게 되면 시각화하기 좋다. ➡ 주파수
디지털 정보를 수용하는 컴퓨터는 연속된 변화를 인식할 수 없어 그래프를 일정 시간 간격으로 측정하여 나타낸다. (정밀할 수록 정확한 소리를 알 수 있다.)
디지털 소리를 선호하지 않는 이유?
위처럼 일정 시간 간격으로 측정하는 경우 정밀하여도 정보가 일치하지 않는다.
아날로그에서 디지털로 변화할 경우 A/D 변환기를 통해 변화한다 (D/A도 존재) 변환시 정보 손실이 존재하는데 소리에 예민하다면 손실되는 양을 감지할 수도 있기 때문에 LP와 같은 아날로그 방식을 선호하기도 한다.
소리 압축
많은 정보를 담고 있는 소리는 압축이 가능하다 .mp3
AAC
같은 확장자를 사용하며 이는 음질저하를 최소화 하며 원본의 1/10
사이즈로 줄이게 된다.
음향과 영상을 결합하며 초당 24~60 장의 사진과 소리가 함께 하는 것이 영상.
TV 방송용 표준에 기초하였으며 아날로그 TV에서 디지털 TV로 변경되며 표준도 변화하고 있다.
동영상 역시 MPEG
로 압축이 가능하다.
아스키코드를 통해 문자마다 숫자를 할당하여 미국에서 표준화한 표현방식.
현재는 전세계에서 동일하게 유니코드를 사용하고 있다.
전세계에서 사용하는 모든 문자를 숫자 값으로 지정이 가능하게 된다.
디지털 표현은 모든 종류의 정보를 숫자값으로 변환하게 되며 숫자로 처리하기 때문에 디지털로 처리할 수 있다.
영어를 문자로 표현하기 위한 문자표
1바이트를 사용 하지만 7비트 표현식
➡ 패리티 비트 로 불리며 데이터의 에러를 확인하기 위해 사용된다.
단점: 7비트의 2진수 값으로 128개의 문자를 표현할 수 있다. 하지만 이 경우 알파벳이 아닌 언어를 표현할 수 없었음
전 세계에서 컴퓨터를 사용한 이후 등장한 국제 표준 코드
2바이트로 확장하며 시작한 유니코드로 현존하는 모든 문자를 표현하기 위한 목적을 갖게 되었다.
이후 업데이트를 통해 현재 사용하지 않는 언어도 추가되고 있다.