비트레이트(bps: bits per second) X 재생시간(seconds) = 용량(bits)입니다.
재생시간과 용량이 같다면 비트레이트도 같습니다.
프레임 레이트가 같다면 매 프레임에 분배되는 비트수도 동일하므로 해상도가 높을수록 "픽셀당 비트수(compressed bpp: bits per pixel)"는 줄어듭니다.
(미디어인포에서 "비트/(픽셀*프레임)"이라고 표시되는 게 바로 이겁니다.)
따라서 720p는 1080p보다 "비트레이트"가 더 높은 게 아니라 "픽셀당 비트수"가 더 높습니다.
그런데 '화질'이라는 건 상당히 모호한 개념인데, 화질을 결정하는 요소는 '픽셀당 비트수'뿐 아니라 코덱과 해상도(화면 크기) 및 다른 주관적인 요소도 상당히 관여합니다.
따라서 720p가 1080p보다 "픽셀당 비트수"는 더 높지만 "화질"은 더 좋다고는 말할 수 없는 거지요.
절대 객관적으로 단언할 수 없는 문제입니다.
만약 720p를 업스케일링해서 FHD나 UHD 모니터로 보게 된다면 해상도에서 부족한 정보를 오버샘플링을 해서 채워줘야 합니다. 이때는 어떤 알고리듬으로 오버샘플링을 하느냐가 중요한 요소가 됩니다. 그리고 동일한 알고리듬을 사용한다고 해도 원본에 따라 다른 결과가 나올 수 있기 때문에 이것 또한 간단하게 말할 문제가 아니죠.
알고리듬만 따져도 잘 알려진 bilinear, bicubic, lanczos, jinc, spline, eedi2, eedi3, nnedi 등 외에도 무수히 많은 알고리듬들이 있고 이걸 또 소프트웨어적으로 구현하느냐 하드웨어적으로 구현하느냐에 따라 성능도 차이가 납니다.
결론적으로 말씀드리자면, "간단하게 말할 문제가 아니다"라는 겁니다. 그래서 그냥 "케바케로 본인이 체감하는 게 정답"이라고 할 수밖에 없겠습니다.
릴그룹의 코딩방식의 차이로 인해 용량이 차이가 비슷한 수준일 수 있겠지만 1080p를 추천 드립니다.
해상도의 물리적 차이를 극복하는 건 쉽지 않습니다.
업스케일을 아무리 잘 해도 눈속임입니다.
1280x720=921,600
1920x1080=2,073,600
화면 하나를 92만 개의 픽셀과 200만 개의 픽셀로 표현하는 정도의 차이인데요.
재생시간과 용량이 같다면 비트레이트도 같습니다.
프레임 레이트가 같다면 매 프레임에 분배되는 비트수도 동일하므로 해상도가 높을수록 "픽셀당 비트수(compressed bpp: bits per pixel)"는 줄어듭니다.
(미디어인포에서 "비트/(픽셀*프레임)"이라고 표시되는 게 바로 이겁니다.)
따라서 720p는 1080p보다 "비트레이트"가 더 높은 게 아니라 "픽셀당 비트수"가 더 높습니다.
그런데 '화질'이라는 건 상당히 모호한 개념인데, 화질을 결정하는 요소는 '픽셀당 비트수'뿐 아니라 코덱과 해상도(화면 크기) 및 다른 주관적인 요소도 상당히 관여합니다.
따라서 720p가 1080p보다 "픽셀당 비트수"는 더 높지만 "화질"은 더 좋다고는 말할 수 없는 거지요.
절대 객관적으로 단언할 수 없는 문제입니다.
만약 720p를 업스케일링해서 FHD나 UHD 모니터로 보게 된다면 해상도에서 부족한 정보를 오버샘플링을 해서 채워줘야 합니다. 이때는 어떤 알고리듬으로 오버샘플링을 하느냐가 중요한 요소가 됩니다. 그리고 동일한 알고리듬을 사용한다고 해도 원본에 따라 다른 결과가 나올 수 있기 때문에 이것 또한 간단하게 말할 문제가 아니죠.
알고리듬만 따져도 잘 알려진 bilinear, bicubic, lanczos, jinc, spline, eedi2, eedi3, nnedi 등 외에도 무수히 많은 알고리듬들이 있고 이걸 또 소프트웨어적으로 구현하느냐 하드웨어적으로 구현하느냐에 따라 성능도 차이가 납니다.
결론적으로 말씀드리자면, "간단하게 말할 문제가 아니다"라는 겁니다. 그래서 그냥 "케바케로 본인이 체감하는 게 정답"이라고 할 수밖에 없겠습니다.
쭉 보던 미디어들이 1080p라면 차이가 나죠
그리고 화면이 클수록 차이가 납니다.
이건 그냥 상식적인 문제.