Есть ответ 👍

Как вы думайте, почему частота обновления изображения на экране монитора должна быть больше, чем частота кадров в кино?

194
471
Посмотреть ответы 2

Ответы на вопрос:


По правде, она не должна быть больше, хотя на практике она получается именно так. дело в другом. давным-давно, когда только-только возникало кино, экспериментально было выяснено, что человек худо-бедно воспринимает последовательность кадров с движением как непрерывный процесс при частоте 24 кадра в секунду. по разным причинам, не в последнюю очередь (плёнка - штука дорогая), было решено снимать кино именно с такой частотой. в кинотеатрах, чтобы движение получалось ещё более реалистичным, картинку перекрывали заслонкой на полкадра, эффективно частота получалась в два раза больше - 48 кадров в секунду. для тех времен это давало неплохое качество. однако было ясно, что чем больше становятся экраны, чем меньше было помех на записи, тем всё более прерывистым выглядит движение. в современных кинотеатрах это заметно особенно сильно: за время между кадрами изображение предмета на экране успевает пройти до полуметра. есть простое решение - просто увеличить частоту обновления кадров. но это сделать не так-то просто, ведь надо сохранить совместимость с уже отснятыми фильмами. с развитием телевидения стандарт частоты немного поменялся - до 25 кадров в секунду, это означает, что старые фильмы ускорились на 1/24, что заметить практически невозможно. но ускорить фильмы в 2 раза незаметно для зрителя практически невозможно, поэтому оборудование по-прежнему поддерживает частоты до 50 гц, несмотря на то, что цифровые камеры могут снимать со значительно большей частотой. с компьютерными мониторами таких проблем нет. поэтому, чтобы изображение в видеоиграх было более плавным и чётким, курсор можно было выставлять быстро и точно, картинка на экране перерисовывается чаще. современный стандарт частоты обновления экрана - 60 гц, тоо есть изображение перерисовывается 60 раз в секунду. разница между 24/25 гц и 60 гц значительная, её легко увидеть невооружённым взглядом. некоторые мониторы уже могут работать на частоте 120 гц, что тоже заметно улучшает качество. обобщая, можно сказать: никаких объективных причин, кроме инертности в обновлении стандаров и оборудования, для того, чтобы мониторы должны были иметь большую частоту обновления картинки по сравнению с кино, нет. при большей частоте качество изображения улучшается, появляется большая плавность движений, достигается большая четкость.
dalqwe
4,8(73 оценок)

ответ: 6

100_{x}=14_{x} +42_{x}\\x^{2} =x+4 +4x+2\\x^{2} -5x-6=0\\\left \{ {{x_{1} x_{1}=5} \atop {x_{1} +x_{1}=-6}} \right. \\\left[\begin{array}{cc}x_{1}= 6&\\x_{2}= -1\\\end{array}

Объяснение:

Популярно: Информатика