Es un tema complejo y por ello lo dividiré en partes:
Monitor "de 1ms o 5ms":
Esto suele ser un tema de marketing y origen de mucha confusión. El lag como lo medimos en la realidad es el tiempo que tarda el monitor en desplegar la imagen que entra por su
input, digamos el cable
HDMI. Este dato de "1 a 5 ms"
se refiere al tiempo que tarda el monitor en cambiar los pixeles ya que ha procesado la imagen, e ignra por completo el tiempo desde que entra por el puerto HDMI y se procesa internamente (ajustar contraste, color, grabarse en el frame buffer interno, etc). Es una forma mañosa de enganchar al consumidor con un numero que sólo le dice la respuesta del panel, e ignorando el procesamiento interno en la computadora que es el monitor.
La mayoría de los monitores tienen 1 cuadro de lag, muy similar a lo que presenta un TV comercial de buena calidad. Esto puede mejorar con HDMI 2.1 en el futuro, y también al utilizar un frame rate mayor o g-sync/freesync. Pero ninguna de la stres cosas es garantía hasta ahora, se necesita medir el lag con medidores como:
1) el medidor de Leo Bodnar:
https://www.leobodnar.com/shop/?main_pa ... cts_id=212
2) si se tiene un CRT y una consola adecuada, la suite 240p con una cámara y la prueba d elag.
3) consultar tablas en línea con datos completos, y no solo la desgraciadamente inútil especificación del fabricante
Converidores de señal
Forzosamente necesitas un convertidor de señal, aún utilizando un mal monitor. Esto es ya que un mal convertidor meter mas lag. Se puede utilizar el OSSC que tiene cero lag (técnicamente tiene, pero es mucho menor a unos cuantos pixeles). Ac´aun video con más datos:
https://www.youtube.com/watch?v=Xq-lbMZ21kI