Protocolo de transporte en tiempo real
Un protocolo diseñado para entregar audio y vídeo en tiempo real a través de redes IP.
Un protocolo diseñado para entregar audio y vídeo en tiempo real a través de redes IP.
ICY es un protocolo y encabezado basado en HTTP (utilizado por servidores de radio por internet como Icecast y SHOUTcast) integrado en la transmisión de audio. El protocolo ICY permite a los reproductores de audio solicitar metadatos que se insertan en la transmisión a intervalos regulares. El cliente puede extraer y mostrar esta información, que puede...
El Protocolo de Tiempo de Precisión (PTP) es un estándar de tiempo. Permite que otras tecnologías, como el protocolo 2110, mantengan una sincronización precisa entre audio, vídeo, subtítulos y otros metadatos. Ofrece mayor precisión que el NTP (Protocolo de Tiempo de Red).
Secure Reliable Transport es una tecnología y un protocolo de transmisión de video de código abierto que se utiliza para transmitir transmisiones de video y audio de alta calidad a través de redes poco confiables o impredecibles, como la Internet pública. SRT fue desarrollado por Haivision y ha obtenido una adopción generalizada en las industrias de transmisión y transmisión debido a su enfoque.
La marca de tiempo de presentación (PTS) es un concepto crucial que se utiliza para garantizar la correcta sincronización y temporización de los segmentos multimedia dentro de una transmisión HLS. PTS ayuda a mantener el orden y la temporización correctos de los componentes de audio y vídeo durante la reproducción.
Moving Picture Experts Group (MPEG) es un grupo de trabajo de expertos que desarrolla estándares para la compresión y transmisión de audio y vídeo.
La tasa de bits codificada es la tasa de bits de los objetos multimedia de audio o vídeo comprimidos (es decir, durante la codificación/transcodificación ABR), y cada nivel de tasa de bits representa diferentes niveles de calidad en ABR. El concepto de tasa de bits codificada es inherente a varias definiciones relacionadas con ABR: por ejemplo, clave CMCD br, por ejemplo, parámetro HLS Playlist Variant Stream BANDWIDTH, por ejemplo, DASH
Hardware o software que codifica o decodifica un flujo de datos (por ejemplo, audio, vídeo, subtítulos).
Common Media Application Format (CMAF) es un estándar de Apple-Microsoft que apunta a simplificar los flujos de trabajo al definir el uso simultáneo de múltiples métodos ABR (por ejemplo, DASH, HLS) mientras se utiliza un conjunto de archivos multimedia de audio y video.
Archivo con extensión .mov que utiliza el contenedor multimedia QuickTime File Format (QTFF) para almacenar audio, vídeo y metadatos.
Streaming Video Wiki está organizado y mantenido por Streaming Video Technology Alliance, una asociación técnica global dedicada a resolver los desafíos técnicos críticos de la transmisión de video de alta calidad a escala. Para obtener más información sobre SVTA o preguntas sobre este Wiki, por favor póngase en contacto con el SVTA.
© Alianza Tecnológica de Streaming de Vídeo. Reservados todos los derechos.