Aquí, en la sede de vLine, tenemos una lista de correo interna que utilizamos para compartir enlaces a artículos, publicaciones de la lista de correo, revisiones de código y otros datos interesantes relacionados con WebRTC.
Ahora que por fin tenemos un blog, pensamos que sería buena idea compartir estos enlaces contigo, querido lector (¡Hola, mamá!). Así que, no te pierdas este espacio cada lunes para una nueva selección de noticias de WebRTC de la semana anterior (¡menuda actualización en tiempo real!). Sin más preámbulos, aquí tienes nuestra primera edición:
Puntos finales explosivos y arañas
Kelly Teal, escribiendo para Channel Partners, pregunta ¿Qué demonios es WebRTC? y consulta a algunos analistas para obtener respuestas:
Cuando se trata de colaboración por vídeo, todo el mundo habla de WebRTC. Pero, ¿qué es WebRTC y qué implica para los socios?
…
“Lo que sí hace WebRTC es crear el potencial para una explosión de puntos finales de vídeo basados en navegador, que solo se conectarán a otros puntos finales que ejecuten el mismo estándar”, dijo Bill Haskins, analista de Wainhouse Research, a Channel Partners.
Sin duda, estamos de acuerdo en lo que respecta a la proliferación de puntos finales basados en navegadores. Genband, Sin embargo, discreparon en que solo se comunicarían con otros que utilizan el mismo estándar al anunciar SPiDR, una nueva puerta de enlace de compatibilidad entre protocolos antiguos y WebRTC. Gary Audin, en un artículo para NoJitter, nos cuenta la historia:
SPiDR se ubica en el extremo de la red del operador. Proporciona API abiertas y centradas en la web que permiten a los desarrolladores de aplicaciones crear servicios de comunicación avanzados a través de la red, incluyendo voz, video, información de presencia, agenda compartida, historial de llamadas, mensajería instantánea y colaboración.
Google IO 411
El informe anual de Google fiesta de desarrolladores llegará a la ciudad a finales de esta semana, y el líder técnico de WebRTC Justin Uberti Regresará al escenario con otra sesión que seguramente llenará el recinto por completo en nuestra plataforma de simulación en tiempo real favorita (en caso de que te hayas perdido su sesión del año pasado, puedes ver el video aquí).
Este año copresentará con Chrome Developer Advocate y Colaborador de HTML5 Rocks Sam Dutton. Además, ambos dirigirán un taller práctico de programación para ayudar a los afortunados poseedores de entradas a traducir la compleja terminología de las API y los protocolos de WebRTC en atractivas aplicaciones web.
En este codelab, te ayudaremos a familiarizarte con las API y tecnologías principales de WebRTC: – MediaStream (también conocido como getUserMedia): ¿qué es y cómo puedo usarlo? – RTCPeerConnection: ¿qué tiene de importante la API más potente de WebRTC? – RTCDataChannel: ¿cómo puedo configurar la comunicación en tiempo real de datos arbitrarios? – señalización: ¿qué es y cómo la configuro? – servidores: ¿qué necesito para la señalización, STUN y TURN?
Alimento para pájaros
Hablando de delicias, Justin se preparó para IO ofreciendo un trío de bocados largamente esperados destinados a... Canario cromado en el discutir-webrtc lista de correo. El miércoles, él insinuó que pronto llegarán canales de datos confiables (si quieres ser el primero en saber cuándo llegan, puedes activar la opción de inicio de sesión). Número 1493).
Luego, el viernes, nos alegró la semana. anunciando Pronto podrás usar la API getStats() para descubrir qué candidatos ICE seleccionó el navegador. ¡Ya no tendrás que usar tcpdump ni consultar registros detallados para saber si estás usando un servidor de retransmisión! ¿Estás tan emocionado como nosotros?
Y por último, pero no menos importante, confirmó que Canary ahora tiene la capacidad de equilibrar la carga entre varios servidores TURN. Hilo completo aquí.
¿Richard Mentor Johnson?
Por último, tenemos un par de detalles relacionados con los códecs. Matt Frost, gerente de producto de WebM y ex director ejecutivo interino de On2, publicó que VP9 está cerca de completarse. No sabemos qué nos entusiasma más: la compatibilidad con canales de profundidad (cámaras web 3D + mapas de profundidad + WebGL = ???) o la guerra de códecs VP9 vs H.265.
Dado que no parece especialmente probable que los proveedores de navegadores se pongan de acuerdo en un códec integrado común en esta década, el impulso de Mozilla por un códec totalmente basado en JavaScript empieza a sonar cada vez más razonable. Siguiendo el ejemplo de Brendan Eich, Hoy vi el futuro En una publicación sobre ORBX.js, Peter Bright escribió un artículo. Bonita pieza Para Ars Technica con más detalles técnicos:
Para navegadores como Internet Explorer 10 y Safari en iOS, ORBX se utiliza en modo solo I-frame. Para otros navegadores, como Firefox y Chrome, utiliza un modo mixto más convencional. Esto se debe a que el modo mixto depende de WebGL para parte de su decodificación. Los I-frames se pueden codificar completamente en JavaScript, pero los P-frames requieren el uso de programas de sombreado debido a su mayor complejidad. Internet Explorer 10 y Safari en iOS no son compatibles con WebGL, por lo que no se pueden usar para ejecutar programas de sombreado. Como resultado, consumen aproximadamente el doble de ancho de banda para el mismo nivel de calidad de video.
Lamentablemente, aún no hay ninguna demostración pública. Pero estamos deseando probarla en nuestros iPhone 12.