Skip to content

WebRTC Digest – Week of May 6

Ici, au siège de vLine, nous avons une liste de diffusion interne que nous utilisons pour partager des liens vers des articles, des messages de la liste de diffusion, des mises à jour de code et d'autres informations intéressantes concernant WebRTC.

Maintenant que nous avons enfin un blog, nous avons pensé qu'il serait sympa de partager ces liens avec vous, cher lecteur (coucou maman !). Alors, rendez-vous ici chaque lundi pour découvrir une nouvelle sélection d'actualités WebRTC de la semaine (en temps réel, non ?). Sans plus attendre, voici notre première édition :

Explosion des points de terminaison et des araignées

Kelly Teal, dans un article pour Channel Partners, pose la question : « Qu’est-ce que WebRTC ? » et interroge quelques analystes pour obtenir des réponses :

En matière de collaboration vidéo, tout le monde parle de WebRTC. Mais qu'est-ce que WebRTC et qu'est-ce que cela signifie pour les partenaires ?

 …

“ Ce que fait WebRTC, c'est créer le potentiel d'une explosion de points de terminaison vidéo basés sur navigateur, qui ne se connecteront qu'à d'autres points de terminaison utilisant la même norme ”, a déclaré Bill Haskins, analyste chez Wainhouse Research, à Channel Partners.

Nous sommes tout à fait d'accord sur l'explosion des points de terminaison basés sur les navigateurs. Genband, Ils ont toutefois contesté l'idée qu'ils ne communiqueraient qu'avec d'autres utilisateurs de la même norme en annonçant SPiDR, une nouvelle passerelle entre les systèmes traditionnels et WebRTC. Gary Audin, de NoJitter, relate l'événement :

SPiDR se situe à la périphérie du réseau de l'opérateur. Il fournit des API ouvertes et orientées web qui permettent aux développeurs d'applications de créer des services de communication riches via le réseau, notamment la voix, la vidéo, la présence, un carnet d'adresses partagé, l'historique des appels, la messagerie instantanée et la collaboration. 

Google IO 411

Le rapport annuel de Google fête des développeurs arrive en ville plus tard cette semaine, et le responsable technique WebRTC Justin Uberti Il sera de retour sur scène pour une nouvelle session qui promet d'être à guichets fermés sur notre stack en temps réel préféré (si vous avez manqué sa session de l'année dernière, vous pouvez visionner la vidéo ici).

Cette année, il co-présentera avec Chrome Developer Advocate et Contributeur de HTML5 Rocks Sam Dutton. Les deux intervenants animeront également un atelier de programmation pratique pour aider les heureux détenteurs de billets à traduire le jargon technique des API et protocoles WebRTC en applications web attrayantes.

Dans cet atelier pratique, nous vous aiderons à maîtriser les API et technologies fondamentales de WebRTC : – MediaStream (alias getUserMedia) : qu’est-ce que c’est et comment l’utiliser ? – RTCPeerConnection : quelle est l’importance de l’API la plus puissante de WebRTC ? – RTCDataChannel : comment configurer une communication en temps réel de données arbitraires ? – la signalisation : qu’est-ce que c’est et comment la configurer ? – les serveurs : de quoi ai-je besoin pour la signalisation, STUN et TURN ?

Nourriture pour oiseaux

En parlant de gourmandises, Justin s'est mis en appétit pour IO en offrant un trio de petits plats très attendus destinés à Chrome Canary sur le discuter-webrtc liste de diffusion. Mercredi, il insinué Des canaux de données fiables arrivent bientôt (si vous voulez être parmi les premiers informés de leur lancement, vous pouvez commencer à suivre). Numéro 1493).

Puis, vendredi, il a illuminé notre semaine en annonce Vous pourrez bientôt utiliser l'API getStats() pour découvrir les serveurs ICE sélectionnés par votre navigateur. Plus besoin de tcpdump ni de journaux détaillés pour savoir si vous utilisez un serveur relais ! Vous êtes aussi impatients que nous ?

Enfin, et surtout, il a confirmé que Canary est désormais capable de répartir la charge entre plusieurs serveurs TURN. Voir le fil de discussion complet. ici.

Richard Mentor Johnson ?

Enfin, voici quelques informations concernant les codecs. Matt Frost, chef de produit WebM et ancien PDG par intérim d'On2, a publié que Le VP9 est presque terminé.. Nous ne savons pas ce qui nous enthousiasme le plus : la prise en charge des canaux de profondeur (webcams 3D + cartes de profondeur + WebGL = ???) ou la guerre des codecs VP9 contre H.265.

Puisqu'il semble peu probable que les fournisseurs de navigateurs s'accordent sur un codec intégré commun au cours de cette décennie, la volonté de Mozilla de développer un codec entièrement JavaScript paraît de plus en plus raisonnable. Dans la continuité des travaux de Brendan Eich… Aujourd'hui, j'ai vu l'avenir Dans un article concernant ORBX.js, Peter Bright a écrit un belle pièce Pour Ars Technica, avec plus de détails techniques :

Pour les navigateurs tels qu'Internet Explorer 10 et Safari sur iOS, ORBX est utilisé en mode I-frame uniquement. Pour les autres navigateurs, notamment Firefox et Chrome, il utilise un mode mixte plus classique. En effet, ce mode mixte repose en partie sur WebGL pour son décodage. Les I-frames peuvent être entièrement encodées en JavaScript, tandis que les P-frames nécessitent l'utilisation de shaders en raison de leur plus grande complexité. Internet Explorer 10 et Safari sur iOS ne prenant pas en charge WebGL, il est impossible d'y exécuter des shaders. Par conséquent, ils consomment environ deux fois plus de bande passante pour une qualité vidéo équivalente.

Malheureusement, aucune démo publique pour le moment. Mais nous avons hâte de l'essayer sur nos iPhone 12.

Étiquettes: