Hier im Hauptquartier von vLine haben wir eine interne Mailingliste, über die wir Links zu Artikeln, Mailinglistenbeiträgen, Code-Check-ins und anderen interessanten Informationen zum Thema WebRTC austauschen.
Jetzt, wo wir endlich einen Blog haben, dachten wir, es wäre nett, diese Links mit euch, liebe Leser (Hallo Mama!), zu teilen. Schaut also jeden Montag hier vorbei für eine neue, sorgfältig zusammengestellte Auswahl der WebRTC-News der letzten Woche (echt aktuell, oder?). Und ohne weitere Umschweife, hier ist unsere erste Ausgabe:
Explodierende Endpunkte und Spinnen
Kelly Teal fragt in einem Artikel für Channel Partners: „Was zum Teufel ist WebRTC?“ und befragt dazu einige Analysten.
Wenn es um Videokollaboration geht, spricht jeder über WebRTC. Doch was ist WebRTC und was bedeutet es für Partner?
…
“WebRTC schafft das Potenzial für eine Explosion browserbasierter Video-Endpunkte, die sich nur mit anderen Endpunkten verbinden, die denselben Standard verwenden”, sagte Bill Haskins, Analyst bei Wainhouse Research, gegenüber Channel Partners.
Wir sind uns absolut einig, was die explosionsartige Zunahme browserbasierter Endpunkte betrifft. Genband, Sie widersprachen jedoch der Aussage, dass sie nur mit anderen Nutzern desselben Standards kommunizieren würden, indem sie SPiDR, ein neues Gateway für Legacy-Systeme zu WebRTC, ankündigten. Gary Audin berichtet in NoJitter darüber:
SPiDR befindet sich am Rand des Netzes des Betreibers. Es bietet offene, webzentrierte APIs, die es Anwendungsentwicklern ermöglichen, umfangreiche Kommunikationsdienste über das Netzwerk bereitzustellen, darunter Sprach-, Video-, Präsenz-, gemeinsames Adressbuch, Anrufliste, Instant Messaging und Kollaboration.
Google IO 411
Googles jährliche Entwicklertreffen kommt Ende dieser Woche in die Stadt, und WebRTC Tech Lead Justin Uberti wird mit einer weiteren Session auf die Bühne zurückkehren, die mit Sicherheit bis auf den letzten Platz gefüllt sein wird, und zwar über unseren Lieblings-Echtzeit-Stack (falls Sie seine Session letztes Jahr verpasst haben, können Sie sich das Video hier ansehen).
Dieses Jahr wird er gemeinsam mit Chrome Developer Advocate präsentieren und HTML5 Rocks-Mitwirkender Sam Dutton. Die beiden werden außerdem ein praktisches Code-Labor leiten, um glücklichen Ticketinhabern dabei zu helfen, den Buchstabensalat der WebRTC-APIs und -Protokolle in ansprechende Webanwendungen zu übersetzen.
In diesem Codelab helfen wir Ihnen, die wichtigsten APIs und Technologien von WebRTC zu verstehen: – MediaStream (auch bekannt als getUserMedia): Was ist das und wie verwende ich es? – RTCPeerConnection: Was ist das Besondere an der leistungsstärksten API von WebRTC? – RTCDataChannel: Wie richte ich die Echtzeitkommunikation beliebiger Daten ein? – Signalisierung: Was ist das und wie richte ich sie ein? – Server: Was benötige ich für Signalisierung, STUN und TURN?
Vogelfutter
Apropos Leckerbissen: Justin stimmte sich für IO ein, indem er drei lang erwartete Köstlichkeiten präsentierte, die für … bestimmt waren. Chrome Canary auf discuss-webrtc Mailingliste. Am Mittwoch, er angedeutet dass zuverlässige Datenkanäle bald verfügbar sein werden (wenn Sie als Erster erfahren möchten, wann sie verfügbar sind, können Sie einen Stern setzen). Ausgabe 1493).
Und dann, am Freitag, hat er unsere Woche gerettet durch Ankündigung Sie können bald die getStats()-API nutzen, um herauszufinden, welche ICE-Kandidaten der Browser ausgewählt hat. Schluss mit tcpdump oder ausführlichen Protokollierungen, um zu ermitteln, ob Sie einen Relay-Server verwenden! Sind Sie genauso begeistert wie wir?
Und zu guter Letzt bestätigte er, dass Canary nun die Fähigkeit besitzt, die Last auf mehrere TURN-Server zu verteilen. Vollständiger Thread Hier.
Richard Mentor Johnson?
Zum Schluss noch ein paar interessante Details zum Thema Codecs. Matt Frost, Produktmanager von WebM und ehemaliger Interims-CEO von On2, postete Folgendes: VP9 steht kurz vor der Fertigstellung. Wir wissen nicht, worüber wir uns mehr freuen: die Unterstützung für Tiefenkanäle (3D-Webcams + Tiefenkarten + WebGL = ???) oder die Codec-Kriege zwischen VP9 und H.265.
Da es unwahrscheinlich erscheint, dass sich die Browserhersteller in diesem Jahrzehnt auf einen gemeinsamen, integrierten Codec einigen werden, wirkt Mozillas Vorstoß für einen reinen JavaScript-Codec immer vernünftiger. (Anknüpfend an Brendan Eichs Artikel) Heute habe ich die Zukunft gesehen In einem Beitrag über ORBX.js schrieb Peter Bright einen Schönes Stück für Ars Technica mit weiteren technischen Details:
Bei Browsern wie Internet Explorer 10 und Safari unter iOS wird ORBX ausschließlich im I-Frame-Modus verwendet. Andere Browser, darunter Firefox und Chrome, nutzen einen konventionelleren Mischmodus. Dieser Mischmodus benötigt WebGL für einen Teil der Dekodierung. I-Frames lassen sich vollständig in JavaScript kodieren, P-Frames hingegen erfordern aufgrund ihrer höheren Komplexität Shader-Programme. Da Internet Explorer 10 und Safari unter iOS WebGL nicht unterstützen, können keine Shader-Programme ausgeführt werden. Folglich benötigen sie für dieselbe Videoqualität etwa doppelt so viel Bandbreite.
Leider gibt es noch keine öffentliche Demo. Aber wir können es kaum erwarten, es auf unseren iPhone 12s auszuprobieren.