/ /サーバー上でビデオセグメントを結合し、ウェブとiPhoneにストリームする方法 - iphone、ビデオ、ストリーミング

どのようにサーバー上のビデオセグメントを結合し、WebとiPhoneにストリームする - iphone、ビデオ、ストリーミング

私は、以下を達成するための解決策を試しています:

私は、Webフロントエンドに基づいて動的に結合し、結果をストリーミングできるようにするために、いくつものビデオ(すべて同じフォーマットとディメンション)を持っています。

私はウェブ(フラッシュ)とiPhone(httpライブストリーミング)にストリーミングする必要があります

私の現在の考えは、ビデオとそれをサーバー上のffmpeg-phpと組み合わせて、結果ファイルをプログレッシブとして、またはフラッシュメディアサーバー/ wowzaサーバーを使用して表示できます。

私の質問です:これを処理するより良い方法がありますか(私のためにこれを行うことができるwowzaまたはフラッシュメディアサーバー内のいくつかのスマート)

回答:

回答№1は0

iOSデバイスの場合、HTTPライブストリーミングを簡単にこのようなメカニズムを.m3u8ファイルでサポートします。 Flashベースのプレーヤーの場合、カスタムを実装したり、JW Playerを使用してそのような魔法を実行することができます。

FFmpegを使って作業するのははるかに複雑です:

  • ビデオソースのサイズやコーデックのパラメータが大きく異なる場合は、品質の低下と完全な失敗が発生します
  • トランスコーディングは、そのような問題に精通していないと、品質を簡単に劣化させる可能性があります。
  • サーバー上で劇的に多くのCPUリソースが必要になります。プレイリストのアプローチよりも> 10,000%多いようです。