Port:Unknown

2011年5月19日木曜日

次の災害に備えて

私が記憶する限り、今回の東日本大震災はネットが普及してから初めての大震災だ(もちろん中越地震もあるが死者数千人規模という点では初めてだろう)。ITが復興にどう役立つかを考えるのは大変有益な一方で、次の震災や災害にITがどう立ち向かえるのかを考える時期に来ているのではないだろうか?

例えばGoogleは"地震"と検索すると地震速報がでますと宣伝しているわけだけど、Yahooの用にバナー広告部に速報を出すことはしない。検索ボックス直下に自社の広告を出す余裕があるなら、そこに速報を流すべきなのではないだろうか?何のために彼らは位置情報を取得しているのだろうか?

また災害発生時にどうやって被災地の状況を収集するのかも課題のひとつだろう。携帯電話網とソーシャルメディアの普及で、情報発信は格段にしやすくなった一方で、携帯電話網は回線が常に逼迫しているというジレンマを抱えている。つまり災害発生時にインフラの稼働率を計算できないという弱みを持っている。例えばドコモは音声データをパケットで流すというPTTの再来みたいな事をやるようだが、被災地の状況を伝えるという点では無理があるだろう。例えば地方で災害発生した場合に一番最初に現地に乗り込める金持ちの在京キー局ではなく、被災地のローカルメディアなので、そういったローカルメディアのニュースを即座にUstreamなどに流せるような体制が必要だろう。

日本をハックして復興を支援する事も大事だが、今回の経験を踏まえて次への備えをすることも重要だ。残念な事にこの国に住む限り、地震に限らず何らか自然災害に合わない事は無いのだ。いまやれば次の災害で命を落とす人の数を減らせるかもしれないのだから。

2011年2月23日水曜日

beatrice.js

beatrice.js は JS で ZIP ファイルの解凍を行うライブラリーです。

JS で ZIP の解凍自体は昔からあるのだけど、メガ単位のファイルを処理させるとスタックオーバーフローを起こしたり、最悪の場合メモリが無くなるまでメモリを消費し続けるので使い物にならない。そこで beatrice.js を作った。

元々 File API と組み合わせて使うために作っているので、一度16進数に変換しなくてはいけなくなるので、そこでかなりのオーバーヘッドになっている。

あとinflate や base64 に utf8 は別個に用意する必要があります。

デモ (Chrome と Firefox で動きます。解析時間はファイルサイズに比例するので、大きいファイルを開く場合は時間がかかります。)

2011年1月12日水曜日

H.264

Google Chrom が H.264 のサポートを打ち切る。これはオープンフォーマットを推進するというよりも、自社フォーマットの WebM を促進するための強攻策であると同時に、Chrome が市場に影響力を与えるだけのシェアを持ち始めた事に対する Google の自信の表れだろう。

実際問題として現時点で H.264 をサポートしているのは Chrome と Safari。そして存在しない IE9 だけだ。つまりブラウザシェアを考えると H.264 をサポートしてないブラウザの方が圧倒的に多い事になる。

もちろん広く使用されている H.264 を採用するほうが、作り手側はすべて H.264 で統一できるし、高性能なエンコーダーもあるので、メリットが大きいのだが、その反面後発のフォーマットである WebM への足かせになっている。仮に似た様なスペックでどちらでも使えるのであれば宗教的な事情が無い限り、枯れたフォーマットを使い続けるのは当然の流れだろう。結局の所 WebM はいくらロイヤリティーフリーとはいえ代替の存在でしか無いのだ。

しかし Chrome が H.264 を切れば状況は逆転する。これは MS と Apple の喉元にデファクトスタンダードという刃を突き付けるに等しい。

2011年1月11日火曜日

自然な 3D = 2D

少し前に Tron:Legacy をみた。映画自体は CG で復元された若かりし頃のジェフ・ブリッジスを除いて、観終わった後のガッカリ感も含めて Tron だったわけだが、この Tron:Legacy にも Avatar で使われた Fusion Camera System が使われているのだけど Tron には、最新の Sony F35 というカメラが使われている。この F35 というカメラは映画の上映に使われるフィルムと同じ大きさの 35mm という大型の CCD を使用して、フィルムと同じ情報量をデジタルで記録できるという優れもので、Avatar で使われている F23 と比較して自然な被写界深度を再現出来るようになっている。

例えば Avatar は被写界深度を補うために極端に奥行きを与えた映像にしていて、立体感が分かりやすく作られていた。逆に言えば画面の手前に常にオブジェクトが存在するという不自然な 3D なわけだど、Tron:Legacy ではそう言った演出を添加しなくても、撮影の時点で奥行きを出せるようになっている。

これは一見映像演出として効果がある技術革新に思えるのだけど、そもそも 2D の映像にはフォーカスによって奥行き情報が添加されている。例えば手前に人が立っているとして、その背景がボケているなら奥行きを感じるわけなんだけど、最初から奥行きの情報が添加されている 3D 映画の場合、フォーカスを与えると不自然な空間が作られて目の疲れにも繋がるし、逆にフォーカスを与えないと観客に与えたい情報を与えられないというジレンマに陥る。しかも自然な 3D 映像を作れるようになればなるほど、そのジレンマが増えてくる。

結局の所人間は 2D の映像であっても、脳内では 3D に変換して見ているわけだし、照明効果を初めとして撮影技法の進歩というのは、2D の映像をいかに擬似的に 3D にするのかという歴史でもあったわけなので、結局自然な 3D を追求していくと 2D と同じ見え方という事になるんじゃないだろうか?その点を踏まえると 3D 映画は風景写真のようなワンカットの連続的な表現が良いという事になる。もちろんそれを映画と言って良いのかという問題は別に存在するわけだが…。

2010年11月5日金曜日

TechWave について書いておく

TechWave の批判記事を書くと編集長の湯川氏に BAN されるらしいので、同じく Twitter の不具合なのか BAN されているぽい身として、ここいらで以前から思っていた問題点を書いておく。

TechWave がブログメディアとして基本的に問題あると思うのは、記事の内容が他サイトのコピペであるという部分で、中には本来 TechWave と競合関係にあるはずの TechCrunch の記事を情報源にしている。もちろん IT 関係の出来事はアメリカが中心になるので、他メディアの記事を情報ソースにするのは致し方ない事なのだが、それにしもて TechWave の独自の視点がすべて "蛇足:オレはこう思う" という記事末尾のワンコーナーしかない。つまり TechWave で述べられる意見や考えは、すべて記事執筆者の個人的な意見に過ぎないわけで、TechWave としての意見は無いという事になる。

もちろん個人が主役というのなら、それも結構だが、だとするなら意見の偏りはどう説明するのだろうか?TechCrunch は iPhone をべた褒めする中でも Michael Arrington が iPhone から Android に乗り換える記事を掲載した。もし TechWave が本当にソーシャル思考であるなら、執筆者全員が電子書籍やソーシャルといったバブリーな記事に偏っているのはどういう事なのだろうか?そこに疑問を差し挟む視点を持てないの何故だろうか。そんなマスをターゲットにした記事は週刊ダイヤモンドがやれば良い。少なくともバブルに乗るのはネットメディアがやる必要の無いことだし。それはソーシャルメディアの特性を理解している人間がやることではない。