アメリカのブロードバンド

このネタは何回かすでに取り上げた気もするが、あまりにもひどいのでもう一回。うちはAT&Tだが、昨日も複数回ダウンしていたようだ。

FCC to propose faster broadband speeds | Reuters

The FCC wants service providers to offer home Internet data transmission speeds of 100 megabits per second (Mbps) to 100 million homes by a decade from now, Commission Chairman Julius Genachowski said.

2020年までに100Mbpsの接続を1億世帯に届けろという連邦通信委員会の要求が業界に波紋を読んでいる。アメリカの世帯数は2000年のCensusによると105,480,101世帯なので基本的には殆どの家庭に100Mbpsのブロードバンドを提供しろということだ。こう書くとすごいことに聞こえるが、日本のFTTH利用可能世帯率は80%を超えている

この発言に対するISPの反応はどうしようもない。

“A 100 meg is just a dream,” Qwest Communications International Inc Chief Executive Edward Mueller told Reuters. “We couldn’t afford it.”

“First, we don’t think the customer wants that. Secondly, if (Google has) invented some technology, we’d love to partner with them,” Mueller added.

Qwestによれば100Mbpsは夢物語でそんな金はないし、そもそも客が欲しがってない(!!!)とのことだ。Googleがいい解決策を持ってるなら一緒にやってやってもいいよというところだ。

AT&T, the top broadband provider among U.S. telecommunications carriers, said the FCC should resist calls for “extreme forms of regulation that would cripple, if not destroy, the very investments needed to realize its goal.”

AT&Tは規制によって投資をするインセンティブがなくなると主張している。ちなみにそのAT&Tがうちの地域で提供している最速のブロードバンド(?)は不安定なDSL 6Mbpsだ。

Industry estimates generally put average U.S. Internet speeds at below 4 Mbps.

しかし平均的なスピードは4Mbpsとのことでこれでも50%も上回っているとのこと。

Verizon, the third-largest provider, and one that has a more advanced network than many competitors, said it has completed successful trials of 100 Mbps and higher through its fiber-optic FiOS network.

唯一前向きなVerizonはバックボーンに光ファイバーを使うFiOSサービスを提供しているが、ほとんどの地域では提供されていない(FiOSの最高速度は50Mbpsだが、これが提供される地域は一段と小さい)。

New data: 40 percent in US lack home broadband

Lack of broadband availability is only part of the challenge for Washington, however – because even in places where broadband is available, not everyone subscribes.

アメリカではブロードバンドが提供されていたといしても、それが利用される率が低い。そもそも必要を感じない家庭や高すぎるからと契約しない家庭がたくさんある。

The FCC also wants to use the universal service fund, a U.S. subsidy program for low-income families to gain access to phone service, to get more people high-speed Internet access.

こういった問題にユニバーサルサービスファンドを使おうというのは正しい動きだろう。固定電話サービスの必要性は著しく低下した。ブロードバンドがあれば電話もできるわけで、そちらに集約するのは妥当だ。

「ツイッター7つの仮説」について

Twitterの話題で■グロービス堀義人ブログ: ■ツイッター7つの仮説とそれに対する堀さんがtwitterに関する面白い記事を書いてたので突っ込みなど|堀江貴文オフィシャルブログ「六本木で働いていた元社長のアメブロ」が面白かったのでここでも同じフォーマットでやってみよう。

仮説1:ITの進化に伴い、議論の質が下がる。

ニフティの時代から議論の質が下がったという話。私はニフティにあまりアクセスしたことがないので直接の比較はできないことを先に断っておく。質をどう定義するかにもよるが、平均的な「質」は下がるだろう。では堀さんが問題にされているであろうトップレベルでの質はどうか。

これは何についての議論かによるだろう。話題が明確に決まっている場合、その内容によって分けられている空間のほうが優位だ。極端な話、特定の狭い分野で質の高い議論が必要なら、その分野の研究者を集めて会議室にでも閉じ込めておけば良い。Twitterなどという誰が聞いてるかもわからない代物を使う必要はない。逆に話題が設定されていない場合、看板で仕切られた空間は大変都合が悪い。そのようなケースではTwitterが議論の質を上げる(例えばNPOの経営話はNPOの人だけが集まって議論するよりもいろいろな人が目にするTwitterでやったほうが効果的だろう)。

Twitterのハッシュタグはある意味いいとこ取りを狙った仕組みとも言えるが、管理者の不在は多人数での議論を困難にする。ニフティであればシスオペがフォーラムを適切に管理する(金銭を含めた)インセンティブを持っているが、ハッシュタグの場合は何のコントロールもない。通常のTwitter上のやり取りであれば、あくまで人間(アカウント)ベースなのでそこを押さえていれば生産的な議論が可能だが、ハッシュタグの場合はトピックベースなので難しいだろう。

結論としては、技術によってどのような議論が効率的に行えるかは異なるのであって、単純に上がる下がるという話ではないと考えられる。

仮説2:一方では、訴求力・リアルタイム性が抜群に上がる。ツイッター(SNS)、ブログ、動画などの組み合わせにより、よりパワフルな発信力を個人が持つようになる。

発言力は聞いてくれる人がいないと意味がない。大きな発言力を持ちうるようになれば、それを活用するために受け手を増やすインセンティブが増す(どんな頑張ったって10人しか聞いてくれないなら大した努力はしないが、1,000人なら努力するかもしれない)。受け手を増やす一番まっとうな方法は価値を提供することで、これは議論の質の向上につながる。Twitterは日本において実名の利用が広がっているという意味でIDにより個人が特定可能なパソコン通信と似ている。

仮説3:知のインプットの時間が減るので、人々は扇動されやすくなる。

これは間違っていると思う。まず、多くの人は時間を最大限に活用して知のインプットをしているわけではない。Twitterで30分使うとして、その代わりに削られるものが知のインプットとは限らない(そもそも一日30分知のインプットをしていない人なんて山ほどいるだろう)。

次に、Twitterを通じて普段目にしない分野の知識を得ることは多い。私はTwitterを始めるまでBI・BOP・社会起業とかいう言葉とは無縁だった(というと驚かれる)。そもそも聞いたことのない事柄に関してインプットするのは難しい。Twitterを含めたソーシャルメディアは検索エンジンやRSSを代替こそしないが、それに並ぶ新しい情報のアグリゲーターとなっている。これは知のインプットそのものだ。

最後に、知識をインプットだけで身につけるのは非効率的ということが挙げられる。アウトプットとインプットを繰り返すことでより効率的な学習が可能だろう。

普段から周りに多彩な興味を持った人がいて議論することができるのであれば(もしくは幅広い知識が不要なら)Twitterのメリットは少ないかもしれない。しかし、大抵の場合そんなことはないので、やはりTwitterは知のインプットにむしろ貢献するように思われる。

仮説4:パーソナルな情報がマスメディアを凌駕する。

凌駕するというよりも、マスメディアという概念が分解すると言った方がいいだろうか。

今後は、「日経新聞によると」よりも、「○○さんによると」の方が信憑性を持つ時代が来るであろう。

既にオンラインで記事を読むときには、どのサイトで読んでいるかよりも誰が書いているかを調べるようになっている。ちょっと検索すれば良いだけなので簡単だ。流通段階を押さえていない限り、旧来のビジネスモデルは維持出きない。

仮説5:コミュニケーション依存症(ジャンキー)が増え、物理的交流の機会が減る。

これは間違っている(タイガー・ウッズがセックス依存症というのと同じぐらい間違っている)。「Twitterでは「つぶやく」な」で述べたようにTwitterの特徴は新しいコネクションを作ることだ。物理的交流をすることの価値は、交流する相手が増えることで上がる(多くのネットや携帯を通じたコミュニケーションはそもそも物理的交流を増やすために存在している)。もちろん物理的交流なしに同等のコミュニケーションができるなら必要ないかもしれないが、現状ではそうではない。ましてや140文字のTwitterでは無理だ。私はTwitterでやり取りする人と会ってみたいと思う。Twitterがなければ会いようがないのでこれは物理的交流の増加だ。

仮説6:ツイッターのフォロワーは、共感、情報、知恵などの全人格的な面白み(エンターテインメント性)を求める。

YesでありNoだ。Twitterでどのような面白みを提供するかは本人の選択だ。特定のニュースを提供してくれる人は貴重だし、極端な話ボットだって面白いものは面白い。しかし、他のチャンネルに比べて全人格的な面白みを発信するのに向いている面はあり、そのような利用をする・期待する人が多いのも事実だろう。

仮説7:最終的には、ツイッターも駆逐される。

Twitterが本当に生き残るためには、完全にプラットフォーム化する必要があるだろうが、それでも永遠に続くことはない。問題はどのくらい存続するかと最終的に社会や後続の技術にどんな影響を残すかだ。

データ匿名化の落とし穴

前のポストを書いたときに、一体どこからデータを集めたのかが気になった。公開されていれば適当にスパイダーでも書けば集められるが、そんなに情報が公開されているのだろうか。ちょっと検索してみたら、面白いエントリーが出てきた:

Why Pete Warden Should Not Release Profile Data on 215 Million Facebook Users

先に紹介したエントリーを書いたPete Wardenを批判する記事だ。

[…] he exploited a flaw in Facebook’s architecture to access public profiles without needing to be signed in to a Facebook account, effectively avoiding being bound by Facebook’s Terms of Service preventing such automated harvesting of data. As a result, he amassed a database of names, fan pages, and lists of friends for 215 million public Facebook accounts.

ログインせずにFacebookの公開プロフィールにアクセスできる欠陥を利用して2.15億ものアカウントの名前・ファンページ・友達リストを収集したという。ログインしないことによって自動的にデータを収集することを禁じるFacebookの規約(Terms of Service)を回避したということだ。

二つの論点が提起されている:

First […] just because these Facebook users made their profiles publicly available does not mean they are fair game for scraping for research purposes.

一つ目は、公開プロフィールの意味付けだ。この情報は検索エンジンに収集されるし、Facebook内で検索すれば見ることができる。しかし、規約により自動収集は禁じられており、ユーザーもそういう目的に使われていることを想定しているわけではない。

Second, Warden’s release of this dataset — even with the best of intentions — poses a serious privacy threat to the subjects in the dataset, their friends, and perhaps unknown others.

データが収集されても、それが悪用されるのでなければ気にする人は少ないだろう。これはアメリカ人のプライバシーに対する一般的な態度だ。しかし、Pete Wardenはデータを研究目的で公開する予定であり、それを悪用する方法がある。

What is most dangerous is its potential use to help re-identify other datasets, ones that might contain much more sensitive or potentially damaging data.

そこで指摘されているのは、このデータが他の匿名化されたデータセットで個人を特定するのに利用できるのではないかということだ。この懸念は過去にNetflixが行っているコンテストで指摘されている。

Breaking the Netflix Prize dataset

In October last year, Netflix released over 100 million movie ratings made by 500,000 subscribers to their online DVD rental service. The company then offered a prize of $1million to anyone who could better the company’s system of DVD recommendation by 10 per cent or more.

DVDレンタル(及びストリーミング)を行うNetflixはユーザーにリコメンデーションシステムを改善するアイデアをコンテストを通じて募集し、そのために50万人のユーザーのデータを匿名化した上で公開した。

turns out that an individual’s set of ratings and the dates on which they were made are pretty unique, particularly if the ratings involve films outside the most popular 100 movies. So it’s straightforward to find a match by comparing the anonymized data against publicly available ratings on the Internet Movie Database (IMDb).

しかし、How To Break Anonymity of the Netflix Prize Datasetという研究はその匿名データからユーザーを特定する方法を明らかにした。ユーザーがつけたレーティングはユーザーごとに特徴的であり、それをネットで公開されているレビュー(IMDb)のレーティングと比べることで匿名化されているNetflixユーザーとIMDbのユーザーとを結びつけることができるという。

Netflixのレビューを非公開前提で書いた場合、この方法によってそれがIMDb上の個人のものと特定されてしまう。IMDbで実名を使用していた場合には現実の人物にまでたどり着く。(公開されていない)政治色・宗教色の強い映画に対するレビューから政治的・宗教的立場まで特定可能であり、これがプライバシーの観点から非常に重要な問題だということが分かる。

Warden’s rich dataset of 210 million Facebook users, complete with their names, locations, and social graphs, is just the ammunition needed to fuel a new wave of re-identification of presumed anonymous datasets. It is impossible to predict who might use Warden’s dataset and to what ends, but this threat is real.

Facebookの話に戻ると、個人名・所在地・興味・友達リストというデータが公開されれば、それらの情報(と関連する情報)を含む他の匿名データから個人を再特定する人・集団が出てくるだろう。今後、人間関係を含むデータが増えるのは確実でそういったデータを悪用されるおそれがある。日本で同じような事例があれば、遥かに大きな社会問題になるのは確実だ。

Facebookで地図を色分け

Facebookのデータを使って、アメリカを七つに分けてみたというエントリー:

PeteSearch: How to split up the US

My latest visualization shows the information by location, with connections drawn between places that share friends.

点はユーザーが存在する都市で、線はfriend関係を指しているようだ。州レベルや国レベルのバージョンも用意されている。friendが出来るのはその場所に学校・仕事などで住んだことがある場合がほとんどなので、人々がどう地域間を移動しているかを間接的に表している。さらに、クラスター毎にどのような人やグループが人気なのかも分かる。

ニューヨークからミネソタにかけてはあまり移動がないようでStayathomiaと名付けている。この地域はGodの人気がなくビールやスポーツが人気だそうだ。

Dixieはアトランタを中心とした地域で同じく閉鎖的。南にフロリダだけは別枠で東海岸の都市と強いコネクションがある。これはフロリダに移住する人が多いからだろう(Facebookには中年以上のユーザーも多いし、子供もいれば反映される)。この地域はGodがファンページのトップにくる宗教色の強い地域だ。

Greater Texasは名前通りTexasのDallasを中心としたクラスター。どの都市もDallasと強いコネクションがある。やはりGodが人気。ルイジアナのAlexandriaではAhmed、Mohamedが二番目、三番目に多かったり、テキサスのLaredoではJuan, Jose, Calros, Louisが最も多かったり、地域色が出ていて面白い。

Mormoniaはモルモンとの関連があると思われる地域で、外部とのコネクションが少ない。

Nomadic Westは中西部のだだっ広い地域で、コネクションが遠距離に渡っているのが特徴。外に出て行くほかないということだろうか。Starbucksが人気(?)だそうだ。

Socalistanはカリフォルニアをカバーする。公立大学のシステムからいって州内での(特に若い世代)の移動は盛んなので人口の多いカリフォルニアがクラスターになるのは理解出来る。Socalというのは南カリフォルニアのことでLAが中心であることを示している。ちなみにサンフランシスコではオバマが最も人気のある人物だそうだ。

最後はPacificaでこれはシアトル近辺のクラスターだが、特筆すべき情報は公開されていない。

この分割は数学的アルゴリズムで得られたものではなく、目視で色分けした程度のもののようだが、コメント欄などから察するにアメリカ人の感覚には近いようだ(逆にその感覚によって色分けが影響されている面があるのだろう)。

Googleの市場支配力

ちょっと前に「タブレットと新聞業界 by Google」というエントリーでGoogleが広告市場で行使する市場支配力に触れた:

Googleが圧倒的なシェアを握る広告市場において、Googleはオークションの設計を通じて市場支配力を行使できる

この点は意外に理解されていないような気がするので、関連するリンクと共に紹介したい。

The University of Chicago Law School Faculty Blog: Google’s Search Auctions and Market Power

Google-Yahoo!やYahoo!-Microsoftの提携の際に問題となるのは検索市場の競争環境だ。検索自体は無料なので普通の意味での価格支配力は問題とならない。よって焦点となるのは検索結果に対する広告市場となる。ここでのGoogleの弁護は基本的に次のラインだ。

The Journal (Wallstreet Journal) has drunk the Google Kool-Aid on pricing in search markets: “search providers like Google and Bing also don’t determine ad prices, which are set through auctions.”

GoogleやBingのような検索エンジンは広告スペースをオークションで売却するので自分たちで価格を決めているわけではない(から価格支配力は問題にならない)という主張だ(ちなみにdrink the Kool-Aidというのは安易に他人の言う事を信じてしまうという意味だ)。

しかし、このことは検索エンジンと広告オークション市場が競争政策とは無縁であることを意味しない。ある商品のオークションが一つの場所でしか行われていないか、複数の場所で行われているかはその価格に影響を及ぼすということだ。例えば、入札者が一人でオークション主が一人なら全ての余剰を最低価格を通じて回収することも(理論的には)可能だ。ここでは三つほどの懸念が提示されている:

  1. 最低入札価格の設定
  2. 広告スロットの数の制限
  3. 他社(Ask.com & AOL)とのバンドリング

1,2は価格支配力を行使するためのチャンネルだ。オークション主は最低入札価格を挙げたり、スロットの数を減らすことで落札価格に影響を与えることができる。もちろん、独占それ自体は違法ではないのでこの事自体は問題とはならないが、オークション故に価格支配力はないというのは間違いとなる。よって検索エンジンの(水平的な)契約・合併に対して競争当局が関与する必要があるということだ。

Google-Yahoo Ad Deal is Bad for Online Advertising — HBS Working Knowledge

Google’s purchase of substantial advertising inventory from Yahoo would increase prices for many advertisers that currently buy ads from Yahoo.

こちらは、Google-Yahoo!の協定に反対する文章として書かれたものだが、両者の取り決めによる広告スポット価格の上昇を指摘している。ちなみに前者を書いたChicago Law SchoolのRandal Pickerも後者を書いたHBSのBenjamin EdelmanもGoogle-Yahoo!の件に関してMicrosoftにコンサルタントとして雇われていた。Yahoo!-Bingに関してどのような意見なのかも気になる(Googleとはシェアが違うということか)。

私もGoogleのサービスを数多く利用しているし、Googleの社会貢献は素晴らしいと思うが、それとこれとは別の話だ。