グーグルやフェースブック(というか、最近のウェブサービス全般)がユーザーの検索クエリや検索結果からのクリック情報等を記録して、検索アルゴリズムの向上に利用されているのは私も知っていましたが、ナイーブな私は、グーグルに限っては、アルゴリズムが生む検索結果は一つしかないと今までは考えていました。より具体的に言うと、検索結果の横に表示される広告はパーソナライズされているが、検索結果そのものは誰でも同じだと思っていました。つまり、全世界のユーザーの検索情報を利用してアルゴリズムは進化しますが、同じ日の同じ時間に同じクエリで検索すれば、検索者が誰でも、どこに居ても、どの端末からアクセスしても、検索結果は同じだと考えていたのです(これをAモデルを呼びます)。しかし、動画にもあるように、最近の検索アルゴリズムはユーザーのオンライン活動傾向を読み取り、そのユーザーにとって何が重要な情報なのか、どの情報の価値が低いのか、勝手に選別した上で結果を表示しているというのです(Bモデルとします)。グーグル一つをとっても、ユーザーの位置、端末情報、ブラウザ情報等、57の要素が常に監視・記録されていると動画では語られています。
これは大きな問題です。Aモデルの場合は、全世界のユーザーの活動トレンドが反映されているわけですから、私の検索結果に「ノイズ」、つまり自分の嗜好・関心との関連性が低い情報も表示される可能性が高い。ただ、新聞を読む人やツイッターをしている人なら分かると思いますが、適度なノイズは新しい発見を生むことが多々あります。自分が今まで関心を持たなかったことでも、偶然の発見により関心を持つチャンスが生まれるわけです(そして、それが新たな成長を促す)。私自身、ツイッターを始めてからサブカルチャーの世界に強い関心を持つようになりました。
ではBモデルの何が問題なのか。簡単に言えば、「アルゴリズムによる人間の家畜化」です。
どういうことか具体的に説明するために、批評家の東浩紀氏が2001年に著した『動物化するポストモダン』で展開した主張を考える必要があります。濱野智史氏が『アーキテクチャの生態系』で同書の本質部分を簡潔にまとめているので引用します。
「ポストモダン」と呼ばれる現代社会において、もはや人々は、共通の「価値観」や「目標」を信じることはできなくなっている(「大きな物語の崩壊」)。そのため、もはや小説や映画やアニメやゲームといった個々の「物語コンテンツ」は、社会全体で共有可能な「リアル」を表現する<器>としての役割をはたしておらず、ただ消費者の感情や感覚―それはオタク系の「萌え」であろうと、ケータイ小説系の「感動」(涙腺)でもいいのですが―を的確に刺激する「小さな物語」として、個別にばらばらに消費されている。東氏はこうした事態を、「動物化」と呼んでいます。
これを情報に当てはめて言えば、かつては新聞が社会全体のリアルを表現する<器>でした。それがネットの登場とグーグルの台頭等により、情報は「与えられるもの」から「選ぶもの」に劇的に変わりました。東氏の『動ポモ』での主張を当てはめて強引にまとめると、「人々は自分が好きな情報を好きな方法でしか消費しなくなった」ということです。新聞であれば所々目に付くような「ノイズ」が、ポストモダンの消費傾向では、ほぼ(選択的に)消失してしまったのです。
さて、ここからが本題です。現代社会に生きる私たちは、程度の差はありますが、動物化していることは間違いありません。ただ、それはあくまでも自己選択的な動物化であって、決して他者に強いられた結果ではない。私たちは、自分の意思でネットの海を探索し、欲しい情報を探し当てているはずです。しかし、考えてみてください。今まで自分が使っていた検索アルゴリズムが、実は一種の主観性を持ち、あなたの情報生活を「操作」していたとしたら?過去の活動傾向から勝手に「あなたが好みそうな情報」ばかりを選別して検索結果に表示していたとしたら?それはもはや、自己選択的な動物化どころか、アーキテクチャレベルでのアルゴリズムによる人間の家畜化です。私たちは全く気付かないで、アルゴリズムという名の牢獄で毎日の糧を頂いて幸せに暮らしているのです。選択していたと思っていたら、(選択肢を操作されることで)選択を誘導されていたのです。つまり、Bモデルの行き着く場所は、情報のパノプティコン化に他なりません。
Bモデルが発展すると翻訳者の仕事にどのような影響があるのか。まず、同一の翻訳者(同一の知識・技術・経験を有する人間)でも、PC環境や場所が異なれば検索結果も異なるので、必要な情報の入手が困難になるケースが考えられます。次に、検索結果はユーザーの趣味・嗜好を反映するので、訳文も今まで以上に(時には過剰に)その影響を受けやすくなる。さらに、動画で発表者が「リベラル系のリンクばかりをクリックしていたら保守系の情報が消えていった」と話していたように、特定の思想に(無意識に)偏ってしまう可能性が大きい。翻訳者にとって柔軟な思考は非常に重要ですから、特定の思想に固定観念を持ってしまう(持つように訓練されてしまう)のは致命的です。文脈を読む能力が損なわれてしまいます。
では、どうしたら良いのか?発表者は、ユーザーが不快に感じるかもしれない結果や、関連性が低いと推測される結果についても、アルゴリズムが表示する必要(またはそのオプションを設ける必要)があると主張します。コードに「公共性」や「倫理」を組み込むべきだと。しかし、これはアーキテクチャの設計者側の問題であって、私たち個人がどうにかできることではありません。私たちにできることは、今まで以上に注意して、自分が快く思わない、または関心がないタイプの情報にも寛容になることです。常に関心を持ち、理解しようとする姿勢を持つこと、それが見えないアーキテクチャと共存・共栄する方法だと私は考えます。
※追記(5/25)
結局はこの動画の主張のように、異なる意見を持つ人に自分から積極的にアプローチし、誠実に語り合うことが求められて行くのかもしれません。
1 件のコメント:
ツイッターでも書きましたが、もう何年も前から人によって検索結果が異なる状態になってました>グーグル
翻訳フォーラムでは考えてゆく過程を大事に討論するので、さまざまなものの検索結果がどうであったかという話が出てくることが珍しくありません。で、昔は、「1ページ目の上から何番目に……」とかいって話が通じたのが通じなくなる(並び順が違う)。人によってヒット数さえ大きく違うようになる。このあたりに気づいたのが、もう5~6年も前でしょうか。もしかすると、もっと前だったかもしれません。言語ツールとして使っている身としてはなんとも困った状態になってきたとずっと思ってきました。
自分の考えなどとは大きく異なる文書の翻訳をするときなどは、自分と好みがかけ離れた情報こそ有用だったりしますしね。
もちろん、もっと大きな意味では、マイクさんが書かれているように人としての問題にまで到達するわけですが。
コメントを投稿